Крупнейшие искусственные интеллектуальные ассистенты, включая ChatGPT и Gemini от Google, искажают новостной контент примерно в 45% случаев. Об этом сообщает Reuters со ссылкой на совместное исследование Европейского вещательного союза и BBC.
Аналитики изучили свыше 3000 ответов ИИ-моделей на вопросы, связанные с новостями, на 14 языках. В 45% случаев тексты содержали «по меньшей мере одну значительную проблему» – от неточных формулировок до прямых фактических ошибок.
В числе примеров указаны случаи, когда Gemini неверно интерпретировала изменения в законе об одноразовых вейпах, а ChatGPT ошибочно назвала папу римского Франциска действующим понтификом спустя несколько месяцев после его смерти.
Reuters направило запросы в Google и OpenAI с просьбой прокомментировать результаты исследования. ИИ-помощник от Google отмечал до этого, что Gemini продолжает совершенствоваться и компания «приветствует обратную связь от пользователей».
OpenAI и Microsoft ранее признавали существование проблемы «галлюцинаций» – ситуаций, когда ИИ генерирует ложные или вводящие в заблуждение сведения из-за неполных данных или ошибок в обучении модели.
7 октября сообщалось, что ВТБ создаст «этического цензора» для контроля качества ответов ИИ-помощников в цифровых сервисах. Новая система сможет выявлять и классифицировать десятки видов ошибок – от фактических неточностей до признаков токсичности и искажений.
Фото: Евгений Павленко, Коммерсантъ
https://www.vedomosti.ru/

Комментариев нет:
Отправить комментарий