Так называемые «ИИ-помощники», в том числе и такие популярные, как ChatGPT, Copilot и Gemini, искажают новостной контент почти в половине своих ответов.
К такому выводу пришли авторы нового масштабного международного исследования, опубликованного в среду Европейским вещательным союзом (EBU) и BBC.
В рамках проекта было изучено 3000 ответов популярных ИИ-помощников на 14 языках. Все оценивались на точность, корректность указания источников информации и способность отличать факты от мнений.
Не пропустите: Портал MSN увольняет редакторов: новости собирать будет ИИ
Результаты показали, что 45% всех изученных ответов содержали как минимум одну значимую проблему. В 81% случаев была выявлена та или иная форма неточности или ошибки.
Ошибки в источниках и фактах
Наиболее серьезной проблемой стало обращение с источниками. Согласно исследованию, треть ответов ИИ-помощников содержала серьезные ошибки в атрибуции: ссылки отсутствовали, вводили в заблуждение или были неверными.
Хуже всего с источниками дела обстоят у Gemini: отчет показал, что 72% ответов этого ИИ-помощника Google содержали серьезные проблемы с указанием первоисточника.
Для сравнения, у остальных участников (ChatGPT, Copilot и Perplexity) в рамках исследования этот показатель не превысил 25%.
Журналисты Reuters связалось с компаниями-разработчиками на предмет их комментариев относительно результатов исследования.
Администрация Gemini, ИИ-бота Google, сослалась на официальное заявление на сайте сервиса, где указано, что компания «приветствует обратную связь и продолжает совершенствовать платформу и делает ее полезной для пользователей«.
В OpenAI и Microsoft заявили, что галлюцинации — когда модель ИИ генерирует неверную или вводящую в заблуждение информацию, часто из-за недостатка данных — действительно являются проблемой, но над её решением специалисты активно работают.
А Perplexity сообщает на своем сайте, что в режиме «Глубокого исследования» бот с точки зрения фактологии на запросы отвечает с точностью до 93.9%.
Проблемы с фактической точностью, включая предоставление устаревшей информации, были обнаружены в 20% ответов всех ИИ.
В качестве примеров в отчете приводятся случаи, когда Gemini неверно указал изменения в национальном законе об одноразовых вейпах.
Другой пример — ChatGPT, который сообщил, что Папа Франциск является действующим Папой Римским, хотя на момент запроса прошло уже несколько месяцев после его смерти.
Не доверяй и проверяй!
В исследовании приняли участие 22 государственные медиаорганизации из 18 стран, включая Францию, Германию, Испанию, Великобританию и США.
Авторы предупреждают, что люди все чаще пользуются ИИ-помощники вместо обычных поисковиков, и такая ситуация с подачей информации «может подорвать общественное доверие к новостям«.
«Когда люди не знают, чему доверять, они в конечном итоге вообще ничему не доверяют, и это может препятствовать демократическому участию», — заявил медиа-директор EBU Жан-Филип де Тендер.
Согласно недавнему отчету Reuters Institute, порядка 7% всех интернет-пользователей новости читают только в чат-ботах, при том около 15% этой аудитории — люди младше 25 лет.
Авторы нового отчета призвали ИИ-компании взять на себя ответственность и улучшить работу своих платформ с новостными запросами. via