ИИ-боты не умеют работать с новостями — СМИ негодуют

Так называемые «ИИ-помощники», в том числе и такие популярные, как ChatGPT, Copilot и Gemini, искажают новостной контент почти в половине своих ответов.

К такому выводу пришли авторы нового масштабного международного исследования, опубликованного в среду Европейским вещательным союзом (EBU) и BBC.

В рамках проекта было изучено 3000 ответов популярных ИИ-помощников на 14 языках. Все оценивались на точность, корректность указания источников информации и способность отличать факты от мнений.

Не пропустите: Портал MSN увольняет редакторов: новости собирать будет ИИ

Результаты показали, что 45% всех изученных ответов содержали как минимум одну значимую проблему. В 81% случаев была выявлена та или иная форма неточности или ошибки.

Ошибки в источниках и фактах

Наиболее серьезной проблемой стало обращение с источниками. Согласно исследованию, треть ответов ИИ-помощников содержала серьезные ошибки в атрибуции: ссылки отсутствовали, вводили в заблуждение или были неверными.

Хуже всего с источниками дела обстоят у Gemini: отчет показал, что 72% ответов этого ИИ-помощника Google содержали серьезные проблемы с указанием первоисточника.

Для сравнения, у остальных участников (ChatGPT, Copilot и Perplexity) в рамках исследования этот показатель не превысил 25%.

SearchGPT: свой ИИ-поисковик тестирует OpenAI

Журналисты Reuters связалось с компаниями-разработчиками на предмет их комментариев относительно результатов исследования.

Администрация Gemini, ИИ-бота Google, сослалась на официальное заявление на сайте сервиса, где указано, что компания «приветствует обратную связь и продолжает совершенствовать платформу и делает ее полезной для пользователей«.

В OpenAI и Microsoft заявили, что галлюцинации — когда модель ИИ генерирует неверную или вводящую в заблуждение информацию, часто из-за недостатка данных — действительно являются проблемой, но над её решением специалисты активно работают.

А Perplexity сообщает на своем сайте, что в режиме «Глубокого исследования» бот с точки зрения фактологии на запросы отвечает с точностью до 93.9%.

Проблемы с фактической точностью, включая предоставление устаревшей информации, были обнаружены в 20%  ответов всех ИИ.

В качестве примеров в отчете приводятся случаи, когда Gemini неверно указал изменения в национальном законе об одноразовых вейпах.

Другой пример — ChatGPT, который сообщил, что Папа Франциск является действующим Папой Римским, хотя на момент запроса прошло уже несколько месяцев после его смерти.

Не доверяй и проверяй!

В исследовании приняли участие 22 государственные медиаорганизации из 18 стран, включая Францию, Германию, Испанию, Великобританию и США.

Авторы предупреждают, что люди все чаще пользуются ИИ-помощники вместо обычных поисковиков, и такая ситуация с подачей информации «может подорвать общественное доверие к новостям«.

«Когда люди не знают, чему доверять, они в конечном итоге вообще ничему не доверяют, и это может препятствовать демократическому участию», — заявил медиа-директор EBU Жан-Филип де Тендер.

Согласно недавнему отчету Reuters Institute, порядка 7% всех интернет-пользователей новости читают только в чат-ботах, при том около 15% этой аудитории — люди младше 25 лет.

Авторы нового отчета призвали ИИ-компании взять на себя ответственность и улучшить работу своих платформ с новостными запросами. via

Что будем искать? Например,VPN

Мы в социальных сетях

Сайт использует файлы cookie. Оставаясь на сайте, вы подтверждаете своё согласие с политикой использования файлов cookie и сервиса Яндекс.Метрика.