ИИ-ассистенты искажают новости в 45% случаев

Крупнейшие ИИ-ассистенты, такие как ChatGPT и Gemini, искажают новостной контент в среднем в 45% случаев, показало масштабное международное исследование, проведённое BBC и Европейским вещательным союзом. В анализ включили более 3000 ответов популярных чат-ботов на новостные вопросы на 14 языках. В исследовании участвовали 22 государственные медиакомпании из 18 стран, среди которых Франция, Германия, Испания, Украина, Великобритания и США.

Основные выводы исследования

  • Почти в каждом втором ответе (45%) ИИ содержала одна или несколько значительных проблем: от неточных формулировок до прямых фактических ошибок.
  • В 20% всех ответов фиксировались серьёзные погрешности — например, устаревшая либо выдуманная информация.
  • Gemini показал самый низкий результат: 72–76% его ответов имели или недостоверные, или неверно атрибутированные источники, среди прочих ассистентов (ChatGPT, Copilot, Perplexity) этот показатель был ниже 25%.
  • В качестве конкретных примеров: Gemini некорректно трактовал законодательные изменения по одноразовым вейпам, а ChatGPT ошибочно называл покойного Папу Франциска действующим понтификом спустя месяцы после его смерти.
  • OpenAI и Microsoft ранее признавали проблему так называемых «галлюцинаций», когда ИИ на основе неполных данных генерирует ложные или вводящие в заблуждение сведения.

Влияние и последствия

Эксперты отметили, что такие ошибки особенно опасны в условиях растущей популярности ИИ-ассистентов как источника новостных данных. Уже 7% аудитории онлайн-новостей регулярно используют ИИ-ассистенты для поиска информации, а среди молодёжи этот показатель превышает 15%.

В ответ на обнаруженные проблемы ВТБ совместно с учёными МГУ анонсировали разработку системы «этического цензора», которая будет выявлять и классифицировать десятки видов ошибок в выдаче ИИ — от фактических неточностей до токсичных формулировок и искажений фактов.

Заключение

Несмотря на быстрый рост ИИ-ассистентов, исследование подчеркивает необходимость постоянной доработки моделей, прозрачности в указании источников и внедрения новых этических стандартов для предотвращения распространения ложной информации. Пока что массовое использование ИИ для получения новостей требует осторожности и критического отношения к генерируемым ответам.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *