ИИ даёт искажённые ответы на каждый второй вопрос: опубликованы результаты нового исследования

Анализ исследования + инструкция по борьбе с враньем от нейросетей в конце

ИИ даёт искажённые ответы на каждый второй вопрос: опубликованы результаты нового исследования

Как специалист, который ежедневно работает с интеграцией ИИ-чатботов в корпоративные процессы, я внимательно слежу за исследованиями, которые оценивают реальную надёжность этих систем. Недавнее исследование Европейского вещательного союза (EBU) при поддержке BBC подтвердило то, о чём многие из нас в индустрии уже давно предупреждают: ИИ-помощники регулярно выдают искажённую или неточную информацию — почти в каждом втором ответе.

В рамках масштабного тестирования журналисты из 22 общественных медиа в 18 странах, работающие на 14 языках, проанализировали более 3 000 ответов от ChatGPT, Copilot, Gemini и Perplexity. Их задача — оценить точность, качество источников, способность отделять факты от мнений и давать адекватный контекст.

Результаты тревожные:

  • 45% ответов содержали хотя бы одну существенную ошибку;
  • 31% — проблемы с источниками: их либо не было, либо они вели в никуда или вводили в заблуждение;
  • около 20% — устаревшая или просто неверная информация.

Особенно насторожило, что Gemini показал худший результат: 76% его ответов содержали серьёзные искажения.
Это не просто «мелкие погрешности» — это системные сбои, которые могут привести к реальным последствиям, особенно если ИИ используется в бизнесе, образовании или медиа.

Ситуация усугубляется тем, что всё больше людей заменяют традиционные поисковые системы ИИ-ассистентами.

По данным Института Reuters, 7% потребителей новостей уже получают информацию через ИИ, а среди молодёжи до 25 лет — 15%.

Как отметил Жан Филипп де Тендер, медиадиректор EBU:

«Эти недостатки — не единичные случаи. Они системные, трансграничные и многоязычные. И это подрывает общественное доверие. Когда люди не знают, чему верить, они перестают верить всему — а это угрожает самой основе демократического участия».

Для меня, как для специалиста по внедрению ИИ в бизнес, это напоминание: технология мощная, но требует ответственного подхода. Автоматизация — не замена критическому мышлению. Особенно когда речь идёт о данных, влияющих на решения, репутацию или безопасность.

Перед тем как внедрять ИИ-ассистента в клиентский сервис, аналитику или внутренние процессы, важно чётко понимать его ограничения, настраивать механизмы проверки фактов и обеспечивать «человеческий контроль» там, где это критично.

ИИ — отличный инструмент. Но доверять ему вслепую — всё равно что строить дом на песке.

Что же делать, чтобы GPT перестал выдавать ложную информацию?

Все очень просто: можно добавить в настройки бота промт, который будет мешать ему выдумывать источники и соответственно таким образом избежать почти все виды “галюцинаций ИИ”
Забирай промт в моем телеграм-канале

7
3 комментария