ИИ даёт искажённые ответы на каждый второй вопрос: опубликованы результаты нового исследования
Анализ исследования + инструкция по борьбе с враньем от нейросетей в конце
Как специалист, который ежедневно работает с интеграцией ИИ-чатботов в корпоративные процессы, я внимательно слежу за исследованиями, которые оценивают реальную надёжность этих систем. Недавнее исследование Европейского вещательного союза (EBU) при поддержке BBC подтвердило то, о чём многие из нас в индустрии уже давно предупреждают: ИИ-помощники регулярно выдают искажённую или неточную информацию — почти в каждом втором ответе.
В рамках масштабного тестирования журналисты из 22 общественных медиа в 18 странах, работающие на 14 языках, проанализировали более 3 000 ответов от ChatGPT, Copilot, Gemini и Perplexity. Их задача — оценить точность, качество источников, способность отделять факты от мнений и давать адекватный контекст.
Результаты тревожные:
- 45% ответов содержали хотя бы одну существенную ошибку;
- 31% — проблемы с источниками: их либо не было, либо они вели в никуда или вводили в заблуждение;
- около 20% — устаревшая или просто неверная информация.
Особенно насторожило, что Gemini показал худший результат: 76% его ответов содержали серьёзные искажения.
Это не просто «мелкие погрешности» — это системные сбои, которые могут привести к реальным последствиям, особенно если ИИ используется в бизнесе, образовании или медиа.
Ситуация усугубляется тем, что всё больше людей заменяют традиционные поисковые системы ИИ-ассистентами.
По данным Института Reuters, 7% потребителей новостей уже получают информацию через ИИ, а среди молодёжи до 25 лет — 15%.
Как отметил Жан Филипп де Тендер, медиадиректор EBU:
«Эти недостатки — не единичные случаи. Они системные, трансграничные и многоязычные. И это подрывает общественное доверие. Когда люди не знают, чему верить, они перестают верить всему — а это угрожает самой основе демократического участия».
Для меня, как для специалиста по внедрению ИИ в бизнес, это напоминание: технология мощная, но требует ответственного подхода. Автоматизация — не замена критическому мышлению. Особенно когда речь идёт о данных, влияющих на решения, репутацию или безопасность.
Перед тем как внедрять ИИ-ассистента в клиентский сервис, аналитику или внутренние процессы, важно чётко понимать его ограничения, настраивать механизмы проверки фактов и обеспечивать «человеческий контроль» там, где это критично.
ИИ — отличный инструмент. Но доверять ему вслепую — всё равно что строить дом на песке.
Что же делать, чтобы GPT перестал выдавать ложную информацию?
Все очень просто: можно добавить в настройки бота промт, который будет мешать ему выдумывать источники и соответственно таким образом избежать почти все виды “галюцинаций ИИ”
Забирай промт в моем телеграм-канале