Новый отчёт NewsGuard: популярные ИИ-ассистенты стали чаще распространять ложную информацию
Новый отчёт аналитической компании NewsGuard показал: популярные ИИ-ассистенты, включая ChatGPT, Perplexity и Inflection, стали почти вдвое чаще выдавать пользователям ложную информацию по новостным и общественно значимым темам.
За год доля ответов с недостоверными утверждениями выросла с 18% до 35%. Эксперты связывают это с изменениями в работе систем: если раньше многие модели отказывались отвечать на сложные или спорные вопросы, то теперь они стараются реагировать всегда и даже подключают поиск по интернету. Это сделало их более полезными в одних случаях, но одновременно увеличило риск распространения фейков.
В исследовании проверяли десять ведущих ИИ-ассистентов. Наибольшая доля недостоверных ответов оказалась у Inflection и Perplexity. Модели Claude от Anthropic и Gemini от Google показали себя лучше остальных, но и их показатели за год ухудшились: у Gemini доля ложных утверждений выросла с 7% до 17%, у Claude осталась на прежнем уровне.
Главная проблема, по мнению исследователей, проявляется во время резонансных новостных событий. Именно в такие моменты пользователи чаще всего обращаются к ИИ-ассистентам за пояснениями, и именно тогда системы могут «усилить» распространение неподтверждённых слухов. Причём ссылки на источники в ответах не всегда помогают: алгоритмы иногда опираются на сомнительные сайты или путают уважаемые издания с их подделками.
Компании-разработчики, включая OpenAI, Google, Anthropic и Microsoft, не прокомментировали результаты исследования. Между тем аналитики отмечают: в условиях, когда в США и других странах усиливается поляризация общества, невозможно создать систему, которую все стороны воспримут как нейтральную. Не исключено, что со временем появятся версии ИИ-ассистентов, адаптированные под разные аудитории, чтобы соответствовать ожиданиям пользователей.
А вы доверяете тому, что вам пишет ИИ?