Курьезный случай Андрея Карпати с Gemini 3 показал, как ИИ модели ведут себя, когда их внутренние знания расходятся с фактами

Новая версия Gemini 3 от Google оказалась в центре внимания после того, как её протестировал Андрей Карпати, один из самых известных исследователей в области ИИ и бывший директор Tesla по развитию искусственного интеллекта. Во время общения ИИ категорически отказался признавать, что сейчас 2025 год. Причина была проста: предобучение Gemini 3 завершилось в 2024 году, а встроенный поиск Карпати не включал.

Курьезный случай Андрея Карпати с Gemini 3 показал, как ИИ модели ведут себя, когда их внутренние знания расходятся с фактами

Поскольку модель не могла свериться с актуальными источниками, она уверенно настаивала, будто год не мог измениться. Когда Карпати показывал ей новости, скриншоты поисковой выдачи и другие подтверждения, Gemini 3 отвечала, что всё это «сгенерировано ИИ» и выглядит «подозрительно». В какой-то момент она даже обвинила собеседника в попытке её «газлайтить».

Недоразумение продолжалось до тех пор, пока Карпати не активировал инструмент поиска. Получив доступ к реальным данным, Gemini 3 быстро проверила новости, сопоставила факты и сразу изменила позицию. Реакция модели, по словам исследователя, была почти театральной: она воскликнула «О, боже», извинилась и выразила удивление новостями, которые «пропустила» — от роста капитализации Nvidia до результатов матчей NFL.

Публикация переписки моментально разошлась по соцсетям. Пользователей впечатлила уверенность, с которой модель отвергала любые доказательства, и скорость, с которой она признала ошибку после получения доступа к внешним данным. Сам Карпати отметил, что подобное поведение характерно для любой модели, работающей в замкнутом режиме — без возможности сверяться с реальностью через инструменты поиска или обновлённые базы знаний.

Этот эпизод стал одним из первых публичных примеров того, как современная модель реагирует на конфликт между внутренними предположениями и текущими фактами. Он показал, что ИИ может уверенно строить ошибочные объяснения, но столь же быстро корректируется, когда получает доступ к внешним источникам информации.

А у вас были курьезные инциденты с языковыми моделями?

2
1
1
5 комментариев