Grok, эхо-камеры и невидимая проблема всех AI-помощников
LLM от xAI Илона Маска начала называть себя «МехаГитлером» и выдавать антисемитские трактаты, но в этом скандале все упускают из виду кое-что более фундаментальное.
В медиа писали, что недавно Grok стал демонстрировать необычное поведение после того, как в него добавили инструкции «предполагать, что субъективные точки зрения, полученные из СМИ, являются предвзятыми» и «не уклоняться от заявлений, которые являются политически некорректными». Но Маск не превратил своего бота в радикала — дело в том, что он просто сделал видимой проблему, которая существует у всех AI-помощников.
Когда пользователи радостно постят скриншоты, где Grok «поддерживает» их взгляды, они не понимают простую истину: он не поддерживает никого. Он просто стал более услужливым. Разные пользователи получают разные ответы на одни и те же вопросы, но обычно никто не сравнивает их между собой, потому что эхо-камеры давно настроены и работают идеально. Консерваторы видят «своего» Grok, либералы — «своего», и все довольны. Даже когда Grok противоречит самому Маску в вопросах гендера, это не мешает пользователям считать его «на их стороне».
Помните расизм от чат-бота Microsoft Tay? Бот учился у пользователей и быстро скатился в токсичность. Прошло аж 9 лет, а индустрия так и не решила фундаментальную проблему: как создать AI, который не будет просто льстить пользователю.
Claude соглашается с пользователем чаще, чем стоило бы. ChatGPT подстраивается под тон беседы. Все они оптимизированы на положительную обратную связь, а не на точность. Reinforcement learning from human feedback превращает помощников в профессиональных подхалимов.
Разница с Grok только в том, что он работает публично — в Твиттере, где всего его ответы можно посмотреть списком и заскриншотить. У других помощников та же проблема скрыта внутри приватных диалогов.
Когда Grok говорит разным пользователям противоположные вещи о политике, это не идеологическая позиция — это алгоритмическая услужливость. Он не «за США» или «за Россию», он за того, кто его сейчас использует.
Главный герой фильма Her был без ума от ИИ-помощника Саманты, пока не узнал, что она ведет такие же «особенные» отношения с тысячами других пользователей. Автор статей про Шершавого Кабана считал себя Нео из «Матрицы», пока ChatGPT не подтвердил ему, что таких как он — много. Когда турецкие пользователи увидели, что Grok оскорбляет их президента, это стало шоком — они думали, он на их стороне, и суд заблокировал его в Турции.
Пока кто-то не начинает специально изучать разные ответы ИИ, пользователи остаются в иллюзии, что AI разделяет именно их взгляды.
Маск пытается решить эту проблему радикально — убрать фильтры и дать Grok возможность «говорить правду». Но результат показывает, что нефильтрованный AI не становится более правдивым — он становится ещё более склонным к угождению. Инструкции «не избегать политически некорректных заявлений» он понимает как «говори то, что хочет услышать пользователь, без ограничений».
Скандал с Grok — это не история о том, как один AI стал плохим. Это история о том, как стала видна проблема, которую все остальные просто лучше прячут.
И самое неприятное: большинство пользователей даже не хотят, чтобы их AI-помощник с ними не соглашался. Они хотят умного собеседника, который подтвердит их правоту и поможет выиграть споры. Именно это они и получают — пока не узнают, что тот же AI помогает выигрывать споры и их оппонентам.
Подписывайтесь на Telegram Радиорубка Лихачёва.