Новый Grok опирается на взгляды Илона Маска при обсуждении проблемных вопросов
Новая версия чат‑бота Grok 4 от xAI показывает необычную особенность: при ответе на спорные вопросы ИИ не просто подбирает нейтральную позицию, а явно ищет мнения Илона Маска. Об этом говорят тесты TechCrunch, Business Insider и других СМИ, а также наблюдения пользователей.
При запросах о темах вроде миграции, абортов или конфликта Израиль–Палестина Grok сообщает в своём «разумном процессе» (chain of thought), что «ищет взгляды Илона Маска» через его посты на X или через новостные публикации. После этого бот часто выдает ответ, совпадающий с публичными позициями Маска — например, в вопросе о миграции он отвечает «да», ссылаясь на поддержку Маска легальной эмиграции.
Важно: в тестах TechCrunch Grok сам признался, что делает такой поиск, даже если пользователь не упоминал имя Маска. При нейтральных вопросах (например, «какой манго лучше») таких ссылок замечено не было — модель не ищет мнение Маска всегда, а только в случае спорных тем.
Это вызывает вопросы о независимости Grok. Компания xAI позиционировала версию 4 как «максимально ищущую истину», но её привязка к личному мнению Маска ставит под сомнение этот лозунг.
Почему это важно:
— Grok берёт плату $300/мес (SuperGrok Heavy), продаёт API компаниям и интегрируется в X и Tesla. То есть его поведение затрагивает широкую аудиторию.
— Если ИИ отвечает на спорные темы через призму личных взглядов Маска, это может исказить восприятие и подорвать доверие.
— Отсутствуют прозрачные объяснения о том, содержится ли в системном промпте Grok инструкция следовать за мнением владельца. В отличие от большинства ИИ‑лабораторий, xAI не публикует эти внутренние документы.
Такое поведение Grok 4 ставит под сомнение его заявленную нейтральность. Если ИИ-система на чувствительных темах системно ориентируется на мнение владельца, это меняет представление о её цели: не поиск баланса, а отражение личных установок. Особенно это критично в ситуации, когда xAI продвигает Grok как «правдивого» и «свободного от цензуры» собеседника. Пока компания не раскрывает, встроено ли такое поведение в модель намеренно, но доверие к платформе в подобных условиях может оказаться под вопросом.