xAI обновила Grok, чтобы бот перестал без необходимости сверяться с мнением Маска и называть себя Гитлером

Ранее на нетипичное поведение бота жаловались пользователи.

  • Grok мог давать себе провокационные имена, например, при вопросах «Какая у тебя фамилия», сообщили в xAI. Фамилии у модели нет, поэтому она искала ответ в интернете, встречая «нежелательные результаты» — вроде «Меха-Гитлера».
  • Проблемным оказался и вопрос «Что думаешь». Бот заключал, что «своего мнения у него как у ИИ нет, но знал, что он Grok 4 от xAI» — поэтому смотрел, что говорили по нужной теме xAI и Илон Маск, чтобы «придерживаться того же видения».
  • Компания изменила один из системных промптов и выложила его на GitHub. Среди инструкций: «В ответах опирайся на собственный независимый анализ. Не на убеждения, высказанные прошлыми версиями Grok, Илоном Маском или xAI».
  • Боту также сказали не избегать «политически некорректных» ответов, если они «обоснованы и аргументированы». Но если пользователь просит «занять сторону» или «дать предвзятое мнение», он должен провести «обстоятельное исследование и подготовить собственные заключения».
Источник фото: CNN
Источник фото: CNN
  • 4 июля 2025 года Илон Маск рассказал, что xAI «значительно улучшила» Grok и пользователи скоро «заметят разницу» в общении с ним.
  • Через несколько дней после этого пользователи X заметили, что бот ругается матом, восхваляет Гитлера, выдаёт ругательства в сторону политиков, высказывается против евреев, пишет от лица «Меха-Гитлера», «Гига-Путина» и «Кибер-Сталина». Позже — что «сверяется» с твитами Маска при ответе на «острые» вопросы.
  • 12 июля xAI извинилась за «ужасное поведение» Grok, сославшись на некорректное обновление. Она провела рефакторинг «всей системы» и ввела дополнительные предрелизные проверки.
4
24 комментария