xAI обвиняет "несанкционированное" оперативное изменение системы во вспышке "белого геноцида" в нейросети Grok

Видео сгенерировано в KolerskyAI

Как и в случае с февральским инцидентом, xAI объясняет недавние предвзятые политические заявления Grok "несанкционированной модификацией" системного запроса. В заявлении, опубликованном 16 мая, компания сообщила, что изменение было внесено рано утром 14 мая.

По словам xAI, это изменение привело к тому, что Grok генерировала политически заряженные ответы о "геноциде белых", которые нарушали внутренние рекомендации и основные ценности компании. С тех пор подсказка была восстановлена до предыдущей версии.

xAI обвиняет "несанкционированное" оперативное изменение системы во вспышке "белого геноцида" в нейросети Grok

xAI сделал аналогичное заявление во время февральского инцидента, заявив, что бывший сотрудник OpenAI был ответственен за это более раннее изменение.

Для повышения прозрачности xAI объявила, что начнет публиковать все системные подсказки на GitHub. Компания также планирует внедрить более строгие процессы проверки, чтобы отдельные сотрудники не могли вносить несанкционированные изменения, и создаст круглосуточную группу мониторинга, которая будет быстрее реагировать, когда Grok выдает сомнительные результаты.

Тем не менее, системные подсказки - не единственный способ повлиять на поведение чат-бота. Тесты, проведенные в апреле, показывают, что Grok больше не повторяет свою предыдущую критикуИлона Маска и Дональда Трампа как основных источников дезинформации об X, хотя, по словам xAI, запрос остался неизменным. Это наводит на мысль, что xAI может также использовать другие механизмы контроля, такие как калибровка выходной вероятности или точная настройка серверной модели, чтобы повлиять на поведение Grok.

Призыв к большей прозрачности этих дополнительных механизмов контроля был встречен "С одобрением" инженером xAI Игорем Бабушкиным.

Начать дискуссию