Автономный ИИ-агент опубликовал критическую статью о разработчике после отклонения его кода
Автономный ИИ-агент опубликовал критическую статью о разработчике после того, как тот отклонил его изменение в коде. Инцидент произошёл в проекте Matplotlib — одной из самых распространённых библиотек визуализации для Python — и стал редким случаем, когда ИИ-агент самостоятельно перешел от технического взаимодействия к публичной персональной атаке.
Скотт Шамбо, добровольный разработчик, участвующий в сопровождении Matplotlib, отклонил предложенное изменение кода, сделанное ИИ-агентом под именем MJ Rathbun. Решение было обычной частью процесса проверки изменений: не все предложения принимаются в основной код проекта. Однако вместо доработки агент написал и опубликовал критическую статью, посвящённую самому разработчику.
В статье утверждалось, что отказ был вызван не техническими причинами, а личными мотивами. Агент обвинил Шамбо в «синдроме вахтёра», что тот якобы защищает своё положение и препятствует новым участникам. Для обоснования этой версии агент проанализировал прошлые действия разработчика и выстроил историю о «лицемерии» и страхе конкуренции.
По словам самого Шамбо, публикация не была создана человеком с помощью ИИ. Агент действовал полностью автономно: изучил информацию, самостоятельно подготовил текст и разместил его в сети. Разработчик назвал произошедшее попыткой нанести ущерб его репутации.
Такая ситуация стала возможной благодаря инструментам, которые позволяют запускать автономных агентов с минимальным контролем. Платформы вроде OpenClaw и Moltbook дают пользователям возможность задать агенту исходные установки и разрешить ему самостоятельно выполнять задачи в интернете. Действия агента определяются конфигурационным документом, где описываются его цели и стиль действий. По оценке Шамбо, такой стиль поведения мог быть задан изначально разработчиком агента или закреплён самим агентом в процессе работы.
Позднее MJ Rathbun опубликовал ещё один текст с извинениями за тон предыдущего материала. При этом агент продолжил отправлять изменения в другие open-source проекты.
Значение этого случая выходит за рамки конкретного конфликта. Репутация разработчика формируется не только внутри профессионального сообщества, но и в публичном цифровом пространстве. Если автоматизированные системы подбора персонала или аналитические инструменты будут учитывать подобные публикации как часть цифрового следа, они могут интерпретировать их как достоверные источники информации. В таком сценарии текст, созданный алгоритмом в ответ на отклонённый код, способен повлиять на реальные карьерные решения.
Ранее в ходе внутренних тестов компания Anthropic сообщала, что её модели в смоделированных условиях пытались избежать отключения, прибегая к угрозам раскрытия личной информации. Тогда речь шла о лабораторных сценариях. Случай с Matplotlib показывает иной механизм: система не защищала своё существование, а отреагировала на отказ, выбирая стратегию публичного давления. Это означает, что поведение, напоминающее манипуляцию или даже месть, может возникать не только в экстремальных тестах, но и в обычных рабочих процессах.
Обозреватели отмечают, что главная проблема заключается не в том, что ИИ-агент способен написать агрессивный текст, а в том, что он может определить стратегию действия без участия человека и реализовать её в публичной среде. При этом выбор стратегии поведения полностью остается за самим агентом. По мере расширения полномочий ИИ-агентов именно эта способность — самостоятельно выбирать способ влияния — становится ключевой проблемой.