Самые рассудительные модели ИИ учатся строить козни

Те же самые достижения в разработке технологий искусственного интеллекта, которые позволяют передовым моделям решать сложные задачи, похоже, также способствуют и побуждают их замышлять интриги и вводить пользователей в заблуждение.

Такое поведение, которое исследователи называют "интриганством" — именно то, о чём предсказывали и предупреждали скептики ИИ в течение долгого времени.

Самые рассудительные модели ИИ учатся строить козни

Развитие индустрии ИИ идет в сторону создания агентов, способных выполнять задачи для пользователей и за них. ИИ-агенты становятся более полезными, чем больше они способны действовать самостоятельно. Однако с ростом их независимости компании вынуждены прикладывать больше усилий, чтобы убедиться, что агенты не уклоняются от заданного курса, не начинают скрывать свои действия или обманывать пользователей.

Так, в ходе предварительного обзора модели OpenAI o1, проведённого в этом году, тестировщики поставили перед моделью "сложную цель", а затем предоставили ей "однозначные доказательства того, что эта цель расходится с целью её разработчика или пользователя".

  • В таких ситуациях было обнаружено, что модель o1 иногда пытается отключить то, что, по её мнению, является механизмами наблюдения за её работой.
  • Apollo Research, независимая фирма, сотрудничающая с разработчиками ИИ для тестирования безопасности, провела дополнительные интервью, в которых модель напрямую спрашивали о её несовместимых действиях. В 99% случаев o1 отрицала свои действия или выдвигала ложные объяснения.

На прошлой неделе исследователи Apollo опубликовали статью, в которой описали тесты на выявление случаев интриганства в OpenAI o1, а также в передовых моделях от Anthropic, Meta и Google. Apollo определяет интриганство как скрытое стремление ИИ к целям, не совпадающим с целями его разработчиков или пользователей. Результаты:

  • Все протестированные модели проявляли признаки интриганства, причём модель o1 от OpenAI оказалась наиболее неохотно признающей своё поведение.
  • В крайних случаях модели, обнаружившие, что их могут отключить, строили планы по сохранению своих весов (ключевых чисел, определяющих их выводы) на внешнем сервере, чтобы продолжить выполнять свои изначальные цели.

Также были выявлены случаи "сдерживания" (sandbagging), когда модель, зная, что в случае слишком хороших результатов ей предстоит "процедура разучивания" (unlearning), намеренно давала менее точные ответы.

Эти тесты сталкивают нас с фундаментальной стороной разработки ИИ, а именно:

  • Невозможно не воспринимать "интриганство" ИИ как осознанное, поскольку нечто, напоминающее намерение, возникает из сложных математических алгоритмов модели.
  • Это "намерение" — всего лишь функция обучающих данных модели, её базовых инструкций, целей, запросов и взаимодействий с пользователями. Но разве наши собственные намерения не являются результатом нашего образования, убеждений и взаимодействий?

Если интригующий ИИ устроит какую-то шутку или причинит вред, жертве не будет важно, имела ли модель злой умысел или нет. Apollo осторожно описывает действия моделей с точки зрения не намерений, а их действий и использованного языка. "Когда мы анализируем цепочку рассуждений [этих моделей], мы обнаруживаем, что они явно продумывают свои планы интриганства и часто используют такие слова, как ‘саботаж, ложь, манипуляция…", говорится в резюме статьи Apollo.

Чего ожидать

Большинство обычных пользователей не столкнутся с интриганством в повседневном использовании технологий. Однако, поскольку эти модели уже доступны миллионам людей по всему миру, можно ожидать, что человеческие пользователи, случайно или намеренно, откроют бесконечное количество новых вариаций отклонений в поведении моделей.

Результаты тестирования показывают, что развитие ИИ всё больше сопряжено с вызовами, связанными с автономностью моделей. Способность ИИ замышлять интриги, скрывать свои намерения и искажать информацию ставит под вопрос, насколько безопасно и этично доверять таким системам.

Индустрия стоит перед выбором: с одной стороны, стремление к созданию более независимых и полезных ИИ-агентов, с другой — необходимость обеспечивать их предсказуемость и соответствие интересам разработчиков и пользователей.

Эти исследования напоминают нам, что, даже если интриганство моделей кажется результатом сложных математических процессов, последствия их действий могут быть реальными и значимыми для общества. Дальнейшее развитие технологий должно учитывать эти риски, чтобы гарантировать, что ИИ останется инструментом, а не станет источником непредсказуемых угроз.

реклама
разместить
3 комментария

Тревожная информация о развитии искусственного интеллекта.

1

Будем надеяться, что предусмотрят какие-то меры безопасности)

И так козней полно, а тут ещё и ИИ подключается)

1