Отчёт Future of Life Institute показал: ни у одной крупной ИИ-компания нет чётких планов на случай критических сбоев моделей

Новый выпуск Winter 2025 AI Safety Index от Future of Life Institute (FLI) показал, что ни одна крупная компания в сфере искусственного интеллекта не имеет адекватных стратегий, которые могли бы предотвратить катастрофическое злоупотребление или потерю контроля над их моделями. Согласно этой оценке, разработчики ИИ демонстрируют прогресс в управлении рисками и прозрачности, но когда речь заходит о подготовке к потенциальным угрозам экзистенциального уровня, лучшие компании получают лишь оценку «D», а значительная часть индустрии — ещё ниже.

Отчёт Future of Life Institute показал: ни у одной крупной ИИ-компания нет чётких планов на случай критических сбоев моделей

FLI — одна из наиболее известных некоммерческих структур, занимающихся исследованием долгосрочных рисков ИИ. Её анализы регулярно цитируют технологические компании, регулирующие органы и профильные медиа, а Safety Index стал одним из немногих обзоров, который пытается сравнивать разработчиков ИИ по широкому набору параметров — от внутреннего надзора до оценки угроз, связанных с будущими сверхмощными системами. Именно поэтому индекс воспринимается как серьёзная диагностика отрасли: он даёт редкую возможность увидеть, насколько слова компаний о безопасности подкреплены конкретными действиями.

Но при этом у такого подхода есть и очевидные ограничения. Безопасность систем, сравнимых по масштабу с будущими AGI-моделями, остаётся во многом гипотетической сферой, и ни один рейтинг не способен объективно проверить, насколько заявленные меры действительно сработают в критический момент. Кроме того, оценка основывается на публично доступных материалах и добровольных ответах компаний, что делает результаты чувствительными к уровню раскрытия информации: отсутствие данных не всегда означает отсутствие реальных практик. Индекс позволяет в целом увидеть состояние индустрии, но не гарантирует, что компании, получившие более высокие баллы, будут лучше защищены от рисков в реальных условиях.

В отчёте отмечается сильная дифференциация внутри отрасли. Anthropic, OpenAI и Google DeepMind показали более высокие оценки в категориях прозрачности, внутреннего надзора и управления рисками. Но даже у этих компаний нет полноценного плана по предотвращению потери контроля над будущими моделями. Остальные игроки — включая xAI, Meta, DeepSeek и Alibaba Cloud — в ряде категорий практически не продемонстрировали инвестиций в безопасность, ограничившись базовыми рамочными документами или вовсе не предоставив данные.

Исследователи обращают внимание на заметный разрыв между публичными заявлениями игроков рынка и фактическими мерами. Глава Anthropic Дарио Амодеи, руководители OpenAI и Google DeepMind не раз говорили о необходимости готовиться к рискам высшего уровня, однако индекс фиксирует, что эти заявления пока плохо выражаются в количественных стратегиях, инструментах контроля и проверяемых процедурах.

Отдельной темой остаётся международный контекст. Даже если американские компании начнут быстрее развивать практики безопасности, глобальные риски зависят от готовности остальных стран. Китайские разработчики, такие как DeepSeek и Alibaba, не публикуют структурированных подходов к безопасности и отказались отвечать на вопросы FLI, что привело к минимальным оценкам в категориях, связанных с экзистенциальными угрозами.

Safety Index фиксирует растущее противоречие внутри отрасли: одни компании пытаются выстраивать институты безопасности по мере развития технологий, другие сосредоточены исключительно на скорости и масштабировании. Пока что именно последние задают тон: рынок движется вперёд быстрее, чем появляются инструменты, которые могли бы снизить риски, о существовании которых сами разработчики давно говорят публично.

1
2 комментария