ИИ обгоняет вирусологов: новая эра в науке и новая угроза для безопасности

Искусственный интеллект впервые официально обошёл экспертов-вирусологов в решении сложных лабораторных задач. Согласно исследованию Центра безопасности ИИ и SecureBio, передовые модели, такие как OpenAI o3 и Claude 3.5 Sonnet, продемонстрировали уровень, сопоставимый и даже превосходящий PhD-специалистов.

ИИ обгоняет вирусологов: новая эра в науке и новая угроза для безопасности

Исследование, основанное на тесте Virology Capabilities Test (VCT), включало 322 мультимодальных вопроса, требующих практического понимания лабораторных протоколов. Модель o3 показала точность 43,8%, в то время как средний вирусолог достиг лишь 22,1%. При этом o3 вошёл в 95-й перцентиль, а Claude 3.5 Sonnet — в 75-й, что означает уверенное превосходство над большинством специалистов.

Главная особенность теста VCT — задачи, которые нельзя решить с помощью простого поиска в интернете: они требуют глубинного, практически-ориентированного знания. Фактически, ИИ теперь способен работать на уровне, который ранее был доступен только после многих лет учёбы и практики.

Новые возможности для науки

Рост возможностей ИИ в области вирусологии открывает перспективы для мировой медицины. Среди потенциальных выгод:

  • ускорение исследования новых патогенов;
  • помощь в проектировании и оптимизации экспериментов;
  • сокращение ошибок при сложных лабораторных процедурах;
  • доступ к экспертной поддержке в регионах с нехваткой специалистов;
  • упрощение обмена знаниями между узкими областями вирусологии.

Особенно важно, что ИИ может стать инструментом для стран и регионов, где традиционно не хватает квалифицированных кадров. Более быстрая разработка вакцин и точное управление вспышками заболеваний становятся достижимыми целями.

Угроза биобезопасности

Однако у такого прогресса есть обратная сторона. Демократизация доступа к экспертным знаниям в вирусологии резко повышает риски. По оценкам специалистов, возможность создания или модификации опасных патогенов может оказаться в руках гораздо более широкого круга лиц — в том числе без серьёзной подготовки или доступа к защищённым лабораториям.

На фоне новых данных Los Alamos National Laboratory и OpenAI запустили первое в мире практическое исследование влияния ИИ на биологические угрозы. Аналогичные выводы опубликовал британский Институт безопасности ИИ: современные модели ИИ работают в области биологии на уровне PhD-специалистов.

Организация ECRI уже назвала ИИ-продукты одним из главных технологических рисков для здравоохранения в 2025 году. Эксперты подчёркивают необходимость срочного усиления мер безопасности, включая строгую проверку заказов на синтез генов и лицензирование инструментов для проектирования биологических систем.

После публикации VCT-исследования компании начали вводить меры защиты. Например, xAI опубликовала подробную систему управления рисками для своей модели Grok, а OpenAI усилила ограничения для задач, связанных с биологическими рисками.

Авторы исследования предлагают более радикальные меры: ограничение доступа к мощным функциям в открытых ИИ-системах и внедрение механизмов проверки пользователей — чтобы доступ к таким возможностям получали только проверенные учёные.

На этом фоне всё активнее звучат призывы к государственному регулированию: одних добровольных шагов со стороны компаний уже недостаточно. По мнению экспертов, нужны полноценные законодательные инициативы, чтобы предотвратить неконтролируемое распространение опасных знаний.

ИИ перешёл важный рубеж: теперь он способен конкурировать с лучшими специалистами в одной из самых чувствительных областей науки. Это событие открывает новые горизонты для медицины, но одновременно требует немедленных усилий для защиты от новых угроз. Перед научным сообществом, компаниями и государствами стоит задача: найти баланс между пользой и рисками — прежде чем возможности ИИ перерастут возможности контроля.

2
Начать дискуссию