ИИ обгоняет вирусологов: новая эра в науке и новая угроза для безопасности
Искусственный интеллект впервые официально обошёл экспертов-вирусологов в решении сложных лабораторных задач. Согласно исследованию Центра безопасности ИИ и SecureBio, передовые модели, такие как OpenAI o3 и Claude 3.5 Sonnet, продемонстрировали уровень, сопоставимый и даже превосходящий PhD-специалистов.
Исследование, основанное на тесте Virology Capabilities Test (VCT), включало 322 мультимодальных вопроса, требующих практического понимания лабораторных протоколов. Модель o3 показала точность 43,8%, в то время как средний вирусолог достиг лишь 22,1%. При этом o3 вошёл в 95-й перцентиль, а Claude 3.5 Sonnet — в 75-й, что означает уверенное превосходство над большинством специалистов.
Главная особенность теста VCT — задачи, которые нельзя решить с помощью простого поиска в интернете: они требуют глубинного, практически-ориентированного знания. Фактически, ИИ теперь способен работать на уровне, который ранее был доступен только после многих лет учёбы и практики.
Новые возможности для науки
Рост возможностей ИИ в области вирусологии открывает перспективы для мировой медицины. Среди потенциальных выгод:
- ускорение исследования новых патогенов;
- помощь в проектировании и оптимизации экспериментов;
- сокращение ошибок при сложных лабораторных процедурах;
- доступ к экспертной поддержке в регионах с нехваткой специалистов;
- упрощение обмена знаниями между узкими областями вирусологии.
Особенно важно, что ИИ может стать инструментом для стран и регионов, где традиционно не хватает квалифицированных кадров. Более быстрая разработка вакцин и точное управление вспышками заболеваний становятся достижимыми целями.
Угроза биобезопасности
Однако у такого прогресса есть обратная сторона. Демократизация доступа к экспертным знаниям в вирусологии резко повышает риски. По оценкам специалистов, возможность создания или модификации опасных патогенов может оказаться в руках гораздо более широкого круга лиц — в том числе без серьёзной подготовки или доступа к защищённым лабораториям.
На фоне новых данных Los Alamos National Laboratory и OpenAI запустили первое в мире практическое исследование влияния ИИ на биологические угрозы. Аналогичные выводы опубликовал британский Институт безопасности ИИ: современные модели ИИ работают в области биологии на уровне PhD-специалистов.
Организация ECRI уже назвала ИИ-продукты одним из главных технологических рисков для здравоохранения в 2025 году. Эксперты подчёркивают необходимость срочного усиления мер безопасности, включая строгую проверку заказов на синтез генов и лицензирование инструментов для проектирования биологических систем.
После публикации VCT-исследования компании начали вводить меры защиты. Например, xAI опубликовала подробную систему управления рисками для своей модели Grok, а OpenAI усилила ограничения для задач, связанных с биологическими рисками.
Авторы исследования предлагают более радикальные меры: ограничение доступа к мощным функциям в открытых ИИ-системах и внедрение механизмов проверки пользователей — чтобы доступ к таким возможностям получали только проверенные учёные.
На этом фоне всё активнее звучат призывы к государственному регулированию: одних добровольных шагов со стороны компаний уже недостаточно. По мнению экспертов, нужны полноценные законодательные инициативы, чтобы предотвратить неконтролируемое распространение опасных знаний.
ИИ перешёл важный рубеж: теперь он способен конкурировать с лучшими специалистами в одной из самых чувствительных областей науки. Это событие открывает новые горизонты для медицины, но одновременно требует немедленных усилий для защиты от новых угроз. Перед научным сообществом, компаниями и государствами стоит задача: найти баланс между пользой и рисками — прежде чем возможности ИИ перерастут возможности контроля.