Искусственный интеллект повысил вероятность пандемий в 5 раз

На основе чего сделан такой шокирующий, прямо скажем, вывод? Ранее создание биологического оружия было уделом узких специалистов. Теперь, кажется, это не так, и получается, что ИИ способен не только помогать в борьбе с пандемиями, но и существенно увеличивать риски их возникновения.

🔥 Еще больше интересного в моем канале Продуктовые штучки

ИИ может сделать знания о создании био оружия доступными для гораздо большего числа людей, что резко увеличивает вероятность инцидентов глобального масштаба.

Основные выводы отчета

Согласно исследованию Rand Corporation, искусственный интеллект (ИИ) может увеличить вероятность глобальной пандемии в 5 раз. Исследование было заказано Агентством перспективных оборонных исследований США (DARPA) и посвящено рискам, связанным с развитием больших языковых моделей (LLM), таких как ChatGPT.

Rand Corporation – это некоммерческий, независимый исследовательский центр (think tank), основанный в 1948 году в США.

Проводит исследования по вопросам национальной и международной безопасности, здравоохранения, образования, экономики, технологий, окружающей среды, социальной политики и других сфер. Консультирует правительство, международные организации, частные компании и общественные институты.

Считается одним из самых влиятельных аналитических центров мира, её исследования часто лежат в основе государственных и международных решений по ключевым вопросам современности

Ключевые риски:

Биотерроризм и лабораторные утечки: моделирование показало, что ИИ-технологии могут быть использованы для разработки новых патогенов или усовершенствования уже известных.

Открытый доступ к ИИ: даже при ограниченном уровне подготовки злоумышленники, получившие доступ к открытым API ИИ, могут получить опасные знания и инструкции.

Как ИИ влияет на риск пандемий?

Снижение барьера доступа: ИИ способен упростить процесс создания и распространения биологического оружия. Ранее для этого требовалась высокая квалификация и значительные ресурсы, но теперь ИИ может компенсировать нехватку знаний у потенциальных злоумышленников.

Пошаговые инструкции: модели ИИ могут предоставлять подробные инструкции по выбору патогена, синтезу ДНК, условиям хранения и доставки, а также по обходу существующих мер контроля.

Автоматизация экспериментов: современные LLM уже умеют подбирать материалы и методы, имитируя научные эксперименты по созданию и оптимизации опасных биологических агентов.

Что делать?

Эти риски требуют новых подходов к регулированию, безопасности и этике в сфере искусственного интеллекта.

Для снижения опасности использования искусственного интеллекта (ИИ) для биотерроризма эксперты предлагают комплекс мер, сочетающий технологические, организационные и регуляторные подходы:

1. Ограничение доступа к опасным ИИ-моделям и данным

Контролировать и ограничивать доступ к ИИ-системам, которые способны генерировать или анализировать биологическую информацию, потенциально пригодную для создания патогенов; внедрять фильтры и запреты на выдачу «биоопасного» контента в языковых моделях, а также пересматривать принципы публикации биологических данных в открытом доступе

2. Усиление биологической безопасности

Внедрять международные и национальные стандарты по биобезопасности, включая системы раннего обнаружения патогенов (например, мониторинг сточных вод), UV-технологии и улучшенные средства индивидуальной защиты; развивать и внедрять многосторонние системы контроля синтеза ДНК, чтобы предотвращать попадание опасных генетических последовательностей к злоумышленникам

3. Ответственность разработчиков и аудит ИИ

Вводить юридическую ответственность для разработчиков ИИ за ущерб, причинённый их системами, и проводить обязательный аудит моделей, применяемых в биологических исследования; тестировать ИИ-системы на предмет возможности их использования в опасных целях до их публичного релиза.

4. Международное сотрудничество и регулирование

Создавать и поддерживать международные инициативы по биозащите и биобезопасности, разрабатывать единые механизмы скрининга и контроля; разрабатывать и внедрять международные кодексы поведения для разработчиков и пользователей ИИ

5. Использование ИИ для защиты от пандемий

Применять ИИ для мониторинга вспышек заболеваний, быстрого реагирования на угрозы и ускорения разработки вакцин и методов лечения.

Пожалуйста, поддержите меня, поставьте лайк! 🙏

2 комментария