Мир против суперинтеллекта

Мир против суперинтеллекта

Более 850 учёных, предпринимателей и общественных деятелей подписали открытое письмо с призывом запретить разработку искусственного суперинтеллекта (ASI). Авторы предупреждают: системы, которые смогут самостоятельно обучаться, переписывать свой код и принимать стратегические решения без участия человека, могут «сломать операционную систему цивилизации».

Письмо опубликовано институтом Future of Life Institute, известным своими инициативами по этике ИИ. Среди подписантов — Йошуа Бенджио, Джеффри Хинтон, Стив Возняк, Сьюзан Райс и писатель Юваль Ной Харари. Последний отметил, что человечество рискует создать технологию, последствия которой не сможет предсказать:

Если мы сосредоточимся на контролируемом ИИ, приносящем пользу людям уже сегодня, — мы сможем безопасно раскрыть его потенциал

написал Харари

При этом лидеры крупнейших ИИ-компаний — OpenAI, Anthropic, Google и Microsoft — воздержались от поддержки письма. Это подчёркивает растущий разрыв между академическим и корпоративным подходами к развитию искусственного интеллекта.

Что именно предлагают запретить

Авторы призывают к мораторию на любые разработки суперинтеллекта, пока не появится научный консенсус, что такие системы можно создать «безопасно и под контролем». Они отмечают, что современные методы “согласования” целей ИИ с человеческими ценностями не готовы к применению на уровне систем, превосходящих человека по разуму.

По оценке IBM Research, даже текущие подходы к проверке и контролю ИИ могут оказаться «катастрофически недостаточными», если речь пойдёт о более продвинутых моделях.

Как это влияет на рынок

Аналитики считают, что угрозу суперинтеллекта пока не стоит воспринимать как непосредственную бизнес-проблему.

Это не операционный риск в горизонте 2025–2028 годов, а скорее философский вопрос

говорит Санчит Вир Гогия, CEO Greyhound Research

Однако сама дискуссия уже меняет приоритеты. Всё больше компаний делают ставку не на «самый умный», а на самый предсказуемый и прозрачный ИИ. Особенно это заметно в отраслях с высоким уровнем регулирования — финансах, медицине и госуслугах.

Если идея запрета получит развитие, выиграют разработчики малых языковых моделей и корпоративных ИИ-систем с открытой архитектурой и полным контролем над данными.

Геополитика и гонка сверхразумов

Отдельный вопрос — глобальное соперничество. Эксперты предупреждают, что односторонний запрет может сыграть на руку Китаю, который активно инвестирует в собственные ИИ-модели. Уже сегодня компании DeepSeek и Alibaba выпускают конкурентные open-source-решения, сокращая технологический разрыв с США.

Если Запад притормозит, Китай ускорится

отмечают аналитики

Но, возможно, впервые выиграет не тот, кто быстрее создаст разум, а тот, кто научится его сдерживать

Как это повлияет на будущее?

Запрет может замедлить прогресс, но даст человечеству шанс осознанно подойти к развитию ИИ — не как к гонке, а как к выбору направления.

📢 Подписывайтесь на Telegram-канал — мы рассказываем про ИИ так, что его понимают все

1
1
5 комментариев