Новый призыв приостановить разработку сверхинтеллекта: к нему присоединились ИИ-пионеры, учёные и актёры
Группа учёных, инженеров, политиков и деятелей культуры выступила с призывом временно запретить разработку так называемого «сверхинтеллекта» — искусственного интеллекта, способного превзойти человека по уровню мышления, аналитики и контроля над средой. Обращение появилось на сайте Future of Life Institute и собрало более 800 подписей, включая таких заметных фигур, как Йошуа Бенджио, Джеффри Хинтон, Стив Возняк, Ричард Брэнсон, Сьюзан Райс, Стив Бэннон, will.i.am и Джозеф Гордон-Левитт.
Авторы призыва требуют ввести запрет на разработку систем уровня сверхинтеллекта до тех пор, пока не будет научного консенсуса о том, что такие системы можно безопасно создавать и контролировать. Также подчёркивается необходимость широкой общественной поддержки любых будущих шагов в этом направлении.
Это не первый раз, когда звучит подобный призыв. В начале 2023 года та же организация — Future of Life Institute — опубликовала письмо, в котором предлагалось на полгода приостановить разработку моделей мощнее GPT-4. Тогда инициатива не получила широкой поддержки и не повлияла на темпы развития отрасли. Компании продолжили обучать всё более продвинутые системы, и спустя полтора года идея временной паузы вновь возвращается — уже с новым политическим и общественным контекстом.
На этот раз авторы заявления подкрепляют свою позицию результатами опроса: по данным проведённого исследования, 64% опрошенных взрослых в США поддерживают немедленную приостановку разработки продвинутого ИИ, а три четверти выступают за жёсткое регулирование этой сферы.
В документе подчёркивается, что создание сверхинтеллекта — это не просто технологический прогресс, а переход к качественно новому риску: модели, обладающие слишком большой автономией и непредсказуемостью, могут выйти за рамки человеческого контроля. Проблема не в том, что ИИ «восстанет», а в том, что его поведение может быть слишком сложно объяснить, предсказать и — главное — остановить, если что-то пойдёт не так.
В этой логике любое приближение к «общему» или сверхинтеллектуальному ИИ требует не столько технической готовности, сколько институциональной зрелости: научных норм, механизмов контроля, согласованных международных рамок и прозрачного участия общества в решениях.
Несмотря на громкие имена среди подписантов, такой подход пока не получил реального политического веса — особенно в США, где власти, наоборот, открыто поощряют развитие ИИ как стратегической отрасли. Текущая администрация делает ставку на технологическое лидерство и, как минимум публично, не демонстрирует готовности замедлять прогресс ради абстрактной долгосрочной безопасности.
Тем не менее, за пределами США тема вызывает всё больше интереса. В других странах — от ЕС до Китая — обсуждаются модели надзора, стандарты безопасности и возможные ограничения на уровне протоколов, доступа к вычислениям или регулирования рынков. Идея «паузы», пусть и непринятая, становится частью международного словаря — как вариант, который может быть актуализирован в будущем.
А как вы считаете — нужно ли приостанавливать развитие ИИ?