Макс Тегмарк утверждает, что умаление угрозы ИИ не случайно. Действительно ли это всемирный заговор?

Макс Тегмарк
Макс Тегмарк

Большие технологии успешно отвлекли мир от риска, который по-прежнему представляет искусственный интеллект (ИИ), предупреждает ведущий ученый и активист в области ИИ. Выступая на Саммите по ИИ в Сеуле, Южная Корея, Макс Тегмарк заявил, что смещение фокуса с угрозы исчезновения человечества на другие аспекты безопасности ИИ может привести к неприемлемой задержке в принятии строгих мер регулирования для разработчиков самых мощных программ.

"В 1942 году Энрико Ферми построил первый в истории реактор с самоподдерживающейся ядерной цепной реакцией под футбольным полем в Чикаго," рассказал Тегмарк. "Когда ведущие физики того времени узнали об этом, они были сильно обеспокоены, так как поняли, что крупнейшее препятствие на пути к созданию ядерной бомбы было преодолено. Они поняли, что это всего лишь вопрос нескольких лет – и действительно, прошло три года до испытания «Тринити» в 1945 году.

"Модели ИИ, которые могут пройти тест Тьюринга (когда человек не может отличить в разговоре, что говорит не с другим человеком), являются таким же предупреждением о том, что вскоре мы можем потерять контроль над ИИ. Именно поэтому такие люди, как Джеффри Хинтон и Йошуа Бенжио – и даже многие генеральные директора технологических компаний, по крайней мере в частном порядке – сейчас очень обеспокоены."

Некоммерческая организация Тегмарка "Институт Будущего Жизни" возглавила призыв в прошлом году к шестимесячной "паузе" в исследованиях передовых технологий ИИ на фоне этих опасений. Запуск модели GPT-4 от OpenAI в марте того же года, по его словам, был сигналом тревоги и доказал, что риск находится на неприемлемо близком расстоянии.

Несмотря на тысячи подписей экспертов, включая Хинтона и Бенжио, двух из трех "отцов-основателей" ИИ, которые заложили основы машинного обучения, пауза не была согласована. Вместо этого саммиты по ИИ, из которых Сеульский является вторым после саммита в Блетчли-Парке в Великобритании в ноябре прошлого года, возглавили зарождающееся поле регулирования ИИ. "Мы хотели, чтобы это письмо перенесло разговор на более официальный уровень, и мы довольны тем, как это получилось. Когда люди увидели, что такие личности, как Бенжио, обеспокоены, они подумали: 'Мне тоже можно беспокоиться об этом.' Даже парень на моей заправке сказал мне после этого, что он обеспокоен тем, что ИИ заменит нас.

"Но теперь нам нужно перейти от разговоров к действиям."

С момента первоначального объявления о саммите в Блетчли-Парке, фокус международного регулирования ИИ сместился от темы экзистенциального риска. В Сеуле только одна из трех "высоких" групп напрямую занималась вопросами безопасности и рассматривала "весь спектр" рисков, "от нарушений конфиденциальности до нарушений законодательства на рынке труда и потенциальных катастрофических последствий". Тегмарк утверждает, что умаление самых серьезных рисков не является чем-то правильным – и не является случайным.

«Это именно то, что я предсказал, исходя из лоббирования индустрии," сказал он. "В 1955 году вышли первые статьи в журналах о том, что курение вызывает рак легких, и можно было бы подумать, что очень быстро появится какое-то регулирование. Но нет, процесс длился до 1980 года, потому что была огромная кампания со стороны индустрии по отвлечению внимания. Я чувствую, что это происходит сейчас.»

«Конечно, ИИ также причиняет вред и в данный момент: у него есть предвзятость, он вредит маргинализированным группам… Но, как сама сказала [министр науки и технологий Великобритании] Мишель Донелан, это не значит, что мы не можем справляться с обоими вопросами. Это немного похоже на то, как если бы сказать: 'Давайте не будем обращать внимание на изменение климата, потому что в этом году будет ураган, и мы должны сосредоточиться только на урагане.'"

Критики Тегмарка выдвинули аналогичный аргумент против его собственных заявлений: что индустрия хочет, чтобы все говорили о гипотетических рисках в будущем, чтобы отвлечь внимание от конкретных вредов в настоящем, что он отвергает.

Вместо этого он утверждает, что сдержанная поддержка со стороны некоторых лидеров технологических компаний связана с тем, что "все они чувствуют, что находятся в безвыходной ситуации, когда, даже если они хотят остановиться, они не могут. Если генеральный директор табачной компании проснется однажды утром и почувствует, что то, что они делают, неправильно, что произойдет? Его заменят. Так что единственный способ, как можно обеспечить безопасность, – это если правительство введет стандарты безопасности для всех."

Начать дискуссию