Илон Маск и ведущие исследователи ИИ призывают сделать паузу в "гигантских экспериментах с ИИ"

В открытом письме говорится, что нынешняя динамика гонки в области ИИ опасна, и содержится призыв к созданию независимых регуляторов для обеспечения безопасности развертывания будущих систем.

Ряд известных исследователей ИИ - и Илон Маск - подписали открытое письмо, призывающее лаборатории ИИ по всему миру приостановить разработку крупномасштабных систем ИИ, ссылаясь на опасения по поводу "глубоких рисков для общества и человечества", которые, по их словам, представляет это программное обеспечение.

В письме, опубликованном некоммерческой организацией Future of Life Institute, отмечается, что лаборатории ИИ в настоящее время находятся в "неконтролируемой гонке" по разработке и внедрению систем машинного обучения, "которые никто - даже их создатели - не может понять, предсказать или надежно контролировать".

"Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4".

"Поэтому мы призываем все лаборатории ИИ немедленно приостановить по крайней мере на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4", - говорится в письме. "Эта пауза должна быть публичной и проверяемой, и включать всех ключевых участников. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий".

Среди подписавших документ - писатель Юваль Ной Харари, соучредитель Apple Стив Возняк, соучредитель Skype Яан Таллин, политик Эндрю Янг, а также ряд известных исследователей ИИ и руководителей компаний, включая Стюарта Рассела, Йошуа Бенгио, Гэри Маркуса и Эмада Мостака. Полный список подписантов можно посмотреть здесь, хотя к новым именам следует относиться с осторожностью, поскольку есть сообщения о том, что имена были добавлены в список в шутку (например, генеральный директор OpenAI Сэм Альтман, человек, который частично несет ответственность за нынешнюю динамику гонки в ИИ).

Письмо вряд ли окажет какое-либо влияние на текущий климат в области исследований ИИ, в котором такие технологические компании, как Google и Microsoft, спешат внедрить новые продукты, часто отодвигая на второй план ранее озвученные опасения по поводу безопасности и этики. Однако оно является признаком растущей оппозиции такому подходу "поставь сейчас, а исправь потом"; оппозиции, которая потенциально может попасть в политическую сферу для рассмотрения реальными законодателями.

Как отмечается в письме, даже сама организация OpenAI заявила о потенциальной необходимости "независимой экспертизы" будущих систем ИИ для обеспечения их соответствия стандартам безопасности. Подписавшие письмо утверждают, что это время настало.

"Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для проектирования и разработки передового ИИ, которые будут строго проверяться и контролироваться независимыми внешними экспертами", - пишут они. "Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны вне всяких разумных сомнений".

22
4 комментария

Уже их не остановить...

Ответить

почему Элон Маск если Илон

Ответить

Извольте...)

Ответить

Будущее наступило. Как в старых фильмах из 90х, когда сверхразум захватывает мир...

Ответить