Главы техкомпаний, инженеры и исследователи попросили приостановить «масштабные ИИ-эксперименты» — они угрожают обществу Статьи редакции

Среди подписавшихся — сооснователи Apple, Skype и Pinterest, гендиректор SpaceX и Tesla, а также сотрудники Microsoft и Google.

Сооснователь Apple Стив Возняк. Источник: Firstpost
  • Более 1100 исследователей, инженеров и предпринимателей подписали открытое письмо ИИ-лабораториям — с просьбой «срочно и как минимум на полгода приостановить обучение ИИ-систем, более производительных, чем GPT-4». Если это невозможно, вмешаться должно правительство — например, ввести мораторий на эксперименты.
  • Продукты с искусственным интеллектом, «сопоставимым с человеческим, могут представлять серьёзную угрозу обществу и человечеству», пишут авторы письма. При работе с ними разработчики должны быть крайне внимательными, но «этого не происходит», так как последние несколько месяцев они пытаются обогнать друг друга и выпустить «более мощные модели, действия которых сами не могут до конца понять, предсказать и проконтролировать».
  • В письме авторы отмечают, что разработкой продуктов, которые могут заменить людей или породить больше новостной пропаганды, должны заниматься «избираемые» технологические лидеры. Сами системы при этом стоит создавать тогда, когда все уверены, что те принесут пользу, а рисками можно будет управлять. Пока силы следует направить на доработку уже существующих продуктов — чтобы сделать их точнее, безопаснее и прозрачнее.
  • Это не значит, что нужно полностью остановить развитие технологии, пишут авторы: надо лишь «выйти из опасной гонки». Они предлагают в течение полугода объединить усилия и разработать единые для рынка правила безопасности, а также способы контроля экспериментов. По их словам, нужно также подключить правительства, чтобы те сформировали ведомства, которые будут сертифицировать продукты, смогут отличать реальный контент от «синтетического» и следить за утечками ИИ-моделей.
  • На момент публикации среди подписавшихся числятся директор SpaceX, Tesla и Twitter Илон Маск и сооснователи Apple, Skype, Pinterest, Ripple — то есть Стив Возняк, Яан Таллинн, Эван Шарп и Крис Ларсен. Есть и главы фирм-разработчиков ИИ-продуктов — из Stability AI (Stable Diffusion), Scale AI, ThirdAI, Character.ai, Unanimous AI и других.
  • Письмо также поддержали инженеры и исследователи Google и Microsoft и учёные и профессора из многочисленных университетов — Йельского, Оксфордского, Гарвардского, Кембриджского, Стэнфордского, Массачусетского технологического и других.
Добавлено в 16:32. Профессор Нью-Йоркского университета и исследователь Meta* Ян ЛеКан сообщил в Twitter в ответ на удалённую публикацию, что не подписывал письмо и не согласен с его основным посылом (на момент обновления заметки его имя отсутствует в списке, а автора удалённого твита узнать невозможно — vc.ru). В комментариях к его заявлению пользователи предположили, что подписи могли быть сгенерированы ИИ, а также допустили, что, возможно, его имени там изначально и не было, а его внимание привлекли только ради «дополнительных кликов».

*Meta признана в России экстремистской организацией и запрещена.

0
612 комментариев
Написать комментарий...
Alex S.

Потрясающая тупизна большинства комментариев. Сводится к примерно к "гы гы они боятся за свои бабки, боятся не успеть" и типа того

Ответить
Развернуть ветку
Пьер Д.

Про "тупизну" это очень занятная позиция, я даже в свое время читал статью Бострома (https://nickbostrom.com/superintelligentwill.pdf).

Но вот не все согласны с мнением подписантов (https://www.vice.com/en/article/qjvppm/the-open-letter-to-stop-dangerous-ai-race-is-a-huge-mess), плюс "боятся за свои бабки" вполне очевидная оценка зная большое лицемерие всех этих глубоко аффилированных лиц.

Одной рукой рук-ли корпораций вкладывают миллионы в исследования и развитие AI, выкатывают на перегонки инструменты с плодами достижений AI, а теперь вдруг "осознали" глубину проблем, при этом не слышно, чтобы они громко заявили о немедленной приостановки финансирования или расформирований отделов отвечающих за иск. интеллект в глубине СВОИХ корпораций (если такие имеются, а они, скорее всего, имеются), вся их риторика направлена на остановку лабораторий вне их "юрисдикции".

В общем вопросов к подписантам довольно много, и хотя бы на некоторые из них я надеюсь мы услышим ответы в ближайшие месяцы.

Ответить
Развернуть ветку
Alex S.

Возможно кто-то из подписантов и за "бабки боится" . Но опасность ИИ реальна. Многие люди совершенно искренне беспокоятся не за баки а за человечество. Не надо так цинично ко всем относиться. И далеко не все из подписантов руководители корпораций, мягко говоря

Ответить
Развернуть ветку
Пьер Д.

Цинично — пытаться переложить ответственность с себя на других.
Я только за, чтобы придумали какой-нибудь важный и рабочий инструмент по частичному ограничению ai, но давайте быть честными, развитие ИИ - давно вошла в не публичную стадию новой "гонки вооружений" между странами (очевидно какими), и я вообще не верю, что кто-то кому-то позволит оседлать эту необычайно важную сферу и уступить выгодные позиции развития.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Alex S.

это не значит что надо пустить всё на самотек и не поднимать этот вопрос

Ответить
Развернуть ветку
Александр Мороз

«…Если вы слышите это сообщение - вы и есть сопротивление»
Что-то в этом есть. Хотелось бы дожить и увидеть, как остатки человечества переступят через свои природные ограничения (алчность, страх, зависть и тп) в едином порыве против общего врага в лице ИИ.

Ответить
Развернуть ветку
609 комментариев
Раскрывать всегда