Илон Маск против Жириновского, или Чего так боялись разработчики Искусственного Интеллекта: а оно уже началось!

В последнее время набирает обороты тема письма о запрете развития ИИ, которое подписал Илон Маск, Стив Возняк, Юваль Харари и прочие именитые ребята. В некоторых Европейских странах уже ведут дискуссии о запрете разработок в сфере ИИ - я решил разобраться, где же там собака зарыта?! Оказалось весьма интересно - а к выходу статьи подоспел важный апдейт от ЛДПР - в конце статьи

С чего все начиналось

22 марта Институт Жизни Будущего (Future of Life Institute - как хотите переводите) опубликовал открытое письмо с призывом приостановить обучение моделей ИИ типа ChatGPT 4 и старше.

Институт этот появился в 2014 году и занимается исследованиями, направленными на предотвращение рисков глобальных катастроф, в том числе - риска появления разумного, а потому опасного, искусственного интеллекта.

Сначала я отнесся скептически, но среди основателей оказались не какие-то неизвестные фанатики, а причастные к подобным разработкам ребята: космолог из MIT Макс Тегмарк, кофаундер Skype Джан Таллини и Виктория Кракова, научный исследователь из DeepMind. Судя по тому, что практически каждую инициативу поддерживают супер-звезды, типа Илона Маска, Возняка и прочих - нетворкинг у этого института развит весьма неплохо.

Вернемся к письму. На самом деле письмо достаточно сдержанное и к излишней панике не взывает, хотя каждый читатель может нафантазировать себе любые интерпретации. Я попробую разложить по полочкам:

Призыв - просим приостановить развитие (обучение) моделей ИИ типа ChatGPT (4 модель и старше) на 6 месяцев.

Зачем - чтобы ведущие игроки и государства могли объединить усилия для разработки протоколов безопасного использования/разработки ИИ + повысить интенсивность исследований.

Почему - потому что “мы не знаем”, во что это может вылиться.

Конкретных рисков толком не перечислено, по большей части письмо представляет собой рассуждение в духе: “Может, мы и не правы, но если правы - то что тогда?”. (Практически цитата).

Я смог выделить 3 риска из этих рассуждений:

1. Создание AGI (A general I)

Реализация такого ИИ, который будет обладать сознанием / супер близким к нему поведением. Сможет обучаться в человеческой манере и прочие ужасы из Черного Зеркала.

2. Использование инструментов ИИ для генерации бесконечного количества “фейк” контента

Это может создать очаги напряженности в непредвиденных местах/локациях/сообществах. Да и просто подорвать основы социума, какой бы он ни был.

Когда полез копать, оказалось, этот вопрос поднимал еще Папа Римский Франциск в 2019 году! Мол, генерация такого количества контента, который почти невозможно отличить от созданного человеком - порождает опасность разрушения тех институтов, что призваны поддерживать в социуме хоть какие-то общепринятые договоренности.

3. Использование инструментов ИИ для разработки опасных для человечества типов вооружений

Тут и использование генеративного ИИ для ускорения разработок различного оружия, так и в принципе - риск последствий повышенного внимания к инструментам ИИ. То есть - пока его разрабатывают OpenAI и Google - Тебе скорее помогут справится с агрессией, чем дадут гайд к созданию новой невиданной опасной игрушки.

Меня текст письма немного разочаровал, поскольку я ожидал конкретный список рисков, предложения по реализации, подкрепленные исследованиями и экспериментами, - а там… Там квалифицированные, бесспорно, ребята, рассуждают о тех же проблемах, что и писатели-фантасты: машина обретет разум и поймет, что человеки ей не нужны.

Впрочем, сейчас такое представить гораздо проще. Результаты прохождения топовых экзаменов и тестов по абсолютно различным дисциплинам - действительно впечатляют!

> 80 %
Средние результаты прохождения тестов ChatGPT-4 по более чем 10 дисциплинам (логика, физика, химия, биология, экономика, логика)

Из более чем 10 дисциплин (логика, физика, математика, химия, биология, политология, экономика и пр.) - результаты ChatGPT-4 - выше 60%. Если точнее - 90% из них - выше 80%.

Куда это привело

Часть 1. Хотите как во Франции?

Снова к письму - поскольку информационная поддержка у имени Илона Маска равнозначна $10-миллионному бюджету на трафик в каком-нибудь ВК - письмо заметили в ЮНЕСКО. (Вместо ВК хотел было другие буквы, но т9 исправил, выручает)

ЮНЕСКО - помимо составления списка памятников, занимается исследованиями в сфере предотвращения катастроф, прямо как Институт Жизни Будущего!

Ресурсов у организации при ООН оказалось достаточно, и буквально через пару дней вышел документ на 47 страниц, под названием “Этические рекомендации”. ЮНЕСКО призвала страны участницы немедленно отреагировать на этот документ, а это - примерно все страны-члены ООН.

Краткое содержание документа - ничего интересного.
Но! Список из 100+ топиков, над которыми необходимо совместно поработать. Совместно: это и коммерческим игрокам между собой, и государствам с ними, и между собой отдельно, и чтобы исследования все открыты, и чтоб моральный кодекс на всю Вселенную, - в общем, за все хорошее, и что-нибудь еще, например, гендерный вопрос отдельным пунктом.

Однако скепсис-скепсисом, а ресерч - ресерчем

Алекс Шерман

Я не мог поверить, что такая активность не подкреплена хоть какими-то исследованиями, помимо результатов школьных тестов ChatGPT, которые, как минимум - можно иногда даже угадать.

Да и в 1997 уже был Deep Blue — суперкомпьютер (IBM), который обыграл Гарри Каспарова. А Терминатора все нет…

Так вот, оказалось - исследования все же были (я пролистал с десяток), и в 2017 году они привели к конференции “Выгоды ИИ” (Beneficial AI 2017, California).

Там было много интересностей, а подборка спикеров включала в себя представителей практически всех компаний и институций, что занимаются исследованиями/разработками в сфере ИИ (Google, DeepMind, FaceBook, OpenAI, IBM, Oxford, MIT, etc…)

Результатом этой конференции стал документ “Принципы работы с ИИ” - который являет собой список-прародитель списка ЮНЕСКО, с кратким комментарием, в какую сторону необходимо направить разработки и исследования.

Приведу несколько примеров пунктов-рассуждений, которые касаются рисков развития этой технологии:

  • Как обеспечить надежность будущего ИИ, чтобы системы были эффективны, при этом не подвергались угрозам сбоев и хакерских атак?
  • Как повысить уровень благосостояния с помощью ИИ, не повысив при этом уровень безработицы и сохранив ценность человеческого труда?
  • Как учесть в правовой системе реалии развития ИИ, включая все риски, связанные с его использованием?
  • Какие ценностные ориентиры должны лежать в основе ИИ?
  • Каким правовым и моральным статусом он должен обладать?

Часть 2. Наш ответ Чемберлену!

Итак, риски, страхи и опасения мы вычислили, и я собирался на этом закончить, добавив, что все будет хорошо и нужно учиться пользоваться этим инструментом.

И что письмо: призывает к разумной паузе обучения ИИ на 6 месяцев, чтобы разработчики, правительства, и социум в целом - могли начать разрабатывать некий протокол общей безопасности в этой области. Потому что - границ у технологий нет.

Потом сказал бы подписываться, поскольку про ИИ писать буду много, и пошел бы спать…

Но не тут-то было! Листая новости я обнаружил страшное:

Пока Европа собирает дискуссионные группы на тему Искусственного Интеллекта, невольный наследник Владимира Жириновского, в годовщину его смерти, выходит на сцену и декларирует о разработке искусственного интеллекта, обученного на речах, статьях, дебатах и прочих работах Владимира Вольфовича. И что цель его - аналитика политической ситуации и разработка стратегии развития России и всего мира. Буквально.

Авторская работа с использованием Canva - и открытой лицензией, пользуйтесь! xD
Авторская работа с использованием Canva - и открытой лицензией, пользуйтесь! xD

Должен сказать, что лично я искренне восхищаюсь квалификацией и экспертизой Владимира Вольфовича, однако здесь речь совсем о другом - об Искусственном Интеллекте.

Я не профессиональный журналист, и моим мнением тут сильно пахнет, однако мне искренне интересно:

Не кажется ли вам, что какой-то из перечисленных страхов прямо вот здесь - сделал первый шаг?

Немного источников, которые не пришлись к тексту, но могут пригодится тем, у кого вспыхнет любопытство:

И специально для VC - подписывайтесь, но без ссылки - их тут достаточно. (-:

💜

5050
87 комментариев
100 ₽

А мы делаем вклад в деградацию нации, заканчиваем ИИ бота "Жириновский 2.0" для нашего сервиса https://t.me/Secret_Advisor_bot

Да-) Это ИИ обученный на речах Жириновского.

Но до глобальной угрозы человечеству он пока не дотягивает и общается как-то так.

2
Ответить

Пока цену не поднимут до уровня стоимости репетитора, то неокрепшим умам из школ с запросами ГДЗ будет непросто потом себя найти в жизни с такими фундаментальными познаниями.

1
Ответить

Комментарий недоступен

22
Ответить

Очень согласен, цена может быть сдерживающим фактором

С другой стороны - в какой-то момент границы все равно прорвут)

Ответить

Гдз прекрасно скачивались еще в нулевые, а в десятых вообще появился вольфрам (в который жпт мат задачи шлет).

Школьники которые про все это узнают очень быстро, а еще быстрее учатся применять, устроятся явно лучше человека, который в 2023 не знает что гдз с интернета можно скачать

Ответить

Я не переживаю, ведь Джон Коннор нас спасет))

6
Ответить