Визионеры искусственного интеллекта о его будущем

Пионеров ИИ объединяет видение технологии как революционной, которая изменит мир кардинально. А в остальном — их представления по принципиальным вопросам расходятся, и порой кардинально. Анализирую взгляды на принципиальные для развития ИИ вопросы со стороны двух наиболее ярких визионеров: Сэма Альтмана и Яна Лекуна.

** Еще больше интересного в моем канале продуктовые штучки**

Как можно обозначить позиции визионеров в целом?

Так, Сэм Альтман скорее алармист: при всех огромных преимуществах ИИ, он не преминет рассказать о рисках, сопутствующих наступлению эры ИИ, и необходимости регулирования для минимизации негативных последствий использования такого мощного инструмента.

Ян Лекун, напротив, высмеивает апокалиптические сценарии развития ИИ и осуждает тех, кто их высказывает (полагая, что либо они делают это по незнанию, либо по корыстным соображениям).

Аргументы обоих выглядят достаточно убедительно, судите сами, кто прав.

В какой компании должны вестись разработки: коммерческой или НКО?

Сэм Альтман

Изначально был убежден, что разработкой ИИ была добросовестной, ею должны заниматься некоммерческие компании и государство. Однако OpenAI не смог удержаться в статусе НКО и найти независимое финансирование, в итоге получив финансирование от Microsoft.

Ян Лекун

Не видит другого способа развивать ИИ, кроме как в рамках коммерческих компаний, у которых есть необходимые ресурсы. Исследования в области ИИ трудоемки и очень дорогостоящи (как минимум, требуют больших вычислительных возможностей), и никакие некоммерческие организации не смогут этот потянуть. И OpenAI не смог удержаться в статусе НКО, получив финансирование от Microsoft. К тому же модели с открытым кодом могут получить преимущества развития, в том числе - финансовые (например, освобождение от налогов).

Исходный код / модель: открытая или закрытая

Сэм Альтман

Изначально придерживался подхода открытого кода, но впоследствии поменял свое мнение, увидев быстрый прогресс ИИ и испугавшись воздействия злоумышленников. И в GPT-2 код был закрыт — по крайней мере до того момента, пока не будет найдено решение.

Ян Лекун

Только открытые модели имеют множество преимуществ с точки зрения безопасности и устойчивости развития именно за счет возможности противостоять угрозам за счет объединения ресурсов бесчисленного множества заинтересованных сторон.

И к тому же открытые модели предпочтительны для всех стран, т.к. помогут избежать монополизации платформы в руках немногих технологических компаний. А значит, это поможет поддержать развитие моделей с открытым исходным кодом.

Как бороться со злоумышленниками?

Сэм Альтман

Полагает, что в настоящий момент нет убедительного ответа, и эту задачу еще предстоит решить. Риск того, что технологией завладеют темные силы, стал причиной отказа от открытой модели.

Ян Лекун

Решение — бежать быстрее в соревновании с плохими парнями. И сделать это можно только за счет открытой модели, в которую могут вкладываться коллективно бесчисленное множество людей, таким образом (а не с помощью запретов и эмбарго на чипы) превосходя "плохих парней".

Да, у плохих парней в настоящий момент нет ресурсов (вычислительных мощностей и специалистов), чтобы превзойти хороших. Но это — вопрос времени,и универсальное и стратегически правильное решение — открытые модели ИИ.

Как сделать так, чтобы суперинтеллект не вырвался из-под контроля человека

Сэм Альтман

Это — одна из основных задач в настоящий момент, решения нет. OpenAI ведет исследования и объявил грант на исследования в области выравнивания. И здесь — что характерно - OpenAI открыл доступ к исходному коду, чтобы ускорить поиск решения. Таким образом, Альтман и его единомышленники косвенно подтверждают преимущество открытых подходов к развитию ИИ.

Ян Лекун

Сама постановка вопроса, что ИИ будет иметь те же мотивы, что и люди, неправильна, считает Лекун. Можно (и нужно) ввести ограничение в модель и сделать так, чтобы какие-то опасные действия были в принципе невозможны. У системы ИИ будут естественные ограничения, ведь проектировать мощный суперинтеллект без каких-либо тормозов было бы безумием.

К тому же взаимодействие человека с ИИ будет опосредовано такими же умными ИИ-помощниками, которые будут у каждого человека и которые будут защищать его интересы не хуже, чем он сам (а даже лучше). И обмануть такого помощника будет сложнее, чем самого человека.

Как регулировать ИИ?

Сэм Альтман

Сэм полагает, что потребуется весьма серьезно пересмотреть регулирование в мире — политическое и социально - экономическое — с приходом ИИ. Чтобы правильно перераспределять богатства, полученные с помощью нейросетей. Он полагает, что регулирование должно быть проактивным, но не чрезмерным.

И вообще именно Сэм посчитал, что ChatGPT станет слишком большой бомбой, и поэтому изначально выпустили на рынок промежуточную модель ChatGPT-3.5. Именно для того, чтобы у общества и политиков было больше времени адаптироваться к изменениям (и действительно, в мае в Сенате США состоялись слушания на тему развития технологии ИИ, а в декабре в ЕС согласовали первый в мире закон о регулировании искусственного интеллекта).

Альтмана обвиняют в преувеличении рисков ИИ и желании зарегулировать, чтобы выключить из конкуренции маленькие компании.

Ян Лекун

Уверен, что особое регулирование по большому счету не нужно. Для производства созданных с помощью ИИ товаров и услуг уже есть регулирование. А исследования и развитие ИИ не стоит отдельно регулировать.

Чьи взгляды на ИИ кажутся более убедительными?
Альтмана
Лекуна
Затрудняюсь ответить

Подробнее о взглядах визионеров

33
1 комментарий

То что они все это по разному оценивают это конечно хорошо, но некий контролирующий орган должен быть. Чтобы господа специалисты по ИИ не заходили слишком далеко, а то все это может нам очень серьезно аукнуться.