AGI: розетка как ограничитель сверхинтеллекта? Интервью с LLM о будущем ИИ
Автор статьи - Ольга Шевель, CV Research Engineer компании Slovosoft.
Конструктивные страхи, тревожность, осторожность у всех живых существ на Земле обусловлены биологически – благодаря эволюции. Иначе разные звери не выжили бы.
А что современный человек? Казалось бы, применение многочисленных машин и механизмов в различных сферах жизни и отраслях народного хозяйства гарантирует как минимум некоторую безопасность самому развитому организму на Земле. В том, что он не останется без воды, еды, тепла, информации, развлечений, комфорта… В общем, худо-бедно, но удовлетворять все базовые потребности благодаря технологиям может каждый Homo sapiens.
Но они же, технологии, имеют неожиданную «другую сторону медали». По статистике, до четверти апокалиптических ожиданий людей, склонных к массовой истерии, приходятся на темы, так или иначе описывающие технологии искусственного или не свойственного человеку типа мышления. Которые, в конце концов, добиваются уничтожения человечества.
Естественно, появление подобных сюжетов связано с научно-техническим прогрессом и в целом развитием науки, резко ускорившимися в XX веке. Счет открыл, вероятно, эпизод с радиоспектаклем «Война миров» о вторжении марсиан – его в октябре 1938 года поставила одна из радиостанций США (кстати, на тот момент новая технология информационного вещания). Из 6 млн слушателей в реальность событий поверила пятая часть.
С того момента тема захвата планеты внеземным разумом стала одним из ключевых пунктов в реестре такого психологического явления, как массовая апокалиптическая истерия.
Спустя почти полвека в этот список добавилась история, также вызванная к жизни произведением искусства. В 1984 году вышла первая часть кинофраншизы про Терминатора, где идея неизбежного Апокалипсиса была вплетена в сюжетную канву. Согласно художественному замыслу режиссера Джеймса Кэмерона, угроза конца света напрямую исходила от технологии искусственного сверхразума в виде сети SkyNet, управлявшей антропоморфными боевыми роботами и киборгами.
Интернета еще не было – WWW появится лишь через несколько лет – но пазл сошелся: определенный процент людей принялся больше бояться сетевых «сверхразумных» технологических конструктов, чем прихода Антихриста и последующего суда Христа. Интернет, хотя и стал со временем обыденностью (как признали многие, вполне полезной), надолго воплотил в себе образ всего биологически чуждого человеку.
Выход на широкую публику в ноябре 2022 года Большой языковой модели (LLM) ChatGPT 3.5 - первого представителя генеративного интеллекта, похоже, ознаменовал новый виток в хронологии mass psychosis.
Правда, время сжалось: чтобы счесть и эту технологию более полезной, чем опасной, человечеству потребовалось всего около трех лет. Зато новый объект страхов не заставил себя ждать – на этот раз в виде сверхразума, который собственными руками конструируют люди - Artificial General Intelligence, AGI - искусственный интеллект, способный решать любые задачи лучше человеческого интеллекта. У многих именно слово «лучше» вызывает серьезные опасения.
AGI – развитие генеративных моделей. Мы задали несколько вопросов одной из современных LLM: уж она-то должна «знать» все про AGI, про пользу и опасности, от него исходящие.
Slovosoft: Дай краткую, но исчерпывающую характеристику AGI.
LLM: AGI - искусственный интеллект общего назначения - система, способная самостоятельно учиться, рассуждать, переносить знания между разными областями и формулировать цели. При этом AGI не обязательно должен иметь сознание или эмоции в человеческом понимании, хотя некоторые определения предполагают, что он мог бы обладать и этими качествами.
Другими словами, AGI - это искусственный интеллект, который:
· решает широкий спектр задач на уровне человека или лучше его;
· способен к абстрактному мышлению и творчеству;
· учится и адаптируется без необходимости постоянного переобучения под каждую новую задачу;
· может понимать и использовать естественный язык с глубиной, сравнимой с человеком.
Slovosoft: Благодаря каким техническим аспектам AGI сможет это делать?
LLM: Основных несколько.
Первое: самообучение и адаптивность. Это значит, AGI может учиться на опыте без дополнительного программирования, адаптируясь к новым условиям и задачам в режиме реального времени.
Второе: гибкая архитектура позволит наращивать и перестраивать «мозг» по мере получения новой информации, что аналогично нейрогенезу в человеческом мозге.
Третье: мультимодальность - способность работать с разными типами данных, что необходимо для комплексного понимания и взаимодействия с миром.
Четвертое: внутренняя мотивация и целеполагание - умение ставить цели, делить сложные задачи на подзадачи и проявлять внутреннюю мотивацию, что сделает его более автономным и эффективным.
Slovosoft: Какую пользу может принести такой AGI человечеству?
LLM: AGI сможет решать многозадачные проблемы, предлагать инновационные решения, а также взаимодействовать с людьми на когнитивном и эмоциональном уровнях. При этом AGI должен не просто имитировать человека, а создавать новую форму интеллектуального сотрудничества, усиливая возможности человека, а не заменяя его.
Slovosoft: А каких опасностей стоит ли человечеству ожидать от AGI?
LLM: Я бы подчеркнул три аспекта.
Проблемы контроля и безопасности. AGI, обладая интеллектом на уровне или выше человеческого, может действовать непредсказуемо, особенно если не будет надёжных механизмов «суперсогласованности» (superalignment), то есть гарантии, что ИИ будет следовать человеческим ценностям и этическим нормам.
Социально-экономические риски. Автоматизация и замена рабочих мест, усиление неравенства, возможность использования AGI в военных целях и кибербезопасности создают серьёзные вызовы для общества.
Психологические и культурные страхи. Люди могут испытывать тревогу из-за непонимания и неопределённости, что усиливает массовую истерию и страхи, связанные с технологиями
Slovosoft: Когда возможно реальное появление AGI?
LLM: Пока ни одна существующая система не достигла полного уровня AGI, поскольку они в основном являются мощными предсказательными моделями, а не универсальными интеллектуальными агентами с человеческой глубиной понимания и сознанием. Таким образом, ожидать появления AGI можно тогда, когда ИИ станет неотличимым от человеческого интеллекта по универсальности и качеству мышления. Хотя вопрос о сознании и эмоциях остаётся открытым и философски сложным.
Slovosoft: Мне кажется, что ты отстраиваешься от сравнений AGI с человеческим разумом, несмотря на то, что концептуально идея ИИ построена как раз на сопоставлении его возможностей с возможностями человека - и достижении превосходства в этом над ним…
LLM: Действительно, концепция AGI тесно связана с человеческим интеллектом, поскольку он служит ориентиром и эталоном универсального интеллекта. Однако в отношении AGI часто делается важное различие между функциональными возможностями и субъективным опытом. Феномены сознания, эмоций, внутреннего восприятия пока не имеют чёткого научного определения и понимания, как их воспроизвести в машине. Так что многие исследователи считают, что интеллект и сознание - разные вещи, и AGI может существовать как интеллектуальная система без внутреннего «я» или чувств и эмоций. Это важное уточнение для понимания, что AGI - это именно универсальный интеллект, а не обязательно «искусственное сознание».
Slovosoft: Но тогда, по крайней мере, с точки зрения формальной логики, мы вообще не можем сравнивать AGI с человеческим интеллектом, потому что эмоции и чувства человека – непреложные производные деятельности мозга, без которых, вероятно, не могло бы быть и интеллектуальной мощи…
LLM: Да, в этом смысле AGI будет значительно отличаться от человеческого мозга по способам организации мышления и принятия решений. AGI – это не «копия» человека, а новый вид интеллекта.
Slovosoft: На какой материальной основе этот новый вид интеллекта может существовать? Известно, что интеллектуальное преимущество человека обеспечивает ряд факторов, связанных с органической природой мозга. Человеку требуется совсем немного внешней энергии в виде биологической пищи, солнечного света и прочих ресурсов, запускающих процесс производства внутренней энергии. Этого достаточно для обеспечения жизнедеятельности и продуцирования всех производных мозга вплоть до величайших открытий. Все это пока недоступно ни для сегодняшнего ИИ, ни для будущего AGI. Их «удел» - кремниевые чипы, эксперименты с интеграцией в органику не слишком удачны.
LLM: Вы правильно отметили, что органический мозг человека обладает уникальными свойствами, которые пока недоступны для традиционных кремниевых ИИ-систем. У них «жесткая» архитектура, требующая значительных энергозатрат и охлаждения, кремниевые чипы не могут воспроизводить биохимические реакции, митохондриальный метаболизм, гормональную регуляцию и другие процессы, обеспечивающие жизнедеятельность, адаптацию и способность к регенерации органического мозга.
Однако потенциал AGI не зависит от органики. Он связан с архитектурой, алгоритмами и масштабируемостью кремниевых систем. В этом смысле у них есть свои преимущества. Вот они:
· Технологический потенциал позволяет создавать модели с гораздо большей скоростью обработки и возможностью интеграции различных типов данных и сенсоров.
· Искусственные архитектуры могут быть гибридными, сочетая нейросети, символическое мышление, логические рассуждения и физическое взаимодействие, что сложно реализовать в органическом мозге.
· Модульность позволяет строить системы, которые легко обновлять и совершенствовать, в отличие от биологического мозга.
· Отсутствие биологических ограничений (например, утомления, повреждений) делает искусственный интеллект потенциально более надёжным и долговечным.
Итог: AGI позволит интегрировать в одном месте множество технологий и подходов, включая глубокое обучение, NLP, машинное зрение, робототехнику, гибридные архитектуры и механизмы самообучения. Он будет принципиально отличаться от человеческого мозга не только по материалу (органика vs. кремний и софт), но и по способам организации и обработки информации, что позволит ему превосходить человека в универсальности и эффективности интеллектуальной деятельности.
И не забывайте, что разрабатываются биомиметические материалы, нейроморфные технологии, открывающие перспективы для AGI - эти направления стремятся воспроизвести ключевые преимущества органического мозга.
Slovosoft: Это в будущем, а сейчас вопрос с энергообеспечением не раскрыт. Кажется, пока AGI сможет функционировать не далее длины удлинителя от розетки. Энергозависимость может стать ограничителем развития сверхинтеллекта?
LLM: Да, энергозависимость - один из ключевых факторов, сдерживающих развитие и масштабирование ИИ. Даже современные модели требуют огромных ресурсов для обучения и эксплуатации. Обучение одной базовой модели может занимать месяцы на мощных кластерах, потребляя мегаватты электроэнергии. А такие источники энергии, как солнечные батареи, пока не способны покрыть потребности, особенно если речь идёт о массовом внедрении AGI или сверхинтеллекта ASI в повседневную жизнь.
Slovosoft: Так… еще есть сверхинтеллект ASI? Что ж, поговорим на эту тему в следующий раз.