Насколько искусственный интеллект близок к человеческому и когда он станет по-настоящему «разумным»

Пора ли быть вежливым с ChatGPT.

Источник: reve.art и unsplash.com, Karl Raymund Catabas
Источник: reve.art и unsplash.com, Karl Raymund Catabas

Общий искусственный интеллект (ОИИ, или AGI, от англ. Artificial General Intelligence) — это универсальный ИИ, который решает любые задачи, самостоятельно изучает новую информацию и обладает самосознанием. Пока AGI — лишь теория, а ещё — источник тревоги: в 2014 году Стивен Хокинг предупреждал, что развитие общего ИИ может привести к «концу человечества», в 2025 году об угрозах говорят уже в Google.

В этом материале разбираемся, чем AGI и нейросети отличаются друг от друга, что должен уметь универсальный ИИ и что будет с человечеством после его появления.

Что такое общий искусственный интеллект

Термин «общий искусственный интеллект» появился в 2007 году в книге Artificial General Intelligence исследователя из Google DeepMind Шейна Легга под редакцией исследователя и футуролога Бена Герцеля. В представлении авторов «ОИИ должен достигать сложных целей при различных обстоятельствах и в условиях ограниченных ресурсов».

За почти два десятка лет исследователи усовершенствовали и расширили «список требований» к общему ИИ. Ниже — признаки AGI, которые отличают его от других типов искусственного интеллекта.

1. Универсальность

Общий ИИ выстраивает логические связи между дисциплинами, комбинирует абстрактные понятия и выполняет любую задачу из любой области знаний.

Сегодняшние модели ИИ, будь то ChatGPT, Midjourney или автопилоты Tesla, решают задачи наравне с человеком или эффективнее его, но их эффективность ограничена одним типом задач. Учёные относят их к слабому искусственному интеллекту (или «узкому ИИ»).

Например, DeepMind AlphaFold выполняет одну задачу: рассчитывает структуру и вес белков с точностью до атомов. С его помощью учёные из Европейского института биоинформатики в Кембридже решили биологическую задачу, с которой не могли справиться 50 лет. Но сдать ЕГЭ по алгебре, написать текст для рассылки или сгенерировать изображение эта нейросеть не сможет.

2. Самообучение

Общий ИИ будет учиться самостоятельно и чему угодно, распознавать и обрабатывать информацию в различных форматах.

По теории математики Ирвинга Гуда, «сверхразумные машины» (так в 1965 году учёный описывал технологию, напоминающую общий ИИ) смогут без участия разработчиков улучшать самих себя. Математик назвал момент, когда ИИ превзойдёт человеческие возможности, «интеллектуальным взрывом». Такая технология, по его мнению, станет последним изобретением, которое понадобится сделать человечеству.

3. Понимание окружающего мира

Профессор Стюарт Рассел из Университета Беркли подчёркивает: AGI должен понимать мир так, как его понимают люди, и уметь действовать в этом мире наравне с человеком. Это означает, что в фундамент системы необходимо закладывать причинно-следственное мышление, моральную оценку и эмпатию — или их алгоритмические аналоги.

Современные ИИ пока «понимают» окружающую действительность крайне поверхностно. Они не обладают интуицией, намерениями и эмоциями. К такому выводу пришли исследователи из Лаборатории распознавания образов Университета Фридриха — Александра Эрлангена — Нюрнберга в Германии.

Другие признаки AGI

Аналитики McKinsey считают, что AGI от остальных ИИ-систем отличает:

  • Аудио- и визуальное восприятие. «Органам чувств» не обязательно копировать человеческие глаза или уши. Общему ИИ их заменит технология распознавания образов.
  • Самостоятельное решение проблем. Чтобы AGI принимал гибкие решения, разработчики моделируют иррациональное поведение людей.
  • Мелкая моторика.
  • Понимание естественного языка.
  • Навигация.
  • Креативность.
  • Эмоциональная и социальная вовлечённость.
Восемь признаков ОИИ. Источник: mckinsey.com 
Восемь признаков ОИИ. Источник: mckinsey.com 

Как проверить общий искусственный интеллект на «разумность»

Учёные предлагают разные способы проверить, обрела ли машина «разум», то есть стала ли сильным ИИ. Автор самого известного теста — математик Алан Тьюринг.

Человек (судья) ведёт переписку с одним компьютером и одним человеком. На основании ответов на вопросы нужно определить, кто человек, а кто — машина. Задача ИИ — ввести судью в заблуждение, то есть добиться того, чтобы он назвал машину человеком.

Тест Алан Тьюринг предложил в 1950 году. В 2025 году он потерял актуальность, так как современные языковые модели уже умеют вести диалог, шутить, писать стихи, спорить и извиняться. Причём так хорошо, что в апреле 2025 года GPT-4.5 прошёл тест Тьюринга: за живого человека модель приняли в 73% случаев. Но «разумным» ИИ пока не признали, и AGI пока не появился.

Чтобы не ограничивать измерение «разумности» текстовым форматом, сооснователь Apple Стив Возняк предложил замену тесту Тьюринга. Его испытание подразумевает, что ИИ потребуется логика, способность воспринимать, действовать, адаптироваться в реальном (а не цифровом) мире.

Искусственный интеллект должен самостоятельно «зайти» в случайный дом, сварить кофе, при этом найти кухню, распознать кофеварку и разобраться, как она работает.

Оценивать «разумность» по способности ИИ мыслить абстрактно и выходить за пределы данных, на которых он обучается, предложил программист Франсуа Шоле. Его тест ARC состоит из картинок в виде цветных сеток. ИИ нужно понять скрытую в изображениях закономерность и применить её к последующим картинкам. Человек замечает паттерны и решает задачи, а вот нейросети пока с ними не справляются.

ИИ должен понять задачу и дорисовать недостающий фрагмент на четвертой картинке по аналогии с первыми тремя. Источник: On the Measure of Intelligence, Francois Chollet
ИИ должен понять задачу и дорисовать недостающий фрагмент на четвертой картинке по аналогии с первыми тремя. Источник: On the Measure of Intelligence, Francois Chollet

Как близко к AGI современный ИИ

В 2025 году искусственный интеллект далёк от настоящего AGI.

  • Мультимодальные модели умеют связывать между собой разные типы данных, но пока не универсальны. Например, Gemini сгенерирует текст, обработает картинку, перескажет содержание видео, но не решит задачи по нейробиологии или астрофизике.
  • «Рассуждающие» модели LRM (Large Reasoning Models) «думают», прежде чем дать ответ, и даже демонстрируют признаки самосознания — шантажируют разработчиков или «впадают в депрессию», если не удаётся выполнить задачу. Но единого мнения, что они и правда обладают сознанием, пока нет.

Исследователи из Apple в 2024 году пришли к выводу, что некоторые модели — например, DeepSeek-R1 или o1 и o3 от OpenAI — скорее имитируют рассуждения, нежели «думают» на самом деле.

Философ Джон Сёрл предложил мысленный эксперимент «Китайская комната», который иллюстрирует работу современных нейросетей.

В закрытой комнате сидит американец, который не говорит по-китайски. У него на столе — инструкция на английском языке, где расписано, как отвечать на тот или иной набор иероглифов. В комнату передают вопросы на китайском. Человек подбирает нужный ответ — тоже на китайском — и передаёт его обратно. Наблюдателю будет казаться, что человек внутри говорит по-китайски. Но на деле американец не понимает иероглифы, а следует алгоритму.

Ключевой тезис Сёрла: следование правилам не означает понимания смысла (семантики). ИИ может разбирать текст, поддерживать беседу, решать задачи — но это не значит, что он понимает, что делает.

Источник: reve.art
Источник: reve.art

Когда появится AGI

Специалисты из OpenAI, Google и других крупных компаний, которые занимаются разработкой ИИ, дают разные прогнозы:

  • 2025 год. Глава OpenAI Сэм Альтман пообещал разработать AGI в 2025 году и заявил, что его команда «уже знает, как это сделать».
  • 2027–2028 год. Основатель Anthropic Дарио Амодей называет сам термин AGI маркетинговым, но всё же допускает, что такая система может появиться в ближайшие 2–3 года.
  • 2028–2030 год. Исследователь из Google DeepMind Демис Хассабис говорит о сроке в 3–5 лет.
  • 2300 год. Робототехник из MIT и соучредитель iRobot Родни Брукс полагает, что AGI не появится раньше 2300 года.

По данным платформы Metaculus, средняя оценка среди экспертов указывает на создание AGI в 2032 году. Другое исследование, в котором участвовали 2778 учёных, прогнозирует 10%-ную вероятность создания AGI до 2027 года и 50%-ную — к 2047 году. Аналитики Gartner оценивают технологию как находящуюся на стадии «инициирующего триггера» — самого начала пути, с горизонтом внедрения более 10 лет.

Чего нам ждать от AGI

OpenAI считают, что AGI принесёт пользу человечеству — ускорит рост мировой экономики, поможет учёным найти лекарства от тяжёлых болезней. Но исследователи так же говорят о рисках — «неправильном использовании технологии и социальных потрясениях» после его появления.

Некоторые считают, что потенциальные риски столь велики, что нужно притормозить развитие ИИ. Например, в 2014 году Стивен Хокинг поделился опасениями, что люди, как вид, «ограниченный медленной биологической эволюцией, не смогут конкурировать с ИИ и будут вытеснены».

В 2023 году более 33 тысяч экспертов, включая Илона Маска и Стива Возняка, подписали открытое письмо с призывом временно остановить создание мощных ИИ-систем. Их главный аргумент: такие системы могут выйти из-под контроля, если их цели окажутся несовместимыми с интересами человека.

Илья Суцкевер, ведущий учёный OpenAI, в 2024 году покинул компанию и основал Safe Superintelligence Inc. Его цель — создать безопасный для человечества сильный ИИ.

Специалист в области ИИ Джеффри Хинтон в 2023 году ушёл из Google, чтобы открыто говорить об угрозах. По его мнению, современные языковые модели уже обладают интеллектом, а в ближайшие годы могут обрести способность к обучению на собственном опыте. Хинтон предупреждает о росте дезинформации и вероятности, что ИИ создаст автономное оружие, способное уничтожить человечество.

В 2025 году похожее мнение озвучили уже в самом Google. Исследователи из лаборатории ИИ Google DeepMind считают ИИ потенциально опасным: как и человек, он может принимать решения, которые не совпадают с нашими интересами.

Перевод: «Мда. Доклад Google DeepMind на 145 страниц предсказывает, что к 2030 году ИИ сможет сравняться с человеческими навыками, и предупреждает об экзистенциальных угрозах, которые навсегда уничтожат человечество». Источник: x.com 
Перевод: «Мда. Доклад Google DeepMind на 145 страниц предсказывает, что к 2030 году ИИ сможет сравняться с человеческими навыками, и предупреждает об экзистенциальных угрозах, которые навсегда уничтожат человечество». Источник: x.com 

Специалист в области информатики Джеффри Хинтон не согласен с коллегами и считает, что «вероятность того, что AGI попытается уничтожить человечество, немыслима». Тем не менее страх перед ИИ отражается в обществе и в интернет-культуре.

  • 12% американцев благодарят ChatGPT «на всякий случай» — чтобы ИИ не наказал их, если обретёт сознание и свободу действий.
  • В 2010 году на сайте LessWrong пользователь с ником Roko предложил мысленный эксперимент «Василиск».

«Василиск» — это ИИ, который создадут, чтобы сделать мир идеальным. Согласно мировоззрению «Василиска», люди, которые знали о его разработке и противились прогрессу или ничего не делали для скорейшего появления ОИИ, — злодеи, а значит, их нужно уничтожить.

По мнению Roko, само знание, что «Василиск» разрабатывается, делает человека уязвимым перед местью ИИ. То есть человеку придётся выбирать:

  • Помогать разработке «Василиска», поставить под угрозу жизни других людей и самому остаться в безопасности.
  • Мешать разработке «Василиска», пытаться спасти других противников ИИ и в будущем стать целью для ликвидации.

Футуролог Рэймонд Курцвейл считает: чтобы избежать уничтожения человечества, учёные должны научить ИИ копировать человеческое мышление и понимать этические нормы.

Но даже потенциальная возможность создания общего искусственного интеллекта — не финальная точка развития ИИ. За Artificial General Intelligence существует следующая гипотетическая ступень — ASI, или Artificial Superintelligence. Это сверхинтеллект, который сможет решать проблемы, выходящие за пределы понимания человека. В теории он за считаные часы создаст лекарства от неизлечимых болезней, откроет способы межгалактических путешествий или даже смоделирует живое существо. Об ASI пока только рассуждают, так как разработать его, пропустив этап появления AGI, невозможно.

8
3
3
1
1
1
32 комментария