"Общий" ИИ. Современное состояние и развитие
Этот пост – продолжение серии, которую я публиковала у себя в телеграме. Первый пост был про теоретические основы, его определение (спойлер: нет определения) и критерии достижения (спойлер: их тоже нет). Второй был посвящен одному эссе про связь «сильного» ИИ с исследованиями человеческого мозга.
Сегодня попробуем обсудить современное состояние – где наше «вы находитесь здесь». Сразу оговорюсь: это не масштабное академическое исследование, это пост в соцсетях. Я выбрала статьи, опубликованные в 2020 году и позже, и рассказывать буду о том, что мне самой показалось интересным. Разумеется, ваше мнение приветствуется в комментариях. Поехали.
"Вы находитесь здесь"
По состоянию на 2023 год научные публикации, посвященные ИИ, происходят преимущественно из США, Китая и стран Западной Европы. Я сделала совсем примитивную проверку, чтобы посмотреть, как в 2025 году обстоят дела. В OpenAlex сделала запрос (“AI” or “artificial intelligence”), получила 160+ тысяч статей. И выгрузила оттуда статистику по странам.
В лидерах по-прежнему США, Китай и западноевропейские страны, только еще Индия добавилась. Важная оговорка: данные, которые привожу я, и которые приводят авторы поста по ссылке выше, сравнивать не стоит, потому что мы использовали разные запросы. Авторы получили свои данные из Dimensions.ai, там гораздо больше статей доступно. Но в бесплатном аккаунте нет данных по странам, так что я выбрала себе путь попроще. Но все равно получается неплохая иллюстрация к нашей беседе.
Что же в этих статьях?
Возьмем недавнюю публикацию в Nature – «Navigating artificial general intelligence development: societal, technological, ethical, and brain-inspired pathways» («Разбираемся в развитии сильного ИИ: социальные, технологические, этические и вдохновленные строением мозга направления»). Она вышла в марте 2025 года.
Авторы поставили перед собой следующие вопросы:
- Какие направления нужно развивать, чтобы получить масштабируемый, гибкий и объяснимый «сильный» ИИ, который работает в разных условиях?
- Как разрабатывать «сильный» ИИ с учетом этических принципов, социальных нужд и равномерного распределения доступа к технологии?
- Какие направления развития помогут обеспечить эффективное сотрудничество, доверие и прозрачность во взаимодействии между людьми и «сильным» ИИ?
- Какой вклад может внести «сильный» ИИ в развитие областей, находящихся на стыке разных научных дисциплин?
Они выделяют шесть этапов развития ИИ:
- «Слабый» (он же «узкий») ИИ – ИИ, заточенный под конкретные задачи;
- ИИ на уровне человека – ИИ, способности которого приближены к способностям человека: он может рассуждать и принимать сложные решения;
- человекоподобный ИИ – ИИ, который способен воспроизводить характерное для человека поведение: речевые обороты, выражение эмоций и тому подобное;
- «общий» ИИ – ИИ, способный понимать, обучаться и адаптироваться к любым задачам, доступным человеку;
- «сильный» ИИ – часто этот термин употребляют как синоним «общему» ИИ, но здесь авторы решили рассматривать их отдельно; это ИИ с самосознанием;
- искусственный сверхинтеллект – гипотетическое состояние ИИ, в котором он превзойдет человеческие способности в каждом измеримом аспекте.
ChatGPT, который подстраивается под тон беседы – это уже человекоподобный ИИ в рамках данной классификации.
Для проведения исследования авторы собрали статьи в Scopus, опубликованные с 2003 по 2024 год. Механизмы поиска и отбора статей описаны в разделе «Methods», мы здесь не будем на них останавливаться.
Получили 1 296 статей и применили к ним тематическое моделирование с использованием BERTopic – инструмента для выделения тем из текстов, в основе которого трансформер BERT (по ссылке мой пост про него, посмотрите, если интересно). Судя по исследованиям, это один из лучших на данный момент инструментов для выделения тем, потому что он позволяет достаточно тонко улавливать контекстные взаимосвязи и правильно относит документы к темам, даже если одна тема в разных документах описана разными словами.
Вообще сам подход выделения тем из документов, который авторы описывают, выглядит очень интересно. Я его заимствовала для одной из из своих рабочих задач :)
BERTopic выделил пять тем, которые затем вручную проверили эксперты:
- социальные направления в развитии человекоподобного ИИ;
- технологические направления развития, ведущие к «общему» ИИ;
- направления развития в сторону повышения объяснимости «общего» ИИ;
- познание и этика применительно к «общему» ИИ;
- направления, основанные на исследованиях мозга для создания «общего» ИИ.
Это то, что сегодня волнует исследователей больше всего.
Социальные направления
Каково будет влияние «общего» ИИ на экономику и общество? Что делает его более или менее допустимым в глазах общества? Как получить доверие потребителей и что сделать, чтобы доверие было заслуженным? – Это все примерный круг вопросов, которыми задаются авторы публикаций на социальные темы вокруг «общего» или «сильного» ИИ.
Сюда же относится правовое регулирование, проблемы (или преимущества) очеловечивания, влияние международной политики на технологии и технологий на политику.
Технологические направления
Как развивать, как приложить к конкретным задачам и все в этом роде. Сюда входят работы по беспилотным автомобилям, например, тестированию и отладке управляющих ими нейросетей.
Кроме того, в этой группе статьи про влияние ИИ на рынок труда, взаимодействие человека и машины, стратегии принятия решений, оптимизацию ресурсов.
Несложно заметить, что тематические группы пересекаются, но это неизбежно, потому что сама область ИИ и движения к «общему» ИИ междисциплинарна.
Объяснимость
Мы говорили ранее про объяснимость и интерпретируемость, а также их полезность. Это важные вопросы для обретения и поддержания доверия пользователей, решения этических проблем, а также оценки влияния ИИ на общество в целом. И для развития технологий, само собой, потому что нельзя решить проблемы, не зная, откуда они берутся.
Познание и этика
Этические вопросы возникают (и это правильно) на каждом этапе работы с ИИ от разработки до внедрения и поддержки. В эту группу относятся исследования того, как этические соображения работают у людей и как принципы их работы можно перенести на ИИ с достаточной степенью надежности.
Здесь присутствует пересечение со следующим направлением – исследованиями мозга для создания «общего» ИИ.
Исследования мозга
Память, познание, энергоэффективность – все то, что можно позаимствовать у мозга (или попытаться позаимствовать). В эту группу входят исследования в области создания нового аппаратного обеспечения, которое позволило бы обрабатывать большие объемы данных за меньшее время и не тратить нечеловеческие объемы энергии.
Заключение
Строгого определения, которое было бы принято в научном сообществе, для «общего» или «сильного» ИИ пока нет. Однако большая работа ведется для создания интеллектуальных систем, которые могли бы воспроизводить характерные для человека процессы познания, эффективно работать с памятью и решать задачи, которые пока доступны только человеку.
С другой стороны, исследователи пытаются понять, что нам всем за это будет и как не угробиться случайно в процессе.
Вот об этом – об этических проблемах, безопасности и о прогнозах на будущее мы поговорим в одном из следующих постов. Чтобы ничего не пропустить, подписывайтесь на мой телеграм: там больше постов с разборами интересных статей про ИИ и полезных инструментов. Все, что выходит здесь, я тоже дублирую в телеграме, а еще на дзене, если вдруг вам там удобнее читать.