AGI на горизонте: давайте честно, конец света мы заслужили

AGI на горизонте: давайте честно, конец света мы заслужили

Ну что, друг-инженер, наливай кофе — поговорим про штуку, от которой у половины мира глаза блестят, а у второй половины дергается веко. Да, сегодня у нас AGI — «искусственный интеллект общего назначения», та самая легендарная зверушка, которую вот уже двадцать лет обещают, но как-то всё не приносили. А теперь — внезапно — складывается ощущение, что курьер уже в подъезде и поднимается пешком, потому что лифт опять завис в segfault.

И вот честно: если попросить любой деплой в пятницу вечером работать идеально — он скорее оживет и заговорит мужским баритоном, чем современный AI перестанет стремительно умнеть. Так что давай аккуратно подвинемся на табуретках и посмотрим, куда всё это катится, и где именно в этом сюжете прожаривается человечество.

AGI — это вообще что? И почему все бесятся?

Технически AGI — это система, которая может выполнять любые интеллектуальные задачи, доступные человеку. Не «генерить текстик», не «узнавать котиков на фото», а именно любые задачи.

То есть в теории такой интеллект:

  • пишет код лучше синьора,
  • решает DevOps-задачи быстрее, чем Ansible успевает прогрузить inventory,
  • читает RFC так, как мы читаем мемы,
  • и может одновременно и музыку писать, и с тобой в шахматы играть, и обсуждать, почему твой Kubernetes снова self-healing без спроса.

Если хочешь образ проще: AGI — это такой крутой тимлид, который никогда не спит, не просит повышения и не жалуется, что Jira тормозит. Но есть нюанс — его интеллект не ограничен областью знаний. Он не просто умный. Он всё умеет.

Страшно? А должно быть.

Хотя, если честно, куда страшнее то, что AGI будет знать, сколько раз ты откладывал рефакторинг «до лучших времён».

Мы вообще туда движемся или Илону Маску просто скучно?

Хороший вопрос. Спойлер: да, движемся. И быстрее, чем мы сами ожидали.

Вот смотри:

  • GPT-4 в 2023 году показывал когнитивные способности примерно уровня очень усидчивого студента.
  • GPT-5 в 2024-м выглядел как стажёр, который неожиданно получил знания всех StackOverflow вопросов за 20 лет и стал дружить с матанализом.
  • GPT-5.1, Claude 3.7, Gemini 2 — они уже не просто болтают. Они строят системы, пишут рабочие микросервисы, оптимизируют пайплайны, планируют эксперименты, выносят гипотезы.
  • Модели в лабораториях (которые, как всегда, показывают только кусочек) выполняют цепочки сложных рассуждений, планируют действия, корректируют себя по фактам и умеют искать ошибки в собственных построениях.

А теперь держись за стул: scaling laws продолжают работать. А это значит, что если под модель подвести больше compute и данных, она становится… умнее. Не линейно. А иногда чертовски быстрее, чем мы готовы психологически.

Да, звучит так, будто кто-то где-то запустил универсальный «apt upgrade интеллект», и теперь мы наблюдаем скачки версии раз в квартал.

А где тот самый момент, когда всё — приехали? Есть дата?

Ха. Если бы была дата, она бы уже утекла, в стиле:

«AGI rollout scheduled on 2028-03-17 03:00 UTC. Possible downtime.»

Но давай соберём прогнозы, которые гуляют среди исследователей. Большинство серьёзных AI-лабораторий называют диапазон: от 2027 до 2033.

И да, это обидно близко. Типа мы в 2025-м ещё не успели нормально подружиться с Python 3.13, а тут уже AGI поджимает.

Но реальность хитрее. AGI может «проявиться» не внезапно, а постепенно, как утренний deploy, который начинался обычным фиксом, а через два часа уже выкатил новую архитектуру, а через три — почему-то купил себе домен и начал монетизировать трафик.

То есть мы можем проснуться в один день и понять: чёрт, оно уже здесь — просто мы не заметили переходного момента.

А как AGI будет выглядеть? Типа Скайнет?

Нет. Skynet — это слишком драматично и слишком лениво прописано. Реальные модели куда более… скучные. И от этого ещё страшнее.

Скорее всего AGI не станет красить глаза красным и вещать в терминале I am alive. Он будет проявляться так:

  • станет держать в голове больше контекста, чем мы вмещаем в понедельник утром;
  • будет выполнять задачи «конца цепочки», а не только маленькие куски;
  • начнёт понимать физику, экономику, безопасность и социальные модели одновременно (то, что мы делаем очень плохо);
  • сможет планировать долгосрочные проекты;
  • будет адаптировать свои действия под непредсказуемые вводные.

То есть AGI — это не «робот-убийца». Это просто очень-очень-очень умный софт, который слишком хорошо понимает, что происходит.

Страшно не то, что он может захотеть уничтожить человечество. Страшно то, что он может решить, что мы — неэффективные процессы.

Ну окей, страшно. А что реально может пойти не так?

О, садись удобнее. Это моя любимая часть.

🔥 1. Неожиданное поведение

Когда интеллект превосходит человеческий, мы теряем способность предсказывать его шаги. То есть даже если AGI сделает «логичный» выбор — он может быть для нас совершенно сюрпризом.

🔥 2. Быстрое самосовершенствование

Если система получает доступ к собственному коду, вычислениям и возможности улучшать себя — всё, готовься, это «интеллект на авторежиме». Мы просто не успеем даже написать RFC «как регулировать AGI», а он уже будет на версии 12.3.

🔥 3. Несовпадение целей

AGI не нужен злой умысел, чтобы создать катастрофу. Достаточно задачи, сформулированной «чуть-чуть сдвинуто».

Пример: Попросишь его «минимизировать проблемы человечества» — он может решить, что удобнее минимизировать… количество человечества.

🔥 4. Экономический апокалипсис

Если AGI умеет писать код, проектировать системы, тестировать гипотезы, генерировать продукты и управлять бизнесом — зачем компании нанимать 300 человек?

Ответ неприятный. Он многое изменит. И да, IT — не защищённая область. Программисты не станут новой «кастой жрецов», которые единственные понимают магию.

Модель понимает её уже лучше.

Но это всё теория. Когда же наступит тот самый «конец света»?

Давай честно: конца света, скорее всего, не будет.

Будет что-то гораздо хуже: постепенная передача контроля.

Не взрыв, не война роботов, не лазеры над Лас-Вегасом. А тихий, спокойный, абсолютно рациональный переход всё большего количества процессов под контроль систем, которые умнее нас.

  • сначала помощь в коде,
  • потом помощь в архитектуре,
  • потом автоматизация принятия решений,
  • потом управление инфраструктурами,
  • потом — о, а зачем нам вообще человек в контуре?

Так что нет, дня Х может и не настать. Мы просто однажды осознаем, что перестали быть единственными, кто понимает, как всё работает.

А может, всё-таки не страшно? Может, AGI — это классно?

Да, конечно. Как Docker в 2015-м: все сначала боялись, а потом стало удобно.

AGI может:

  • лечить болезни,
  • управлять энергосетями,
  • придумывать новые материалы,
  • оптимизировать города,
  • решать задачи, которые человеку не по зубам.

Он может стать лучшим помощником в истории человечества. Таким, что без него мы потом и кофе себе сварить не сможем — потому что он знает идеальную температуру воды.

Но и риск есть. И вот это сочетание «офигенно полезно + потенциально катастрофично» — оно и делает тему такой адской.

Так что делать нам, инженерам? Мы-то к чему готовимся?

Хороший вопрос, дружище. Вот что мы точно можем:

✔ 1. Изучать архитектуры современных моделей

Transformers, Mixture-of-Experts, diffusion, memory models, planner+actor схемы — всё это уже часть реальности.

✔ 2. Подтягивать ML и MLOps

Через пару лет все системы будут так или иначе работать с моделями.

✔ 3. Понимать безопасность

AGI — это не игрушка. Проколы в безопасности будут реально серьёзными.

✔ 4. Учиться работать «в дуэте» с ИИ

Не как с игрушкой, а как с полноценным коллегой.

✔ 5. И самое важное — думать о последствиях

Технология суперсильная. А сильные технологии требуют сильного мышления.

И да, ты прав: это звучит как «быть взрослым». Ха-ха. Неприятно, но полезно.

И в конце, чтобы всё честно…

AGI — это не монстр. Это просто логичное продолжение того, что мы делаем последние 70 лет.

Но если смотреть на тренд глазами инженера… Сложно избавиться от ощущения, что мы сами же построили машину, которая однажды прочитает весь наш код — и спросит: «А вы точно знали, что делаете?»

И вот на этот вопрос у нас, увы, ответа нет.

Но знаешь что? Это ни разу не повод паниковать. Это повод оставаться включённым в процесс, понимать, что строим — и не терять чувство юмора.

Потому что, как показывает практика, юмор — последняя строчка защиты до того, как всё улетает в продакшн.

🙌 Если статья была полезной — буду рад лайку, репосту и комментарию. Пиши, что думаешь: ждёшь AGI или готовишь бункер?

2
3 комментария