Почему Мы Не Должны Верить Техно-Миллиардерам - Великий Обман про ИИ
На фоне массовых увольнений, высокой инфляции и жилищного кризиса нам рисуют картину неизбежного и скорого будущего, управляемого Сверхразумом (AGI). Лидеры технологических гигантов, такие как Сэм Альтман из OpenAI, с завидной регулярностью выходят на публику с пророчествами о том, что AGI "вот-вот появится".
Но что, если этот нарратив — не столько научный прогноз, сколько отчаянная маркетинговая уловка? Что, если это попытка надуть гигантский финансовый пузырь, чтобы удержать на плаву индустрию, которая уже достигла своего потолка?
LLM — Это Не Разум, Это Предсказатель слов
В основе скептицизма лежит фундаментальное непонимание общественностью того, чем на самом деле являются Большие Языковые Модели (LLM), такие как ChatGPT.
Нам преподносят их как "зарождающийся разум", но с технической точки зрения это не так. LLM — это, по сути, невероятно сложный предсказатель слов.
Вся его "магия" заключается в одном: проанализировав триллионы текстов, он вычисляет, какое слово с наибольшей вероятностью должно идти следующим в предложении. Вот вам аналогия: Помните была технологи T9 на телефонах которая предсказывала следующее слово когда вы печатали, так вот LLM это по сути тоже самое. Он не понимает смысл, не анализирует концепции, как человек, и не обладает сознанием. Он имитирует осмысленный диалог, статистически подбирая наиболее подходящие ответы.
Это блестящий попугай, но не полноценный собеседник. Хотя хорошо имитирует собеседника.
Стена, в Которую Мы Уперлись
Почему же AGI не может "просто появиться" из текущих моделей, как бы мы их ни увеличивали? Потому что технология столкнулась с тремя непреодолимыми барьерами.
1. Потолок Контекста и Затрат
У каждой LLM есть "контекстное окно" — ее кратковременная память. Даже у топовых моделей с окном в миллионы токенов этот предел является фундаментальным. Обслуживание миллиарда пользователей с таким объемом памяти требует вычислительных затрат, которые уже сейчас загоняют компании в колоссальные убытки. Увеличение этого окна делает проект экономически нежизнеспособным.
2. Закон Убывающей Отдачи
Мы достигли предела. Многие пользователи отмечают, что новые версии моделей (например, GPT-5) в некоторых задачах работают хуже предыдущих. Это не случайность. По мере роста модели в ней накапливаются не только знания, но и ошибки, "галлюцинации" и артефакты. Дальнейшее масштабирование не приводит к качественному скачку, а лишь умножает внутренние противоречия. Мы достигли лимита возможностей этой архитектуры.
3. Энергетический и Аппаратный Голод
Для создания AGI в рамках текущих технологий потребуются вычислительные мощности, которых у человечества просто нет. Гонка за чипами NVIDIA — это лишь начало. Для настоящего прорыва нужны не просто более быстрые чипы, а фундаментально иная технология — возможно, квантовые вычисления или нейроморфные процессоры, до которых нам еще десятилетия исследований.
Пузырь, Который Лопнет
Так почему же Сэм Альтман и другие продолжают обещать скорое пришествие AGI?
Ответ прост: деньги.
Индустрия ИИ требует миллиардных инвестиций ежемесячно только на поддержание своей работы. Чтобы инвесторы продолжали вкладывать деньги в эту "черную дыру" на фоне рецессии, им нужно продать мечту. Страх "упустить следующий AGI" — это главный двигатель этого пузыря.
Они пугают мир, что AGI вот-вот появится, чтобы, с одной стороны, выбить финансирование, а с другой — пролоббировать выгодное им регулирование, которое убьет мелких конкурентов.
То, что мы наблюдаем, — это не рассвет нового разума. Это тщательно срежиссированная попытка манипулировать рынком, раздувая ажиотаж вокруг технологии, которая, по сути, уже исчерпала свой революционный потенциал. AGI, если он и возможен, не родится из "предсказателя слов" — он потребует прорыва, которого на горизонте пока нет.