Почему Мы Не Должны Верить Техно-Миллиардерам - Великий Обман про ИИ

Почему Мы Не Должны Верить Техно-Миллиардерам - Великий Обман про ИИ

На фоне массовых увольнений, высокой инфляции и жилищного кризиса нам рисуют картину неизбежного и скорого будущего, управляемого Сверхразумом (AGI). Лидеры технологических гигантов, такие как Сэм Альтман из OpenAI, с завидной регулярностью выходят на публику с пророчествами о том, что AGI "вот-вот появится".

Но что, если этот нарратив — не столько научный прогноз, сколько отчаянная маркетинговая уловка? Что, если это попытка надуть гигантский финансовый пузырь, чтобы удержать на плаву индустрию, которая уже достигла своего потолка?

LLM — Это Не Разум, Это Предсказатель слов

В основе скептицизма лежит фундаментальное непонимание общественностью того, чем на самом деле являются Большие Языковые Модели (LLM), такие как ChatGPT.

Нам преподносят их как "зарождающийся разум", но с технической точки зрения это не так. LLM — это, по сути, невероятно сложный предсказатель слов.

Вся его "магия" заключается в одном: проанализировав триллионы текстов, он вычисляет, какое слово с наибольшей вероятностью должно идти следующим в предложении. Вот вам аналогия: Помните была технологи T9 на телефонах которая предсказывала следующее слово когда вы печатали, так вот LLM это по сути тоже самое. Он не понимает смысл, не анализирует концепции, как человек, и не обладает сознанием. Он имитирует осмысленный диалог, статистически подбирая наиболее подходящие ответы.

Это блестящий попугай, но не полноценный собеседник. Хотя хорошо имитирует собеседника.

Стена, в Которую Мы Уперлись

Почему же AGI не может "просто появиться" из текущих моделей, как бы мы их ни увеличивали? Потому что технология столкнулась с тремя непреодолимыми барьерами.

1. Потолок Контекста и Затрат

У каждой LLM есть "контекстное окно" — ее кратковременная память. Даже у топовых моделей с окном в миллионы токенов этот предел является фундаментальным. Обслуживание миллиарда пользователей с таким объемом памяти требует вычислительных затрат, которые уже сейчас загоняют компании в колоссальные убытки. Увеличение этого окна делает проект экономически нежизнеспособным.

2. Закон Убывающей Отдачи

Мы достигли предела. Многие пользователи отмечают, что новые версии моделей (например, GPT-5) в некоторых задачах работают хуже предыдущих. Это не случайность. По мере роста модели в ней накапливаются не только знания, но и ошибки, "галлюцинации" и артефакты. Дальнейшее масштабирование не приводит к качественному скачку, а лишь умножает внутренние противоречия. Мы достигли лимита возможностей этой архитектуры.

3. Энергетический и Аппаратный Голод

Для создания AGI в рамках текущих технологий потребуются вычислительные мощности, которых у человечества просто нет. Гонка за чипами NVIDIA — это лишь начало. Для настоящего прорыва нужны не просто более быстрые чипы, а фундаментально иная технология — возможно, квантовые вычисления или нейроморфные процессоры, до которых нам еще десятилетия исследований.

Пузырь, Который Лопнет

Так почему же Сэм Альтман и другие продолжают обещать скорое пришествие AGI?

Ответ прост: деньги.

Индустрия ИИ требует миллиардных инвестиций ежемесячно только на поддержание своей работы. Чтобы инвесторы продолжали вкладывать деньги в эту "черную дыру" на фоне рецессии, им нужно продать мечту. Страх "упустить следующий AGI" — это главный двигатель этого пузыря.

Они пугают мир, что AGI вот-вот появится, чтобы, с одной стороны, выбить финансирование, а с другой — пролоббировать выгодное им регулирование, которое убьет мелких конкурентов.

То, что мы наблюдаем, — это не рассвет нового разума. Это тщательно срежиссированная попытка манипулировать рынком, раздувая ажиотаж вокруг технологии, которая, по сути, уже исчерпала свой революционный потенциал. AGI, если он и возможен, не родится из "предсказателя слов" — он потребует прорыва, которого на горизонте пока нет.

35
3
3
1
61 комментарий