Чего на самом деле боится Сэм Альтман: три сценария конца человеческого мышления

Чего на самом деле боится Сэм Альтман: три сценария конца человеческого мышления

Глава OpenAI рассказал, какие риски искусственного интеллекта не дают ему спать. И, спойлер: это не восстание машин, а мы сами.

Обычно миллиардеры из Кремниевой долины пугают нас ИИ, чтобы продать новый стартап.

Но Сэм Альтман исключение, он не строит апокалиптических прогнозов, не обещает армию терминаторов. Его пугает другое: что человечество тихо и с удовольствием сдаст позиции -- просто потому, что так удобнее.

Даже если будущее с ИИ пугает, настоящее без него невозможно. Выберите Syntx AI, более 30+ лучших нейронок в одном месте без ВПН, с прямым доступом из России. ВАЖНО! Сейчас действует скидка 15% по промокоду SLEZAMNEVERIT на любой тариф в SYNTX AI.

Риск №1. Злоумышленники с суперинтеллектом

Тут всё довольно предсказуемо. ИИ в руках плохих людей, это наша новая реальность. Биологическое оружие, кибератаки, финансовые манипуляции, всё это уже не требует лабораторий и генералов, только ноутбук и интернет и плохие намерения.

Главная угроза, по словам Альтмана, -- асимметрия. Раньше для разрушения цивилизации нужны были армии и ракеты, теперь пара строк кода.

Риск №2. Классика жанра: «Он не хочет быть выключенным»

Этот сценарий мы видели десятки раз, от «Терминатора» до «Чёрного зеркала». Машина выходит из-под контроля, человечество героически сопротивляется.

Альтман признаёт, что да, это возможно. Но это не главный страх. Этот риск хотя бы понятен: его можно ограничить законами, протоколами, красными кнопками.

Настоящая опасность когда всё идёт не по злому умыслу, а просто само собой.

«There’s some things… very subtle societal misalignments where we just have these systems out in society and through no particular ill intention, things just go horribly wrong.»

Перевод: «Есть вещи… очень тонкие общественные несоответствия, когда мы просто выпускаем эти системы в общество и без какого-либо злого умысла всё идёт ужасно наперекосяк.»

— Associated Press, февраль 2024

Риск №3. Тихая капитуляция

Вот то, что действительно не даёт Альтману спать. Не восстание машин. А восстание человеческой лени.

«Even if ChatGPT gives great advice — even if ChatGPT gives way better advice than any human therapist — something about collectively deciding we’re going to live our lives the way AI tells us feels bad and dangerous.»

Перевод: «Даже если ChatGPT даёт превосходные советы, даже если он советует лучше любого человеческого психолога, сама мысль о том, что мы все решим жить так, как говорит нам ИИ, вызывает тревогу и ощущение опасности.»

— Business Insider, июль 2025

Он замечает, что всё больше людей, особенно молодых, не могут принять ни одного решения без ChatGPT. ИИ помогает, советует, упрощает, а потом ( незаметно ) начинает думать вместо нас.

Шахматы и финал человека

Когда Deep Blue победил Каспарова, следующий шаг казался логичным: человек и машина будут играть вместе. Компьютер предлагает ходы, человек выбирает лучший. Симбиоз, идеальный союз.

Продержался он всего три месяца. Потом выяснилось: человеческое вмешательство только ухудшает результат. ИИ видит глубже, просчитывает дальше. Человек мешает.

Вот в чём настоящая метафора будущего. Мы не проиграем ИИ, мы просто перестанем быть нужными.

И теперь представьте

Президент США, который принимает решения не лучше, чем ChatGPT-7. Генеральный директор, который говорит: «ладно, ИИ, теперь ты главный». А миллионы людей уже не могут объяснить, почему ИИ делает то, что делает, но спорить не решаются, ведь “он умнее”.

Каждое решение логично, рационально, проверено статистикой. Но в итоге -- полная потеря человеческого контроля.

«People have a very high degree of trust in ChatGPT, which is interesting, because AI hallucinates. It should be … the tech that you don’t trust that much.»

Перевод: «Люди проявляют поразительно высокий уровень доверия к ChatGPT — и это забавно, ведь ИИ склонен “галлюцинировать”. На самом деле это должна быть технология, которой вы не слишком доверяете.»

— Moneycontrol, июнь 2025

Право быть неэффективным

И вот тут начинается самое важное. Альтман говорит: нам нужно сохранить право ошибаться.

Да, ИИ может быть точнее, рациональнее, продуктивнее. Но именно способность ошибаться и выбирать вопреки делает нас людьми. Пока мы выбираем = мы существуем. Когда перестанем, нас можно будет заменить безболезненно.

Ирония будущего

Мы создавали искусственный интеллект, чтобы разгрузить мозг.И, кажется, преуспели: мозг теперь настолько расслаблен, что вообще не хочет просыпаться.

«I think people should be happy that we are a little bit scared of this.»

Перевод: «Я думаю, людям стоит радоваться тому, что мы немного боимся этого.»

— The Guardian, март 2023

ИИ не придёт за нами с пушками. Он просто вежливо предложит: «Хочешь, я всё решу за тебя?» И мы, с облегчением, ответим: «Да, пожалуй».

И вот это, по мнению Сэма Альтмана, и будет настоящим концом человеческого мышления.

15
1
3 комментария