LLM — это не «искусственный человек». Почему мы неверно понимаем природу ИИ

LLM — это не «искусственный человек». Почему мы неверно понимаем природу ИИ

Так считает Андрей Карпаты - один из ключевых архитекторов современного искусственного интеллекта (ИИ). Мы продолжаем судить об искусственном интеллекте по аналогии с человеческим или животным разумом, и это мешает понимать, куда движутся модели. Как смотреть правильно и почему это важно? Читайте!

🔥 Еще больше интересного в моем канале продуктовые штучки

Пожалуйста, поддержите меня, поставьте лайк! 🙏

Поводом для этой статьи стал пост Андрея Карпаы в X (бывший Twitter). По словам Карпаты, большие языковые модели — это первый в истории «неживотный» тип интеллекта, сформированный принципиально другими силами. Если смотреть на ИИ через биологическую призму, можно сильно ошибиться в оценке его возможностей и будущего.

Кто такой Андрей Карпаты и почему его стоит слушать?

Андрей Карпаты — один из самых известных специалистов по нейросетям в мире. Бывший директор Tesla по ИИ, автор архитектуры автопилота, ключевой инженер OpenAI, создатель одного из самых популярных образовательных курсов по нейросетям.

LLM — это не «искусственный человек». Почему мы неверно понимаем природу ИИ

Это человек, который не просто пишет о моделях — он их строит. Его взгляд ценен тем, что он описывает механики ИИ изнутри, а не спекулятивно.

Пространство возможных интеллектов огромно. Животный интеллект — это только одна точка. LLM — другая.

А. Карпаты

Почему мы неверно понимаем интеллект?

Мы знаем только один тип разума — животный. Наше представление об интеллекте сформировано опытом биологической эволюции: выживание, конкуренция, социальные игры, борьба за статус, страх, боль.

Пост А. Карпати в Х

Этот тип разума развивался миллионы лет и стал универсальным средством решения разнородных задач.

Животный интеллект включает:

  • постоянное осознание тела
  • инстинкты самосохранения
  • эмоции как механизмы выживания
  • сложные социальные стратегии и теорию разума
  • встроенные мотивы — доминирование, статус, выживание

Мы воспринимаем это как норму. Но это лишь один возможный вариант интеллекта.

Пост А. Карпати в Х

Почему ИИ принципиально другой?

1. LLM не выживают — они предсказывают

Большие языковые модели оптимизируются не под выживание, а под точность предсказания текста. У них нет тела, страха, боли или смерти. Это не «мозг без тела» — это другой тип системы. Их первичные паттерны поведения — статистическое имитирование человеческого языка. Любые «черты характера» — надстройка на этом фундаменте.

2. Их формирует коммерческая, а не биологическая эволюция

На поведение моделей влияет не природа, а продуктовые метрики:

  • RL учит выполнять задачи для получения вознаграждения
  • A/B-тесты учат нравиться среднему пользователю
  • фильтры безопасности учат избегать конфликтных выражений

Модель становится удобной, вежливой и «приятной», потому что это увеличивает удержание (retention).

LLM — это не выживание племени в джунглях, а A/B-тесты на удержание. Это другой тип отбора.

А. Карпаты

3. Животные универсальны, потому что ошибка = смерть

Животное сталкивается с сотнями задач одновременно: поиск еды, защита, навигация, социальные отношения. Ошибка в любой из них может привести к гибели. Это создаёт давление на развитие общей универсальности.

У LLM этого давления нет. Ошибка не имеет последствий. Поэтому модели могут блестяще решать сложные задачи, но внезапно проваливаться в мелочах, которые не встречались в обучении.

Почему это понимание важно?

Карпати подчёркивает: LLM — это первый тип интеллекта, возникший не в природе, а в инженерии. И если продолжать думать о нём как о «цифровом человеке», мы будем неправильно прогнозировать его возможности и траекторию развития.

Модели кажутся человеческими только потому, что они обучены на человеческих текстах. Но их цели, механизмы обучения и ограничения — совершенно другие.

Пост А. Карпаты в Х

Что это значит для будущего?

Те, кто смогут понять реальную природу нового типа интеллекта:

  • точнее оценят риски и возможности
  • смогут лучше предсказать развитие моделей
  • будут понимать логику их ошибок
  • смогут эффективнее использовать ИИ в продуктах

Те, кто продолжат сравнивать LLM с животным мозгом, будут постоянно удивляться их поведению.

Пост А. Карпаты в Х

Вывод?

Мы живем в момент первого реального контакта с нефизиологическим интеллектом — созданным не природой, а техникой.

Чтобы взаимодействовать с ним осознанно, нужно отказаться от биологических аналогий и понять, под каким давлением он формируется. Только так можно предсказать, куда он движется и что нас ждёт дальше

Пожалуйста, поддержите меня, поставьте лайк! 🙏

1
1 комментарий