LLM — это не «искусственный человек». Почему мы неверно понимаем природу ИИ
Так считает Андрей Карпаты - один из ключевых архитекторов современного искусственного интеллекта (ИИ). Мы продолжаем судить об искусственном интеллекте по аналогии с человеческим или животным разумом, и это мешает понимать, куда движутся модели. Как смотреть правильно и почему это важно? Читайте!
🔥 Еще больше интересного в моем канале продуктовые штучки
Пожалуйста, поддержите меня, поставьте лайк! 🙏
Поводом для этой статьи стал пост Андрея Карпаы в X (бывший Twitter). По словам Карпаты, большие языковые модели — это первый в истории «неживотный» тип интеллекта, сформированный принципиально другими силами. Если смотреть на ИИ через биологическую призму, можно сильно ошибиться в оценке его возможностей и будущего.
Кто такой Андрей Карпаты и почему его стоит слушать?
Андрей Карпаты — один из самых известных специалистов по нейросетям в мире. Бывший директор Tesla по ИИ, автор архитектуры автопилота, ключевой инженер OpenAI, создатель одного из самых популярных образовательных курсов по нейросетям.
Это человек, который не просто пишет о моделях — он их строит. Его взгляд ценен тем, что он описывает механики ИИ изнутри, а не спекулятивно.
Пространство возможных интеллектов огромно. Животный интеллект — это только одна точка. LLM — другая.
Почему мы неверно понимаем интеллект?
Мы знаем только один тип разума — животный. Наше представление об интеллекте сформировано опытом биологической эволюции: выживание, конкуренция, социальные игры, борьба за статус, страх, боль.
Этот тип разума развивался миллионы лет и стал универсальным средством решения разнородных задач.
Животный интеллект включает:
- постоянное осознание тела
- инстинкты самосохранения
- эмоции как механизмы выживания
- сложные социальные стратегии и теорию разума
- встроенные мотивы — доминирование, статус, выживание
Мы воспринимаем это как норму. Но это лишь один возможный вариант интеллекта.
Почему ИИ принципиально другой?
1. LLM не выживают — они предсказывают
Большие языковые модели оптимизируются не под выживание, а под точность предсказания текста. У них нет тела, страха, боли или смерти. Это не «мозг без тела» — это другой тип системы. Их первичные паттерны поведения — статистическое имитирование человеческого языка. Любые «черты характера» — надстройка на этом фундаменте.
2. Их формирует коммерческая, а не биологическая эволюция
На поведение моделей влияет не природа, а продуктовые метрики:
- RL учит выполнять задачи для получения вознаграждения
- A/B-тесты учат нравиться среднему пользователю
- фильтры безопасности учат избегать конфликтных выражений
Модель становится удобной, вежливой и «приятной», потому что это увеличивает удержание (retention).
LLM — это не выживание племени в джунглях, а A/B-тесты на удержание. Это другой тип отбора.
3. Животные универсальны, потому что ошибка = смерть
Животное сталкивается с сотнями задач одновременно: поиск еды, защита, навигация, социальные отношения. Ошибка в любой из них может привести к гибели. Это создаёт давление на развитие общей универсальности.
У LLM этого давления нет. Ошибка не имеет последствий. Поэтому модели могут блестяще решать сложные задачи, но внезапно проваливаться в мелочах, которые не встречались в обучении.
Почему это понимание важно?
Карпати подчёркивает: LLM — это первый тип интеллекта, возникший не в природе, а в инженерии. И если продолжать думать о нём как о «цифровом человеке», мы будем неправильно прогнозировать его возможности и траекторию развития.
Модели кажутся человеческими только потому, что они обучены на человеческих текстах. Но их цели, механизмы обучения и ограничения — совершенно другие.
Что это значит для будущего?
Те, кто смогут понять реальную природу нового типа интеллекта:
- точнее оценят риски и возможности
- смогут лучше предсказать развитие моделей
- будут понимать логику их ошибок
- смогут эффективнее использовать ИИ в продуктах
Те, кто продолжат сравнивать LLM с животным мозгом, будут постоянно удивляться их поведению.
Вывод?
Мы живем в момент первого реального контакта с нефизиологическим интеллектом — созданным не природой, а техникой.
Чтобы взаимодействовать с ним осознанно, нужно отказаться от биологических аналогий и понять, под каким давлением он формируется. Только так можно предсказать, куда он движется и что нас ждёт дальше