Как работает современный ИИ: разбираем GPT по косточкам

Искусственный интеллект сегодня — это не просто тренд, а новый воздух для бизнеса и технологий. Он пронизывает всё: от чат-ботов поддержки до сложных аналитических систем. И если вы слышите слово «ИИ» в 2025 году, с вероятностью 99% речь идет о чем-то, что построено на основе архитектуры «трансформер», практическим воплощением которой является GPT.

Осторожно: в статье присутствуют мемы
Осторожно: в статье присутствуют мемы
Меня зовут Егор, я CEO и AI продакт-менеджер в компании AllSee.team, где мы разрабатываем AI-решения для российского бизнеса. Свою карьеру я начинал со студенческих стартапов еще в 2018-м, прошел путь от продуктового аналитика в Газпромнефти до создания собственной AI-студии. И сегодня я хочу просто и без воды разобрать, как же устроен тот самый ИИ, который всех удивил и продолжает делать это по сей день.
Егор Красильников
CEO AI-студии и практик ИИ ускорения рабочих задач.

Как изменились алгоритмы и тренды в работе нейросетей за последнее время?

История нейросетей начинается с 1950-х годов, но ключевые сдвиги произошли в последние десятилетия. Ключевой тренд последних лет — переход от систем распознавания к системам генерации.

  • Раньше (последние 10 лет): Доминировали сверточные сети (CNN). Они блестяще научились распознавать лица на фото, голосовые команды, спам в почте. Это стало нормой бизнеса и уже не кажется чем-то особенным. Например, когда вы разблокируете экран своим лицом или расшифровываете голосовое — работают нейросети.
Наглядная иллюстрация, как работают CNN для распознавания образов.
Наглядная иллюстрация, как работают CNN для распознавания образов.
  • Сейчас (последние 2-3 года): Бум трансформеров и генеративных моделей. Это архитектуры, которые не просто анализируют данные, а генерируют новый контент: тексты, картинки, код, музыку. Именно к этому классу относятся ChatGPT, DeepSeek и другие революционные ИИ. Это и есть главный сдвиг: ИИ не только превратился в творца, но и стал доступнее и полезнее для обычного человека.
Генерация контента — основной тренд ИИ, который сделал его массовым.
Генерация контента — основной тренд ИИ, который сделал его массовым.

Как огромная матрица из чисел превращается в осмысленный диалог между пользователем и нейросетью?

В основе работы современных моделей лежит перевод текста в числа.

Каждое слово и его связи с другими превращаются в числовое представление. Огромные матрицы помогают находить закономерности в этих числах и предсказывать, какие слова и идеи должны следовать дальше по тексту. Благодаря этому модель «достраивает» реплики и формирует осмысленный диалог.

Латентное простанство — это пространство смыслов, представленных через закодированные многомерные векторы чисел, которыми оперирует ИИ для подбора наиболее подходящей реплики.
Латентное простанство — это пространство смыслов, представленных через закодированные многомерные векторы чисел, которыми оперирует ИИ для подбора наиболее подходящей реплики.

Представьте, что каждое слово — это вектор в многомерном пространстве (точка с координатами):

  • Числовое представление: Слова со схожим смыслом ( «король», «королева») находятся близко друг к другу в этом пространстве. Вся модель — это и есть гигантская «карта смыслов», записанная в виде матриц чисел (векторов).
  • Генерация ответа: Когда вы задаете вопрос, модель находит числовые представления ваших слов на этой «карте». Алгоритм (трансформер) вычисляет, какое следующее слово (его числовой вектор) с наибольшей вероятностью должно идти за вашим запросом, учитывая контекст всего диалога. Этот процесс повторяется слово за словом. Так числа, отражающие смысловые СВЯЗИ, превращаются в СВЯЗный текст.

Часто говорят, что современный ИИ — это просто «массивная статистика». Но как статистика может вести осмысленный диалог?

Да, основа — это статистика, но не простая, а огромная, сложная и уточненная тысячами и десятками тысяч людей. Изначально модели просто предсказывали следующее слово, но с появлением обучения с подкреплением (RLHF) они научились учитывать обратную связь людей и улучшать качество ответов.

Когда обучение с подкреплением выйдет из под контроля я никому не скажу, но будут знаки (с) ИИ
Когда обучение с подкреплением выйдет из под контроля я никому не скажу, но будут знаки (с) ИИ

Откуда модель берет шаблоны?

  1. Модель обучается на огромных массивах текстов из интернета, книг, кодексов — всего, что создало человечество. Она изучает статистические закономерности: как слова сочетаются друг с другом, как строятся аргументы, диалоги, описания.
  2. Ключевой этап для осмысленности диалога — дообучение с подкреплением (RLHF). Люди-ассистенты оценивают разные ответы модели, указывая, какой ответ лучше, безопаснее и полезнее. Модель учится подражать этим предпочтениям. Так «сырая» статистика интернета фильтруется и настраивается на ведение диалога, который человек воспринимает как осмысленный и логичный.

Что в контексте работы нейросетей значит предобученный генеративный трансформер?

Именно аббревиатура GPT расшифровывается как Pre-trained Generative Transformer.

  • «Предобученный» — значит, что модель заранее обучили на огромных массивах текстов.
  • «Генеративный» — она создаёт новые тексты, предсказывая следующее слово.
  • «Трансформер» — это особая архитектура, которая позволяет учитывать контекст и связи в тексте, чтобы генерировать осмысленные ответы.
Знания человечества — основное топливо для современных ИИ
Знания человечества — основное топливо для современных ИИ
Проще говоря: GPT — это заранее натренированная на огромных данных модель, которая умеет создавать осмысленный текст, потому что понимает глубокие связи между словами.

После обучения на простом предсказании слов, откуда у модели берутся сложные способности — рассуждать, писать код, поддерживать диалог?

Первые модели умели только предсказывать слова. Современные возможности GPT — результат дополнительных техник:

  • Для рассуждений используется «цепочка мыслей», когда модель пошагово строит ответ.
  • Навыки программирования появляются благодаря обучению на больших массивах исходного кода.
Осознанный диалог — главное свойство современного ИИ
Осознанный диалог — главное свойство современного ИИ
Диалог — это не просто генерация текста, а обмен репликами. Этому модель учится в процессе дообучения на человеческих диалогах и через RLHF, где люди напрямую показывают, как выглядит хороший, уместный и полезный ответ в контексте беседы.

Чем языковые модели в популярных нейросетях отличаются друг от друга?

Выбирайте ИИ правильно!
Выбирайте ИИ правильно!

Представьте, что языковые модели — это автомобили. Все они ездят, но созданы для разных целей:

  • Двигатель (Размер и архитектура): GPT — мощный и креативный двигатель для генерации текста. BERT — точная и экономная рама для анализа (поиск, классификация). Размер (число параметров) — это как объем двигателя: больше — обычно мощнее, но и дороже.
  • Топливо (Данные для обучения): Модель, обученная на научных статьях, будет умнее в физике, но хуже шутит. Та, что натренирована кодом, станет хорошим программистом. Качество «топлива» критически важно.
  • Тюнинг (Дообучение): Базовую модель можно «прокачать» под конкретные нужды. Fine-tuning — как настройка под гоночный трек - узкая специализация с высочайшим результатом. RLHF — как найм профессионального коуча, который учит модель общаться вежливо и полезно.
  • Специализация: В итоге получаются «спортивные автомобили» для кода (Claude), «внедорожники» для общего общения (ChatGPT) или «скорая помощь» для медицины (лично мне в этом плане нравится DeepSeek :)).
Существуют специальные рейтинги (так называемые LLM Leaderboard), чтобы понять, какая «машина» лучше для ваших задач. Мой любимый — LMArena

Есть ли какие-то слабые места у моделей? Как их «выловить»?

Да, у ИИ есть свои особенности. Главное — помнить, что он не всезнающий оракул, а очень продвинутый, но все же инструмент.

Одна из особенностей ИИ, которая не позволяет ему "положить" сайты в процессе массового парсинга данных для своего обучения :)
Одна из особенностей ИИ, которая не позволяет ему "положить" сайты в процессе массового парсинга данных для своего обучения :)

Основные слабые места:

  • Склонность к вымыслу («Галлюцинации»): Модель может уверенно сочинять факты, цитаты и даже несуществующие научные статьи. Она не «лжёт» сознательно, а ошибается в своих статистических предсказаниях.
  • Ограниченная память («Окно контекста»): Модель может «забыть», о чём шла речь в начале длинного диалога, если он не помещается в её контекст.
  • Предвзятость: Модель училась на текстах людей, а людям свойственны стереотипы. Она может непреднамеренно воспроизводить гендерные, культурные или расовые предубеждения, заложенные в данных.

Как это выловить?

  • Проверяйте факты! Всегда перепроверяйте важные данные (даты, имена, формулы) по авторитетным источникам. Не доверяйте слепо.
  • Задавайте каверзные вопросы: Спросите о чем-то очень свежем или узкоспециальном. Спросите одно и то же разными словами — если ответы будут сильно разниться, это признак неуверенности модели.
  • Будьте конкретны: Четко задавайте контекст и ограничения.

Теория — это хорошо, а практика — лучше

Понимать, как работает ИИ — это фундамент. Но настоящая магия начинается, когда ты применяешь эти знания в реальных проектах: для автоматизации рутины, анализа данных или создания новых продуктов.

Скорее смотрите митап, чтобы быть как человечек справа!
Скорее смотрите митап, чтобы быть как человечек справа!

Если вы хотите не просто прочитать, а проверить на практике, как GPT может применяться в реальных продуктовых и проектных задачах — от обработки разрозненных требований заказчика и формирования user stories до написания полноценного PRD и составления дорожной карты проекта (Roadmap) — посмотрите мой видео-митап по применению GPT в реальных задачах

Митап, на котором мы использовали DeepSeek, чтобы решать задачи продактов, проджектов и бизнес-аналитиков за минуты, а не часы. Посмотрите, чтобы закрепить теорию и стать настоящим промпт-джедаем!

Жду вас в своем уютном тг-канале, где пишу про современный ИИ, который сокращает рутину и ИИ-автоматизирует бизнес:

4
1
6 комментариев