Ещё раз остановлюсь и скажу, что данная статья нужна лишь для общего понимания. Тут мы не разбираем токенизацию, енкодеры и декодеры, скрытые слои, формы глубинного обучения и остальное. Одну только токенизацию можно расписать в отдельную статью, ведь GPT делит текст не на слова или буквы, а на токены. Но если вам интересны более подробные объяснения и технические моменты, то пиши в комменты — что-нибудь придумаем)