Большие Языковые Модели (LLM), особенно такие, как GPT-4, построены на архитектуре Transformer. Это такой вид нейросетевой архитектуры, который хорошо подходит для обработки последовательностей данных. Пожалуй, самый популярный пример таких данных это предложение, которое можно считать упорядоченным набором слов.