Как BERT (и MUM), LaMDA построена на архитектуре Transformer. Она создаёт модель, которую обучают читать много слов (например, предложение или параграф), обращать внимание на то, как эти слова соотносятся друг с другом, а затем предсказывать, какие слова, по ее мнению, будут следующими.