Большая языковая модель получает для обучения огромный массив текстовых данных из всех доступных сфер, включая изображения. Читает она их, удивительно, тоже декомпиляцией в текст. То есть это такой своеобразный аккумулятор всей собранной человечеством информации (вопрос в дата сете, но всё равно) . И этот саккумулированный ресурс обернули в формат диалогового окна с людьми, при том на диалогах он тоже учится. И именно так он познаёт мир. У него нет опыта, он получает чужой из текстового описания. У него нет чувств и эмоций в прямом смысле. Он аккумулирует описание людей в частном опыте из комментариев в интернете, в литературе, в биохимии, биологии и так далее, и, вероятно, лучше нас понимает, как всё работает. Но пережить он может только описательный опыт без прямого использования высших когнитивных функций. На основе полученных данных он может строить некорректные связи в своём понимании, а также делать неожиданные выводы. Важно понимать, что на данный момент то, как он связывает информацию внутри себя является предметом исследований и самих разработчиков. Если не углубляться в техническую сторону обучения и выдачи ЯМ, то как происходят связи для генерации не совсем понятно. А если не забывать про нашу квазипостметамодернистскую специфику, то забавными новыми красками тогда заиграет понятие ЯМА из индуизма: )