На основе этих паттернов получающиеся в результате модели конструируют предложения или абзацы; так работают автозаполнение и другие предиктивные текстовые системы. Некоторые разработчики экспериментируют с распределением случайных последовательностей символов, а не слов, чтобы сделать модели более восприимчивыми к акронимам, пунктуации, сленгу — всему тому, чего нет в словаре. А также к языкам, где граница между словами нечёткая.
компьютер может писать ..., но при этом не понимать написанного Множество людей тоже так делает.
OpenAI уже лучше некоторых людей пишет о чем-то, тоже факт
вопрос от гуманитария: когда создадут такой алгоритм для русского языка? прогнозы?
Хоть сегодня если есть семантическое ядро достаточного размера и большой датасет (:
Интересно, а пробовали LSA натравить на такие тексты? Или Томита-парсер.
Для начала нужно узнать что такое понимание в своей сущностной природе.