Каждое слово запроса система преобразовывала в векторы, которые собирались в «мешок слов». Порядок слов при этом не учитывался, сами слова разбивались на буквенные триграммы. В итоге нейросеть получало представление запроса: {мо-оло-ко}, {ко-око-ос}, {ку-пить-ить}. Триграммы входят из текста в словарь известных триграмм. Чтобы найти семантическую связь текста и документа, модель на выходе вычисляет скалярное произведение векторов запроса и заголовка. Если произведение равно нулю, то связь есть, Если больше нуля, то связи с заголовком нет. Таким образом, пройдя через несколько плотных слоев нейронов, «мешок слов» становился семантическим вектором, или embedding, что означает вложение.