Алгоритм Particle собирает большие массивы данных и решает задачи обработки структурированных и неструктурированных текстов — выделения ключевой информации, датирования, определения сантимента. В процессе обработки текста есть базовые этапы. Например, токенизация — разбивка текста на отдельные элементы, или лемматизация — приведение слова к его словарной форме (например, technologies — technology).
Компания Particle разработала собственный стэммер — инструмент, который выделяет важный кусок слова, определяющий его значение. Это нужно, чтобы приводить однокоренные слова из разных частей речи к одному виду. Например, microscope и microscopic — лемматизация не приведет эти два слова к одному виду. А ведь мы часто хотим, чтобы на запрос со словом microscope алгоритм выдавал предложения со словом microscopic, и наоборот.
Эристика - полный бред. Стартап ради стартапа. Боль никакую не решает, а функционал, в принципе, реализуем в рамках существующих соцсетей.