Как я превратил 4 часа рутины в 20 минут автоматизации: история создания ИИ-бота для анализа отзывов

Привет, раньше у меня была проблема, когда я пытался придумать идеи для контент маркетинга: тратил по 4 часа на чтение сотен отзывов, глаза слипаются на 100-м комментарии, а в голове каша из повторяющихся фраз. Я Даня, и еще в феврале я вообще не умел программировать. Но благодаря буму нейросетей я создал телеграм-бота, который теперь делает всю эту работу за 20 минут! Сегодня расскажу, как прошел путь от копирования HTML-кода через панель разработчика до полноценного ИИ-инструмента, который уже сгенерировал 100+ уникальных идей для контента. Спойлер: все началось с понимания, что мы говорим на "языке фреона", а покупатели — на языке "пива и пельменей".

Я работаю в компании GARLYN, мы бренд бытовой техники, выпускаем новые категории и стремимся закрепиться в сердцах народного потребителя. Прошлым летом проходил курс Ильи Красинсокго, и на одной из лекций Илья рассказал, про язык фреона. Это когда мы как бизнес говорим и пытаемся продавать на своем языке, который для обычного пользователя - иностранный и неосвоенный.
Простая аналогия с курса про холодильник:
У бизнеса: верхняя камера, нижняя камера на 60 литров, технология no frost и тд
У клиента: сверху пиво, снизу пельмени

И я понял, что мы говорим на языке фреона. Что то нужно было решать.

Первое что напрашивается -- го делать JTBD интервью, ух поймем наших покупателей, опишем работы, но в матрице больше 70 sku, а на один товар желательно человек 10-15. А результат нужно прямо сейчас, лучше вчера. Поэтому глубинки решил отложить.

А где чаще всего люди делятся обратной связью о товаре, где они рассказывают чем товар плох, а чем он хорош? Правильно, в отзывах.Цель была составить список реальных штук, которые важны для покупателей. Поэтому открыл топ карточки с самым большим количество отзывов и начал читать, полдня потратил, понял что все отзывы уже превратились в кашу, частоту упоминания параметров считать сложно, все не структурировано, кажется в какой-то момент все повторяется, глаз на сотом отзыве замыливается. Нужно делать автоматизацию.

Первая эпоха

Пошел городить MVP! Кто может быстро и без нытья делать рутинную работу и не просить поваышения -- ИИ, заплатил каждое 15 число $20 и грузишь пока лимиты не достигнутся.

Схема простая:

собираю отзывы -> кидаю в нейронку и анализ отзывов готов.

Как "парсил" отзывы? В начале - открывал страницу, открывал код. Скролил страницу до конца, чтобы прогрузились все отзывы, а потом искал элемент через панель разработчиков копировал и вставлял в ИИшку

да,да это та штука, которая открылась, когда ты бомбил и долбил по клавиатуре
да,да это та штука, которая открылась, когда ты бомбил и долбил по клавиатуре

А потом промтом просил выделить а что же тут важного?

Какие минусы:

  • Все еще я трачу очень много времени. При чем это рутинная работа - доскроль до конца страницы, найди элемент, скопируй вставь в ИИ
  • Контекстное окно. Очень длинный текст в ии не запихнешь, ее контекстное окно переполниться и токенов на подумать ей не хватит. А текст абудет очень много, потому что копируется и весь html, css код
  • Упрощение ии. Все модели ИИ безбожно упрощают. Это их суть - апроксимация. Если спросить а какие параметры самые важные у пылесоса, то ИИ выдаст самые часто встречаемые в интернете параметры, но не факт, что это реально то, что беспокоит пользователей, это то, что написали ребяюта из других отделов маркетинга. Также и с отзывами.
    спрашиваю: что важно?
    а ИИ: быстрая доставка и отсутсвия брака.
    ну, спасибо папаша, что мне с этим делать? Откуда мне брать инсайты и придумывать новые идеи для контента.
  • Да и на самом деле не самую главную техническую характеристику я ищу. Разве место для пива - это техническая характеристика? Это то. как технику видит человек. Вот это важно!

Вторая эпоха

С этими проблемами жить было сложно. Пошел на следующий этап оптимизации. на youtube увидел видео очередного учителя по ИИ, который показывал автоматизацию через сервис make (no-code платформа). Суть автоматизации: собираешь весь свой контент со статистикой просмотров, прогоняешь через ИИ, она ставит теги (делает разметку). И тут меня осенило. Блин, а если начать размечать отзывы. Я же тогда смогу потом просто тупо посчитать частоту упоминания одинаковых тегов. и тогда пойму о чем чаще всего пишут люди

Вот в этот момент создания продукта я уже начал вайбкодить.

Первое что сделал - это виджет для хрома.

Окошко без верстки, куда можно вставить класс и получить файл с содержимым класса.
Окошко без верстки, куда можно вставить класс и получить файл с содержимым класса.

Что делал плагин? -- скачивал отзывы в эксель файл.

Путь теперь стал такой:

1. ищу товары с отзывами

2. открываю отзывы и пролистываю до конца

3. НОВОЕ: открываю плагин и вставляю туда класс, в котором лежат отзывы

4. На выходе получаю csv

5. Проделываю тоже самое с остальными найденными товарами и создаю один большой файл со всеми отзывами

вот такой csv файл получался
вот такой csv файл получался

А еще я написал простенький интерфейс - одна html-страничка, с одной кнопкой, куда можно загрузить один общий файл с отзывами и вся эта штука делает одну вещь - отправляет КАЖДЫЙ отзыв по API в LLM (выбрал 4о Open AI) и просит: придумай теги, которые описывают все важные идеи из отзыва.

Не обманываю, простенькая страница
Не обманываю, простенькая страница

А на выходе получается ЦАРЬ-таблица, в которой и все отзывы, и теги

Как я превратил 4 часа рутины в 20 минут автоматизации: история создания ИИ-бота для анализа отзывов

Ну, кажется все, но надо же еще как то их посчитать! Для этого пришлось пилить скрипт для гугл таблиц.

Кстати, если вы не знаете что у гугл таблиц есть свои скрипты, то я настоятельно вам рекомендую про них почитать. Вы сэкономите себе уйму времени и сил, работая над отчетами и сотнями разрозненных файлов.

Как я превратил 4 часа рутины в 20 минут автоматизации: история создания ИИ-бота для анализа отзывов

А теперь и правда все! отскоренные теги, под 500 отзывов на соседней вкалдке и конец рабочего дня )) На сбор и обработку уходило часа 3, при чем если задумался и закрыл ноутбук, то файл не сохраняется, так как весь процесс запускался локально, то и прогресс не сохранялся - беда. Такой инструмент плох, которым ты можешь пользоваться, только если полон оптимизма. А мы чаще полным чем то другим, но только не оптимизмом.

Минусы подхода:

  • да, долго, блин. Вроде бы собрал данные, рад, но сука, самое важное то - анализ, уже нет сил, а задачи делать нужно
  • если ты не делал это прошлые 2-3 недели, это ад. Очень много нюансов, нужно постоянно помнить где какие скрипты лежат, нужно помнить, что где то названия колонок нужны, гже то не нужны, УЖАС!
  • А еще очень большая проблема, но это уже из области промт инжениринга и удобства. Вот начинаю я разбирать тег: удобство, он встречался 100 раз. Честно сделал работу - все отзывы просмотрел, идей повыписывал. Перехожу к тегу качество , он, допустим, встречался 50 раз. И с огромной вероятностью, часть отзывов уже были просмотрены, так как там был тег удобство.

И тут получился финальный промт:

system_prompt = """Ты анализируешь отзыв покупателя на товар. Проанализируй текст и составь список тегов, которые описывают основную суть отзыва. В JSON-формате верни список тегов с обоснованием (в поле "explanation" укажи на базе какой информации был предложен каждый тег). Теги должны быть на русском языке. Если один тег описывает сразу же несколько частей текста, то в обосновании указывай их через точку с запятой. Очень важно: 1. Имя тега должно быть коротким (1-2 слова) 2. Теги должны быть понятными и четко отражать какой аспект или характеристика товара оказалась важной для покупателя или как изменилась их окружающая среда / поведение / привычки после покупки 3. Избегай абстрактных тегов - фокусируйся на конкретных характеристиках или аспектах товара 4. Не включай знаки пунктуации в имя тега Пример ожидаемого JSON формата ответа: {   "tags": [     {       "tag": "дисплей",       "explanation": "наличие дисплея"     },     {       "tag": "управление",       "explanation": "управление с пульта; делает его использование максимально удобным"     },     {       "tag": "дизайн",       "explanation": "стильным дизайном"     }   ],   "sentiment": "positive",   "key_issues": [] } sentiment может быть "positive", "neutral" или "negative". key_issues - это массив строк с основными проблемами в отзыве (актуально для negative sentiment). Верни только валидный JSON без дополнительных пояснений."""

Теперь я начал просить ИИ указывать в фигурных скобках а на базе чего тег то был придуман.
И в момент реализации стало прям хорошо.

НО минусы:

  • добавился новый скрипт для гугл таблиц - теперь нужно было сначала получить список отзывов без фигурных скобок
  • а прошлый доработать, чтобы когда он считал теги, он в соседней колонке складывал все цитаты из отзывов, на базе которых он был сгенерирован

Ну уже неплохо.

Третья эпоха

И так было ооочень долго, до новой задачи, где сразу же было 20 товаров, неделя и остальная операционка. Только на сбор данных дедовским методом ушло бы часов 20, а такого времени у нас нет

Все действия одинаковые от анализа к анализу, а это сигнал, что еху, новый телеграм бот! Засунул абсолютно всю логику, что делал руками в код, просто описав ее Cursor.

Модель уже выбрал DeepSeek, чтобы не париться с проксированием запросов от Open AI, а на выходе сразу же получал готовый файл! Не это ли счастье!

В бот можно закинуть как один товар (ссылка или артикул на WB), так и пачку ссылок Есть ориентир по времени, когда процесс закончится. Результатом я доволен, а самое главное пользуюсь. Для 13 из 20 товаров уже придумал более 100+ идей, которых точно нет у конкурентовБот работает, так что велкам!

Ссылка на бота:

@mp_analytics_reviews_bot

@mp_analytics_reviews_bot

@mp_analytics_reviews_bot

Подписывайтесь на канал:

1
1
Начать дискуссию