Как я превратил 4 часа рутины в 20 минут автоматизации: история создания ИИ-бота для анализа отзывов
Привет, раньше у меня была проблема, когда я пытался придумать идеи для контент маркетинга: тратил по 4 часа на чтение сотен отзывов, глаза слипаются на 100-м комментарии, а в голове каша из повторяющихся фраз. Я Даня, и еще в феврале я вообще не умел программировать. Но благодаря буму нейросетей я создал телеграм-бота, который теперь делает всю эту работу за 20 минут! Сегодня расскажу, как прошел путь от копирования HTML-кода через панель разработчика до полноценного ИИ-инструмента, который уже сгенерировал 100+ уникальных идей для контента. Спойлер: все началось с понимания, что мы говорим на "языке фреона", а покупатели — на языке "пива и пельменей".
Я работаю в компании GARLYN, мы бренд бытовой техники, выпускаем новые категории и стремимся закрепиться в сердцах народного потребителя. Прошлым летом проходил курс Ильи Красинсокго, и на одной из лекций Илья рассказал, про язык фреона. Это когда мы как бизнес говорим и пытаемся продавать на своем языке, который для обычного пользователя - иностранный и неосвоенный.
Простая аналогия с курса про холодильник:
У бизнеса: верхняя камера, нижняя камера на 60 литров, технология no frost и тд
У клиента: сверху пиво, снизу пельмени
И я понял, что мы говорим на языке фреона. Что то нужно было решать.
Первое что напрашивается -- го делать JTBD интервью, ух поймем наших покупателей, опишем работы, но в матрице больше 70 sku, а на один товар желательно человек 10-15. А результат нужно прямо сейчас, лучше вчера. Поэтому глубинки решил отложить.
А где чаще всего люди делятся обратной связью о товаре, где они рассказывают чем товар плох, а чем он хорош? Правильно, в отзывах.Цель была составить список реальных штук, которые важны для покупателей. Поэтому открыл топ карточки с самым большим количество отзывов и начал читать, полдня потратил, понял что все отзывы уже превратились в кашу, частоту упоминания параметров считать сложно, все не структурировано, кажется в какой-то момент все повторяется, глаз на сотом отзыве замыливается. Нужно делать автоматизацию.
Первая эпоха
Пошел городить MVP! Кто может быстро и без нытья делать рутинную работу и не просить поваышения -- ИИ, заплатил каждое 15 число $20 и грузишь пока лимиты не достигнутся.
Схема простая:
собираю отзывы -> кидаю в нейронку и анализ отзывов готов.
Как "парсил" отзывы? В начале - открывал страницу, открывал код. Скролил страницу до конца, чтобы прогрузились все отзывы, а потом искал элемент через панель разработчиков копировал и вставлял в ИИшку
А потом промтом просил выделить а что же тут важного?
Какие минусы:
- Все еще я трачу очень много времени. При чем это рутинная работа - доскроль до конца страницы, найди элемент, скопируй вставь в ИИ
- Контекстное окно. Очень длинный текст в ии не запихнешь, ее контекстное окно переполниться и токенов на подумать ей не хватит. А текст абудет очень много, потому что копируется и весь html, css код
- Упрощение ии. Все модели ИИ безбожно упрощают. Это их суть - апроксимация. Если спросить а какие параметры самые важные у пылесоса, то ИИ выдаст самые часто встречаемые в интернете параметры, но не факт, что это реально то, что беспокоит пользователей, это то, что написали ребяюта из других отделов маркетинга. Также и с отзывами.
спрашиваю: что важно?
а ИИ: быстрая доставка и отсутсвия брака.
ну, спасибо папаша, что мне с этим делать? Откуда мне брать инсайты и придумывать новые идеи для контента. - Да и на самом деле не самую главную техническую характеристику я ищу. Разве место для пива - это техническая характеристика? Это то. как технику видит человек. Вот это важно!
Вторая эпоха
С этими проблемами жить было сложно. Пошел на следующий этап оптимизации. на youtube увидел видео очередного учителя по ИИ, который показывал автоматизацию через сервис make (no-code платформа). Суть автоматизации: собираешь весь свой контент со статистикой просмотров, прогоняешь через ИИ, она ставит теги (делает разметку). И тут меня осенило. Блин, а если начать размечать отзывы. Я же тогда смогу потом просто тупо посчитать частоту упоминания одинаковых тегов. и тогда пойму о чем чаще всего пишут люди
Вот в этот момент создания продукта я уже начал вайбкодить.
Первое что сделал - это виджет для хрома.
Что делал плагин? -- скачивал отзывы в эксель файл.
Путь теперь стал такой:
1. ищу товары с отзывами
2. открываю отзывы и пролистываю до конца
3. НОВОЕ: открываю плагин и вставляю туда класс, в котором лежат отзывы
4. На выходе получаю csv
5. Проделываю тоже самое с остальными найденными товарами и создаю один большой файл со всеми отзывами
А еще я написал простенький интерфейс - одна html-страничка, с одной кнопкой, куда можно загрузить один общий файл с отзывами и вся эта штука делает одну вещь - отправляет КАЖДЫЙ отзыв по API в LLM (выбрал 4о Open AI) и просит: придумай теги, которые описывают все важные идеи из отзыва.
А на выходе получается ЦАРЬ-таблица, в которой и все отзывы, и теги
Ну, кажется все, но надо же еще как то их посчитать! Для этого пришлось пилить скрипт для гугл таблиц.
Кстати, если вы не знаете что у гугл таблиц есть свои скрипты, то я настоятельно вам рекомендую про них почитать. Вы сэкономите себе уйму времени и сил, работая над отчетами и сотнями разрозненных файлов.
А теперь и правда все! отскоренные теги, под 500 отзывов на соседней вкалдке и конец рабочего дня )) На сбор и обработку уходило часа 3, при чем если задумался и закрыл ноутбук, то файл не сохраняется, так как весь процесс запускался локально, то и прогресс не сохранялся - беда. Такой инструмент плох, которым ты можешь пользоваться, только если полон оптимизма. А мы чаще полным чем то другим, но только не оптимизмом.
Минусы подхода:
- да, долго, блин. Вроде бы собрал данные, рад, но сука, самое важное то - анализ, уже нет сил, а задачи делать нужно
- если ты не делал это прошлые 2-3 недели, это ад. Очень много нюансов, нужно постоянно помнить где какие скрипты лежат, нужно помнить, что где то названия колонок нужны, гже то не нужны, УЖАС!
- А еще очень большая проблема, но это уже из области промт инжениринга и удобства. Вот начинаю я разбирать тег: удобство, он встречался 100 раз. Честно сделал работу - все отзывы просмотрел, идей повыписывал. Перехожу к тегу качество , он, допустим, встречался 50 раз. И с огромной вероятностью, часть отзывов уже были просмотрены, так как там был тег удобство.
И тут получился финальный промт:
Теперь я начал просить ИИ указывать в фигурных скобках а на базе чего тег то был придуман.
И в момент реализации стало прям хорошо.
НО минусы:
- добавился новый скрипт для гугл таблиц - теперь нужно было сначала получить список отзывов без фигурных скобок
- а прошлый доработать, чтобы когда он считал теги, он в соседней колонке складывал все цитаты из отзывов, на базе которых он был сгенерирован
Ну уже неплохо.
Третья эпоха
И так было ооочень долго, до новой задачи, где сразу же было 20 товаров, неделя и остальная операционка. Только на сбор данных дедовским методом ушло бы часов 20, а такого времени у нас нет
Все действия одинаковые от анализа к анализу, а это сигнал, что еху, новый телеграм бот! Засунул абсолютно всю логику, что делал руками в код, просто описав ее Cursor.
Модель уже выбрал DeepSeek, чтобы не париться с проксированием запросов от Open AI, а на выходе сразу же получал готовый файл! Не это ли счастье!
В бот можно закинуть как один товар (ссылка или артикул на WB), так и пачку ссылок Есть ориентир по времени, когда процесс закончится. Результатом я доволен, а самое главное пользуюсь. Для 13 из 20 товаров уже придумал более 100+ идей, которых точно нет у конкурентовБот работает, так что велкам!
Ссылка на бота:
@mp_analytics_reviews_bot
@mp_analytics_reviews_bot
@mp_analytics_reviews_bot
Подписывайтесь на канал: