От хайпа к пользе: реальный кейс локального ИИ для маркетинговых исследований

В своей работе я регулярно сталкиваюсь с обработкой больших объёмов данных: отзывы клиентов, анкетные ответы, экспорт из CRM и исследовательские массивы.

Обычно для этого используют формулы в Google Sheets, массивные скрипты на Google Apps Script или подключение к внешнему ИИ через API.

Всё это — либо громоздко, либо ограничено. Например, Google Script прекращает выполнение уже через 6 минут. Иногда этого хватает, но чаще — нет.

Точка невозврата случилась после выгрузки 1000 отзывов с Яндекс Карт. В таблице были три столбца: дата, ник, текст отзыва. И с первого взгляда — вроде бы ничего сложного. Но как только начинаешь готовить это к анализу, начинается боль:

  • Дата: написана текстом — «20 февраля 2024». Чтобы привести её к числовому формату, надо либо городить вложенные формулы с локализацией, либо обрабатывать через кастомные функции. Банальный =DATEVALUE() не спасёт, особенно если в одной колонке смешаны разные форматы.
  • Пол по нику: вот тут формулы уже бессильны. Кто такой «Саша»? Мужчина? Женщина? Тут нужен ИИ с контекстом, а не если/иначе.
  • Тональность отзыва: и вот здесь уже совсем грустно. С учётом сарказма, намёков и нестандартных формулировок формулы бессильны. А внешние ИИ-интеграции — это снова API, лимиты, и "отправьте ваши данные на сервера OpenAI, пожалуйста".

Я задался вопросом: можно ли сделать этот процесс проще, быстрее и — главное — локальным? Без API-ключей, облаков, ограничений по времени, анонимной обработки и потенциального нарушения конфиденциальности.

Ответ оказался — да.

И я нашёл решение: локальный ИИ-агент, который запускается на обычном ноутбуке с M2, читает инструкции на простом языке, обрабатывает каждую строку таблицы с учётом контекста, добавляет колонки и экономит часы ручной работы.

Ниже я расскажу, как именно это работает, какие задачи решает, и почему это не эксперимент, а готовый инструмент для маркетинговых исследований, анализа данных и бизнес-автоматизации.

Что умеет локальный ИИ на практике

Многие слышали о больших языковых моделях, но мало кто пробовал внедрять их в повседневную работу без облаков, API-ключей и ограничений по времени выполнения.

В этом проекте я собрал полноценного локального ИИ-агента, который:

  • Сам анализирует CSV-файл, строит план трансформации данных, исходя из запроса на простом языке;
  • Обрабатывает каждую строку отдельно, с учётом контекста;
  • Добавляет, редактирует и пересоздаёт колонки, прямо как человек-аналитик;
  • Работает параллельно в потоках, визуализирует прогресс, считает статистику и прогнозирует время до завершения;
  • Работает полностью локально через LM Studio и модель Gamma 3 4B — без интернета, без облака, без компромиссов.

Один запрос, тысяча решений

Представим типовую задачу: у вас есть таблица с 1000 отзывов. В каждой строке — дата, имя пользователя, текст.

Вы хотите:

  1. Привести дату к числовому формату (23 февраля 2024 → 2024-02-23);
  2. Определить пол по нику (на основе контекста, а не просто по списку имён);
  3. Проанализировать тональность отзыва — с учётом сарказма, скрытого недовольства и других нюансов.

Что делает агент?

  • Вы загружаете CSV → пишете простую инструкцию:«Приведи дату в числовой формат, добавь колонку с полом по нику и оцени тональность каждого отзыва».
  • Агент генерирует план, показывает его в виде таблицы.
  • Спрашивает: хочешь отредактировать? — можно.
  • Далее — обрабатывает каждую строку через локальную LLM, строго следуя плану.
  • На выходе: новый CSV с добавленными колонками и метаданными. И всё это — без отправки данных за пределы ноутбука.

Сценарии применения локального ИИ-агента в российских реалиях

1. Маркетинговая аналитика (в широком смысле)

  • Определение тональности отзывов, комментариев, email-обратной связи.
  • Автоматическая кластеризация запросов клиентов: жалобы, предложения, благодарности.
  • Анализ анкет, опросов, NPS, в том числе распознавание открытых ответов.
  • Персонализация рассылок: определение пола, региона, интересов по фрагментарным данным.

Кто выиграет: e-commerce, агентства, продуктовые команды.

2. Обработка HR-данных и анкет

  • Автоматическое резюме: кто кандидат, из какого города, какой опыт — из неструктурированного текста.
  • Классификация откликов: стажировка, junior, middle, senior.
  • Обработка опросов сотрудников: выявление проблем в команде на уровне фраз ("руководство не слышит", "не расту").

Кто выиграет: рекрутинговые агентства, внутренние HR-департаменты, карьерные сервисы.

3. Медицина и фарма

  • Распознавание ключевых жалоб пациентов из текста — структурирование истории болезни.
  • Обработка фидбека по препаратам: выявление нежелательных реакций, жалоб на упаковку и цену.
  • Классификация обращений по тематике: "эффект", "доставка", "доступность".

Кто выиграет: частные клиники, фарм-компании, телемедицина.

4. Госструктуры и муниципальные услуги

  • Разбор обращений граждан (через Госуслуги, сайт, email) с выделением сути обращения и тональности.
  • Сегментация обращений по районам, улицам, проблематикам (дороги, свет, благоустройство).
  • Анализ открытых данных — от списков поставщиков до жалоб в ОНФ.

Кто выиграет: мэрии, госорганы, НКО, "Госуслуги".

5. Строительство и девелопмент

  • Обработка отзывов дольщиков и жильцов: "слышимость", "протекает", "охрана не пускает".
  • Классификация замечаний из актов приёмки.
  • Обработка внутренних отчётов от подрядчиков.

Кто выиграет: девелоперы, управляющие компании, ЖК-сервисы.

6. Юридический и финансовый анализ

  • Извлечение ключевых фактов из контрактов (сроки, штрафы, суммы).
  • Классификация входящей переписки и обращений: "риск", "согласование", "предупреждение".
  • Проверка выгрузок транзакций на аномалии и несоответствия.

Кто выиграет: юр. департаменты, консалтинг, финмониторинг.

7. Логистика и поддержка

  • Классификация тикетов поддержки: "задержка доставки", "сломался", "не тот товар".
  • Определение географии и приоритетности жалоб.
  • Автоматическая генерация отчётов о проблемах по регионам.

Кто выиграет: службы доставки, ретейл, маркетплейсы.

8. Образование и EdTech

  • Автоматическая проверка домашних заданий (тональность, полнота, тема).
  • Обработка фидбека студентов по курсам.
  • Классификация заявок на курсы: возраст, цели, мотивация.

Кто выиграет: онлайн-школы, университеты, технопарки.

Почему это особенно ценно в России

  • Полная оффлайн-обработка — подходит под ФЗ-152 (о персональных данных), без риска "утечек в облако".
  • Работает на обычном ноутбуке — нет нужды в серверах или DevOps-команде.
  • Нет ограничений на 6 минут, как у Google Scripts.
  • Легко адаптируется под внутренние задачи — без "долго и дорого".
  • Подходит для работы в закрытых контурах: банки, госкорпорации, R&D.

Как это работает: от запуска до результата

Вся магия начинается с локального запуска модели.

Я использую LM Studio — лёгкий интерфейс для работы с LLM (или можно использовать Ollama — альтернатива в терминале).

Достаточно скачать, установить и выбрать нужную модель (в моём случае — gemma-3-4b-it).После запуска ты получаешь локальный API, который выглядит как http://127.0.0.1:1234.

Что происходит дальше:

  1. Запускаем скрипт main.py — он подключается к локальной модели, открывает CSV-файл (в моём случае Отзывы - Sheet2.csv).
  2. Показывает лог загрузки: количество строк, названия колонок, первые строки таблицы.
  3. Появляется приглашение в консоли: Введите запрос для обработки данных:
  4. И вот здесь происходит магия. Ты не пишешь код. Ты даёшь простую инструкцию, как будто говоришь живому сотруднику: «Приведи дату в числовой формат, определи пол по нику, оцени тональность отзыва», «Извлеки ключевые жалобы и классифицируй их по типу: доставка, качество, обслуживание», «Добавь колонку с категорией по смыслу»
  5. Скрипт обращается к ИИ, получает план обработки в виде JSON, и показывает его красиво в виде таблицы (см. ниже)
  6. Ты можешь отредактировать план, если хочешь. А можешь сразу запустить.
  7. Модель обрабатывает каждую строку, обновляет таблицу, добавляет новые поля — всё это в реальном времени, с прогресс-баром, как будто смотришь на работающий сборочный конвейер.
  8. Результат сохраняется в output.csv — уже с дополненными колонками и чистыми данными.

Вот как это выглядит

От хайпа к пользе: реальный кейс локального ИИ для маркетинговых исследований

Слева — LM Studio, где загружена модель gemma-3-4b-it.

Справа — скрипт в VS Code, читающий CSV, логирующий всё и предлагающий ввести запрос.Всё локально. Всё под контролем.

Простой запрос → готовый план → результат

Когда мы говорим, что ИИ стал “помощником”, — это не метафора. Я хотел проверить, насколько легко можно дать ему задачу на обычном, живом русском языке. Без промт-инженерии, без шаманства с параметрами, просто как если бы ты объяснял задачу джуну.

Что я написал:

Нам нужно создать новую колонку "Пол" и определить его по нику и содержанию отзыва: был/была и т.д. Нам также нужно создать колонку "Тональность" и на основании контекста определить: нейтральная / позитивная / негативная. Наконец, нужна колонка "Ключевые слова" — туда вытаскиваем релевантные термины, связанные с деятельностью магазина.

Всё — как в рабочем чате.

Что выдал агент:

От хайпа к пользе: реальный кейс локального ИИ для маркетинговых исследований
Параметр Значение изменяемые_колонки ["Текст отзыва"] новые_колонки ["Пол", "Тональность", "Ключевые слова"] метод_обработки: Определение пола на основе ника и слов типа «ходил», «покупал», «была» Анализ тональности с помощью NLP Извлечение ключевых слов, связанных с темой магазина

План автоматически сохраняется в transformation_plan.json — и ты решаешь, нужно ли вносить правки.

Я выбрал — не надо, всё идеально.

Отступление: “на чём всё это работает”

Хочу отдельно отметить: я использую не самую мощную модель и не топовую конфигурацию железа.

Модель — Gemma 3 4B, всего 4 миллиарда параметров. Это скорее компактный ИИ-интеллигент, чем “всёзнающий оракул”.Железо — обычный MacBook на M2 с 8 ГБ оперативной памяти. Да, не шутка.

И всё это — уже работает.Уже обрабатывает 1000 строк, выдаёт тональность, пол, ключевые слова и не задыхается.

А теперь представьте:

Если такая модель работает на обычном ноутбуке,то что произойдёт, если мы возьмём:

  • Mac Mini на чипе M4,
  • 16 ГБ памяти,
  • И поставим туда модель на 7B или 13B параметров?

Прирост будет не просто линейным, а качественным:

  • Скорость — в 2–3 раза выше
  • Контекст — больше
  • Глубина обработки — точнее
  • Потери по смыслу — меньше

Что дальше?

Сейчас я:

  • Продолжаю отладку скрипта — улучшаю стабильность, работу с логами и потоками.
  • Готовлюсь к разработке веб-интерфейса, чтобы использовать инструмент не только из терминала, но и как полноценный сервис: загружаешь CSV — получаешь результат.

Цель — сделать простой, понятный и локальный ИИ-инструмент, который можно использовать в любой компании — от отдела маркетинга до муниципального call-центра.

Результаты обработки: метрики под капотом

В финале теста модель обработала таблицу из 1004 строк. Вот что мы видим в статистике:

От хайпа к пользе: реальный кейс локального ИИ для маркетинговых исследований

Больше 980 строк обогащены новыми данными (пол, тональность, ключевые слова).

Всё это — без участия человека, за 1 час работы ноутбука.

Стабильность пайплайна — высокая: почти 99% успешной обработки на такой модели — результат очень достойный.

Интересный факт:

Если бы ты поручил вручную разметить 1000 строк (3 параметра на отзыв):

  • Средняя скорость разметки вручную — 20 строк в час
  • На 1000 строк — ≈ 50 человеко-часов работы
  • При ставке аналитика 500 ₽/ч — 25 000 ₽

Заключение: MVP сегодня — инфраструктура завтра

Я верю, что за этим подходом — будущее

  • Локальные ИИ-агенты дают компаниям не только мощность, но и контроль.
  • Они работают на простом железе: MacBook с 8 ГБ или Mac Mini с M4 и 16 ГБ памяти — и уже показывают производительность, способную заменить десятки часов ручной аналитики.
  • Никакой сборки серверов, DevOps-команд и администрирования. Всё поднимается за пару часов.
  • Нет зависимости от облаков и третьих лиц. Хотите — отключаете интернет физически. И ваша модель работает в изоляции: без утечек, без компромиссов, без паранойи.

И главное: это можно взять с собой

MacBook или Mac Mini легко помещается в обычный рюкзак.

Это значит, что вы можете взять автономную ИИ-систему с собой — на отдалённое производство, в полевые условия, в закрытую лабораторию.

  • Без VPN
  • Без доступа в интернет
  • Без риска передать что-то наружу
  • С полной функциональностью на борту

И всё это доступно уже сегодня

Не “в перспективе”. Не “к 2027 году”.А прямо сейчас: LM Studio, модель, Python-скрипт, ноутбук — и вы получаете:

  • Настоящий ИИ-агент
  • Безопасный и автономный
  • Который говорит с вами на естественном языке и делает работу без жалоб

🙌 Благодарю за внимание

Спасибо, что дочитали до конца и уделили внимание этой концепции.Для меня это не просто демонстрация прототипа —а попытка показать, как ИИ может работать локально, эффективно и безопасно уже сегодня, без сложной инфраструктуры и зависимости от облаков.

Я уверен: локальные агенты — это не временное решение, а новая архитектура мышления. Где железо скромное, но возможности — реальные.

Если у вас появились:

  • вопросы,
  • идеи,
  • предложения по сотрудничествуили просто хочется обсудить будущее ИИ в локальном исполнении —

я открыт для общения:📲 t.me/MaatqY

2
Начать дискуссию