Как мы одними из первых внедрили GPT в работу службы поддержки

И научили ее решать более трети обращений без участия человека

Привет. Я Инга, основательница агентства Supprt.Science. Мы помогаем компаниям создавать дружелюбный клиентский сервис. В прошлом году один из наших клиентов спросил, можем ли мы сделать поддержку на GPT. Прозвучало как вызов: на рынке пока мало подобных кейсов — можно пересчитать по пальцам одной руки, и у нас была возможность стать первопроходцами.

Уже через 3,5 месяца мы запустили контекстного бота на основе GPT и на первых обращениях увеличили скорость и качество ответов клиентам — бот зачастую справлялся лучше, чем человек! Спешим поделиться результатами и опытом.

Какие задачи мы решали, внедряя GPT в клиентский сервис

Клиент: тревел агентство со службой поддержки, которая закрывает около 10 000 обращений в месяц.

Основная проблема: клиент хочет масштабироваться на международный рынок, и служба поддержки является узким местом. Необходимо было повысить ее «пропускную способность». Обращения обрабатывались медленно и далеко не всегда качественно. Скорость ответа — 54 минуты на одно обращение, плюс масса недовольства от клиентов по качеству решения проблем. Причины — плохо настроенный HelpDesk, отсутствие Базы Знаний и описанных процедур, неудобная админка. Мы посчитали: чтобы ответить на одно обращение, саппорту приходилось работать с десятком вкладок одновременно.

Нам предстояло создать контекстного бота на базе LLM, который будет выполнять следующие задачи:

  • Консультировать клиентов. Это могут быть как стандартные вопросы общего характера, так специфические кейсы, требующие понимания контекста и клиентского пути конкретного пользователя.
  • Классифицировать обращения клиентов по тематикам, чтобы точнее и быстрее готовить ответы.
  • Определять негативные кейсы или кейсы, требующие эскалации на человека. Бот должен уметь определять негатив и оперативно подключать саппорта к решению вопроса.

Основные этапы и сроки внедрения LLM

С нашей стороны над проектом работали проектный менеджер и дизайнер диалогов (промт-инженер), со стороны клиента — проектный менеджер и fullstack разработчик.

Проект состоял из четырех основных этапов.

Этап 1. Аудит, исследование, подготовка процедур и промтов.

Мы посмотрели, какие решения есть на рынке, и насколько они отвечают нашим потребностям. Остановились на Open AI (начинали с 3,5, а сейчас отвечаем на 4o) как на самом стабильном и надежном варианте.

Параллельно с выбором языковой модели мы начали подготовку карт знаний, процедур и промтов. Запросили у клиента список тематик-интентов, с которыми обращаются в поддержку чаще всего, и прописали запросы и алгоритмы действия для контекстного бота.

Срок — 3 недели.

Этап 2. Интеграция и тестирование.

LLM довольно проста в интеграции с бэкендом, HelpDesk и базами данных. Схема такая:

Как мы одними из первых внедрили GPT в работу службы поддержки

Тестирование мы проводили в две стадии:

Тестирование в «песочнице». На тестовом стенде мы проверяли, насколько ответы бота соответствуют утвержденным требованиям и правилам. Мы брали реальные запросы от клиентов и задавали их боту. LLM собирала по ним информацию из доступных ей баз данных и выдавала ответ.

Тестирование через модерацию саппортов. Когда мы убедились, что LLM отвечает в рамках заданных правил, мы открыли ее на саппортов. Контекстный бот сам составлял ответ и добавлял его в тикет как комментарий. Саппорт проверял текст на соответствие требованиям и либо отправлял его клиенту, либо дорабатывал.

Срок — 6 недель.

Этап 3. Ответы клиентам.

Бот отвечал на все, на что он способен. Если данных не хватало, он эскалировал тикет на человека, помечая, в какие сроки нужно ответить клиенту.

Срок — 2 недели.

Этап 4. Работа над качеством ответов и покрытием каналов связи.

Сюда вошли разработка карт знаний по оставшимся тематикам-интентам, настройка дашбордов для оценки работы LLM, настройка системы алертов, обучение команды заказчика промт-инжинирингу и доработке карт знаний.

Мы начали работать над проектом в сентябре 2023 года, а уже в середине декабря выкатили контекстного бота на клиентов. Итого внедрение заняло 3,5 месяца. Сейчас мы находимся на стадии повышения качества ответов.

 Бот отвечает на вопрос коротко, по делу и с рекомендациями по дальнейшим действиям. 
 Бот отвечает на вопрос коротко, по делу и с рекомендациями по дальнейшим действиям. 

Из чего складывается экономика внедрения LLM-based поддержки

Из затрат на:

  • Разработку, а точнее на интеграцию LLM по API.
  • Обслуживание LLM: нужен проджект из команды поддержки на постоянку, который управляет знаниями, следит за качеством ответов.
  • Использованные токены за ответы клиентам.

Стоимость запуска (Этапы 1-3)

Мы взяли зарплаты чуть выше рынка, чтобы точно уложиться в бюджет:

Проджект менеджер — 150 000 рублей в месяц;

Дизайнер диалога — 80 000 рублей в месяц;

Разработчик на 0,5 ставки — 200 000 рублей в месяц.

Итого: 430 000 рублей в месяц.

Стоимость поддержки качества (Этап 4)

Дизайнер диалогов — 80 000 рублей в месяц;

Разработчик 0,25 ставки — 100 000 рублей в месяц.

Итого: 180 000 рублей в месяц.

Стоимость токенов.

Токен — это минимальная единица измерения входного текста. Токеном может быть одна буква, одно слово или целая фраза — зависит от типа и задачи модели. Еще токены тратятся на действия, которые могут потребоваться для подготовки ответа. Например, если LLM для корректного ответа нужно перепроверить какие-либо данные. Чем сложнее запрос и длиннее ответ, тем дороже будет результат.

Рассмотрим на примере:

Пример расчета стоимости ответа исходя из длины ответа и количества действий, которые предпринял бот 
Пример расчета стоимости ответа исходя из длины ответа и количества действий, которые предпринял бот 

В данном случае к LLM предъявлялись следующие требования:

  • соблюдение Tone of Voice компании;
  • соответствие данным из Базы Знаний;
  • проверка корректности данных из личного кабинета клиента;
  • эскалация в случае ошибки.

То есть в процессе обработки LLM произвела несколько действий, затратив 2173 токена. Финальная стоимость составила 0,96 рубля. Если бы условий было меньше, то и стоимость была бы ниже.

Что касается средней стоимости одного реплая и тикета, то она следующая:

Как мы одними из первых внедрили GPT в работу службы поддержки

А что по результатам?

Нам удалось сократить время обработки одного обращения в 27 раз — с 54 до 2 минут. Сейчас, спустя почти год после запуска проекта на клиентов, бот уже закрывает 36% обращений, поступающих в чат и на email поддержки. Это достаточно высокий показатель с учетом того, всегда есть часть запросов, с которой гораздо лучше справится человек. Например, когда речь идет о сложных кейсах или эмоциональных клиентах, для работы с которыми нужны опыт и экспертиза.

Если вы хотите быть в авангарде технологий и в перспективе снизить косты на поддержку, обращайтесь. Мы не только внедрим LLM-based сервис, но и поделимся экспертизой в промт-инжиниринге.

Пишите мне в телеграм @Ingalab или на почту inga@supprt.science.

44
Начать дискуссию