Совсем не враг: RAG в клиентском сервисе
ИИ, а именно большие языковые модели (LLM) ускорили работу служб поддержки и облегчают работу операторов. Однако универсальные модели не наделены узкими знаниями, так что их помощь человеку по узким вопросам минимальна. Эту проблему решает RAG. О RAG для клиентского сервиса — в блоге.
Как работает RAG (Retrieval Augmented Generation)
RAG — генерация, дополненная поиском, или генерация с дополненной выборкой. Её ключевая особенность: перед тем, как запрос пользователя попадает в LLM-модель, и она генерирует ответ, поисковый робот (ретривер) находит во внутренней базе знаний и добавляет к запросу релевантную дополнительную информацию, контекст. Так модель выдаёт более точный ответ.
Например, клиент спрашивает, как ему сделать возврат заказа. Ретривер ищет данные, которые по смыслу дополнят запрос пользователя, в базе знаний, где содержатся в т.ч. политики возврата заказов и истории заказов клиентов. Система присоединяет отобранную дополнительную информацию к запросу и передает всё LLM, которая генерирует ответ.
RAG предполагает, что языковые модели получают доступ к актуальной информации без повторного обучения за счёт постоянной доработки базы знаний. Качество ответов зависит от качества этой базы знаний, из которой ретривер берёт контекст. Так RAG экономит деньги и одновременно обеспечивает качественную работу LLM.
Преимущества RAG в обслуживании клиентов
Решения по обслуживанию клиентов на базе RAG обращаются к базе знаний, которую дешевле актуализировать, чем переобучать модель. Благодаря отбору данных в базу знаний и тонкой настройке работы ретривера снижается риск галлюцинаций ИИ, повышается качество ответа. Из-за того, что обновлять базы легче, чем переобучать модели, RAG-решения проще масштабировать.
И клиенты, и операторы контактного центра быстрее находят нужную информацию, что сокращает время клиентского ожидания и повышает уровень удовлетворенности. Помощь LLM дает агентам больше времени на решение нестандартных ситуаций.
Системы RAG также можно создавать, чтобы они прогнозировали потребности клиентов, собирая данные из прошлых или часто задаваемых вопросов. Такая система сможет предлагать полезные ответы заранее, что сократит количество повторяющихся вопросов и поспособствует более качественному и персонализированному взаимодействию.
Сама по себе технология универсальна, позволяет подстроить LLM-модели под потребности клиентов и бизнеса. RAG можно интегрировать в существующие системы ИИ, доработав существующие модели с архитектурой RAG, или как подключаемый модуль.
Мультимодальный ИИ может одновременно анализировать текст, изображения, видео и аудио. Системы на базе RAG могут использовать эту технологию, чтобы объединить текстовые вопросы с изображениями и звуками, чтобы лучше понимать потребности клиентов.
Компании встают перед сложным выбором: создавать ботов на базе RAG, что сложнее и затратнее, или использовать универсальные виртуальные помощники на базе искусственного интеллекта. И хотя собственный бот на начальных этапах требует много времени, ресурсов и опыта, он даёт больше контроля, возможностей для настройки и лучше справляется с задачами поддержки.