Раньше нужно было заходить в отдельный дашборд по каждой метрике. И если хотелось проанализировать глобально весь курс, методист делал десять выгрузок из каждой метрики, загонял это всё в табличку и затем анализировал. Это сложно и неудобно, а также здесь не хватает наглядности. Преимущество цифрового помощника состоит в том, что мы можем смотреть на метрики в самых разных срезах — по курсам, по факультетам, по неделе, по кварталу, по направлению, по платным пользователям, по всей компании. Наблюдаем корреляцию между метриками — бывает, что когда одна метрика растет, другая резко падает. Методисты теперь могут сами оперативно проверять свои гипотезы, не ожидая аналитиков. В общем, это сокращает количество операций, данные хорошо систематизированы, соответственно, анализ становится более точечным.
Очень классный и детальный материал, большое спасибо.
Созрело 1.5 вопроса:
> Спустя полгода после внедрения системы мы заметили, что индекс удовлетворенности клиентов (CSAT) на разных направлениях вырос на 2–10 процентных пунктов.
1. А есть понимание, какие методические действия к этому привели?
2. Как учитывается сезонность и влияние ковида?
Спасибо, мы рады. 🙏
1. Методисты говорят, что да, знают, какие действия привели к росту CSAT.
2. Если говорить именно про CSAT, то мы тут не учитываем сезонность или другие внешние факторы, считаем, что это не должно влиять на уровень удовлетворённости студентов контентом.