Основные правила разговорного UX такие же, как и везде: удобство, понятность, доступность, консистентность (согласованность данных), соответствие контексту. Но дьявол кроется в деталях. Паттерн поведения пользователя в графическом интерфейсе отличается от голосового, где взаимодействие происходит без помощи рук. Руками мы нажмём кнопку «назад», голосом — попытаемся объяснить, что именно хотим. Управляя интерфейсом с помощью кнопок, мы раздражаемся из-за незначительных ошибок, но продолжаем взаимодействие, управляя голосом — перестаём понимать ассистента и заканчиваем диалог.
Ну все пацаны, ждем на скилбоксе и гигбрунсе эту профессию, где нам расскажут, что она лучше профессии слесаря.
Комментарий недоступен
Как мы и писали в статье, паттерн поведения пользователя в графическом интерфейсе отличается от голосового. VUI-дизайнер должен учитывать все особенности естественного языка при проектировании, чтобы ассистент звучал человечнее, чем Google Translate ;)
Voice tech давно стал отдельной сферой, которая развивается по своим законам, а в нашей компании уже есть целая команда VUI-дизайнеров, которые проектируют разговорные интерфейсы.
Покажите хоть одного хорошего голосового бота спроектированного во всем вышеперечисленном)))
Вы имеете в виду инструмент Fabble и конструктор навыков Aimylogic, которые мы перечислили в статье?