Полный гайд: Как провести пользовательское интервью, часть 3

В первых двух частях мы уже разобрали, как подготовиться к интервью и, самое главное, как набраться смелости и поговорить с пользователями. Как итог — у нас теперь куча материала от пользователей. Но возникает закономерный вопрос: как во всём этом многообразии данных разобраться и вытащить максимум пользы? Сегодня я поделюсь своими лайфхаками и проверенными методами, чтобы этот процесс не казался вам чем-то сложным.

Полный гайд: Как провести пользовательское интервью, часть 3

Если вдруг вы ещё не читали предыдущие статьи, настоятельно рекомендую сделать это. В первой части мы обсуждали, как подготовиться к интервью, а во второй — как разговаривать с пользователями так, чтобы не тряслись поджилки. Кстати, если вам нравится такой контент, больше подобных материалов вы можете найти в моём Telegram-канале.

Итак, сегодня мы обсудим:

  • Что остаётся после интервью (спойлер: кроме выгорания, ещё куча данных).
  • Как сделать годную выжимку из вороха разговоров.
  • Как эффективно использовать полученные инсайты для улучшения продукта.

После интервью всегда остаётся не только куча эмоций, но и тонна данных, и часто возникает вопрос: а за что хвататься в первую очередь? Вот вам реальная картина: кто-то восхищается вашими вопросами, кто-то даёт совершенно неожиданные ответы, и вы уже погрязли в десятках страниц заметок и часах аудиозаписей. Как из этого всего сделать структурированный, логичный и, главное, полезный вывод? Кажется, что это задача для супергероев, но не волнуйтесь, мы сегодня разберёмся, как это сделать легко и без лишних головных болей!

Что нам остаётся после интервью

После того как все респонденты выговорились (а иногда и выговорились чуть больше, чем мы ожидали), у нас на руках остаётся ценнейший набор разрозненных данных. Это могут быть аудиозаписи, страницы с заметками, выделенные ключевые фразы или, если день особенно удачный, целые инсайты, прямо на вес золота. Но что с этим делать дальше? Как из этого хаоса извлечь логику и структурировать всё так, чтобы это помогло в работе? Помните, в этих данных скрываются ответы на самые важные вопросы: что не так с продуктом, что действительно нравится пользователям и где зарыты самые главные проблемы.

Первым делом нужно отделить зерна от плевел — то есть ту информацию, которая действительно полезна, от всего остального, что может нас увести в сторону. Фокусируемся на тех моментах, которые повторяются в разговорах, — это так называемые «паттерны». Если один человек сказал что-то странное — это интересно, конечно, но если пятеро разных людей озвучили одну и ту же проблему, это уже повод насторожиться. Первый шаг — это выделение повторяющихся тем и моментов. И не забываем: важны как мнения, так и поведение, особенно если подобные вещи уже происходили не один раз в прошлом. А если происходили — всё, пора бить тревогу!

Анализ результатов

Самый простой и проверенный способ — это сводные таблицы. Здесь по горизонтали можно раскидать наших респондентов, а по вертикали — вопросы, ситуации и любые другие детали, которые помогут структурировать информацию и понять, что думают разные группы пользователей. Так мы получаем чёткую картину: где пользователи единодушны, а где у них мнения расходятся. А дальше — дело техники. Важно не утонуть в данных, а увидеть паттерны и понять, на что стоит обратить внимание в первую очередь.

Полный гайд: Как провести пользовательское интервью, часть 3

Анализ интервью через сводные таблицы — это простой, но мощный инструмент, который помогает систематизировать и быстро обработать большое количество данных. Начнём с того, что сводные таблицы позволяют наглядно увидеть ключевые моменты, которые повторяются среди респондентов. Представьте, у вас есть десяток ответов на одни и те же вопросы, и вместо того, чтобы вручную выискивать совпадения, таблица сразу покажет, как часто всплывают те или иные темы или проблемы. Это как мини-карта сокровищ: сразу видны общие группы пользователей по типу поведения или их мнение по важным вопросам.

Анализировать можно двумя способами: повторно прослушивать аудиозаписи интервью или просматривать транскрипт, если его для вас уже сделал умный искусственный интеллект (а если нет, значит, пора его заводить!). Разбирая транскрипт или запись по каждому информанту, выделяйте важные блоки и кратко записывайте их в ячейку таблицы, где пересекаются вопрос и конкретный респондент. Это упрощает процесс и позволяет сразу отслеживать, кто что сказал по каждому из ключевых вопросов.

Кроме того, сверху таблицы можно добавить дополнительные строки с информацией о возрасте, опыте или частоте использования продукта. Эти данные помогают понять, как различные сегменты пользователей реагируют на те или иные аспекты интерфейса. Так можно легко выделить те группы, для которых особенно важно решить конкретные проблемы или внедрить изменения.

Для меня этот способ самый простой и, честно говоря, один из самых любимых. Но, если честно, как ещё можно вручную обработать интервью? Давай разберём несколько методов для тех, кто любит экспериментировать с разными подходами к анализу.

Кодирование данных

Кодирование — это как составление своего рода шифра для ключевых моментов из интервью. Это помогает быстро выделить повторяющиеся паттерны и сделать их более наглядными.

Начинаем с того, что перечитываем транскрипт (или прослушиваем записи, если вам больше нравится такой способ) и отмечаем все интересные моменты или повторяющиеся паттерны. Для каждого найденного инсайта придумываем свой код. Например, если пользователь жалуется на интерфейс, присваиваем этому код «проблемы с навигацией». А если речь идёт о мотивации к покупке, можно назвать код «тип покупки». Это могут быть даже эмоции — «радость», «грусть», «разочарование» — если цель вашего исследования связана с эмоциональной реакцией пользователей.

После того как все коды созданы, мы начинаем их группировать по общей тематике. Представьте это как дерево: на вершине у нас общая тема, например, «Интерфейс», а внутри уже находятся коды, которые относятся к этой теме. Иерархия может быть разной — можно сделать коды первого уровня или объединить несколько кодов в один более широкий, если это имеет смысл.

Да, это можно сделать в Miro, Notion или другом удобном инструменте. Но я бы всё равно рекомендовал старый добрый метод — сводные таблицы. По горизонтали размещаем наших информантов, а по вертикали — коды, сгруппированные по темам. В каждой ячейке — конкретное высказывание респондента, относящееся к данной теме. Это делает картину понятной и систематичной.

Когда придёт время составлять финальный отчёт, вы сможете быстро сравнить мнения пользователей, их паттерны или даже эмоции по определённым вопросам. Это помогает не только в анализе, но и в том, чтобы представить данные команде или руководству в понятной и наглядной форме.

Анализ по методу KJ (Affinity Diagramming)

Если вам нужно больше визуальных данных или предстоит воркшоп по итогам исследования, метод KJ может стать вашим лучшим другом. Он помогает выявить скрытые связи между идеями, группировать информацию по темам и формировать логические паттерны. Особенно полезен этот метод, когда на руках огромная куча неструктурированных данных — например, заметки из интервью, которые кажутся неприступной горой.

Как это работает? Сначала прослушиваете или перечитываете итоги интервью и готовите несколько десятков карточек с ключевыми идеями, цитатами или важными замечаниями. Каждая карточка — это одна мысль, никакой многозначности! Эти карточки можно раскидать на доске, как реальной, так и виртуальной (например, Miro или Mural подойдут идеально). Карточек много, они разбросаны — и в этом весь кайф.

Далее вы собираетесь приятной компанией (или можно поработать одному, но с командой всегда веселее) и начинаете искать схожие идеи между карточками. Секрет в том, чтобы работать интуитивно — просто группируйте схожие карточки, не задумываясь, почему они должны быть в одной куче. Объяснения потом, сначала поток сознания!

Когда все карточки группированы, самое время придумать названия для каждой группы. Тут важно быть конкретным: названия типа «Проблемы с поиском», «Не могут найти отзывы» или «Проблемы со скоростью» подойдут идеально. Чем точнее и понятнее название, тем проще будет работать с группой данных.

Теперь у вас есть названия групп и количество карточек в каждой. Это уже не просто набор данных — это полноценная структура, которая наглядно показывает, где у пользователей возникли проблемы. На основе этих групп можно составить выводы о том, что нужно улучшить в системе, и даже наметить конкретные шаги для изменений. Аффинити-диаграммы — идеальный инструмент для анализа больших объёмов данных, позволяющий увидеть взаимосвязи и темы, которые иначе могли бы проскользнуть незамеченными.

Другие способы

Я пробовал ещё несколько методов анализа, но если честно, они не то чтобы особо впечатлили. Да, они работают, но пользы от них не так много, поэтому вдаваться в детали не буду.

Контент-анализ — это самый простой метод, когда вы просто ищете конкретные слова или фразы в транскрипте и отмечаете их частоту или важность. Да, можно понять, как часто пользователи упоминают ту или иную проблему, и проверить некоторые гипотезы. Но сам по себе этот метод довольно поверхностный, поэтому я рекомендую его как дополнительный инструмент, а не основной.

Систематизация на Mind Map — хороший способ, если вы хотите держать всё в одном месте и быстро передавать данные. В этом методе вы выделяете до 7 основных направлений исследования и добавляете в каждое новые понятия и связи. Он полезен для визуализации, но не всегда даёт глубокий анализ. Это скорее метод хранения и передачи данных, чем анализа.

А как еще?

Пару лет назад я бы на этом и закончил свой список методов анализа. Но мир не стоит на месте, и теперь у нас есть потрясающие AI-инструменты, которые просто взрывают мозг своим функционалом. Они помогают проанализировать любые данные, включая интервью, в разы быстрее и точнее, чем можно было представить. Поэтому дальше я расскажу о тех инструментах, которые я лично попробовал и которые реально помогают вывести анализ на новый уровень.

ChatGPT

Первый инструмент, который сразу приходит в голову — это ChatGPT. Достаточно недорогой, легкий в управлении и вообще выглядит как магия. Но не стоит думать, что можно просто скормить ему все интервью и ждать, что он выдаст идеальный результат. К сожалению, модель к такому не обучена. Однако её можно немного подготовить, и тут нам пригодится старая добрая схема анализа через сводные таблицы. Сначала я делал анализ одного интервью вручную, а потом загружал в ChatGPT сводную таблицу, чтобы «натренировать» модель. После этого уже можно было загружать новые транскрипты и получать аналитику аналогичного уровня.

Проблема здесь в том, что результат напрямую зависит от того, как грамотно вы составите запрос. Это как с готовкой: рецепт может быть хороший, но если напутать с ингредиентами, вкус будет так себе. Со временем я научился создавать кастомные чаты, тренировал их, и уже мог загружать транскрипты без эталонных данных. Плюс — ChatGPT отлично справляется с контент-анализом и другими базовыми задачами, так что его можно использовать как дополнительный инструмент для более глубокого анализа.

Dovetail

Dovetail — это уже инструмент покруче. Он не только сам сделает транскрипт интервью, но и поможет подсветить важные моменты по всему тексту. В Dovetail можно использовать сразу несколько типов анализа: от кодирования до саммари блоков по методу KJ. То есть, можно сказать, что это целый комбайн для анализа данных. Но не стоит полагаться на него на 100%, особенно когда важны детали. Тем более, что в Dovetail удобно анализировать данные и вручную, без полного доверия AI.

NVivo

NVivo — это тяжёлая артиллерия в мире анализа данных. С его помощью можно делать детальное кодирование как вручную, так и автоматически. Он особенно полезен, когда надо буквально по крупицам разбирать транскрипты и важна каждая мелочь. Да, AI тут не такой мощный, как в других инструментах, но NVivo отлично справляется с детальной аналитикой. Идеально, когда нужно углубиться в детали и изучить каждый нюанс.

Notably

Если нужен не только инструмент для анализа, но и удобная система для хранения и систематизации данных, то Notably — ваш выбор. Он не перегружен аналитическими инструментами, но хорошо справляется с тегированием, быстрым поиском по прошлым интервью и позволяет работать в команде. Это такой инструмент на каждый день, когда надо организовать данные, а не только их анализировать.

Сondens

Сondens — ещё один интересный инструмент для хранения данных и командной работы. Анализ интервью здесь можно делать в полуавтоматическом режиме, используя тегирование и выделение цитат. Особенно круто, что поиск и фильтрация данных реализованы очень удобно, так что если ваши респонденты разбиты на группы, работать с данными становится действительно комфортно.

А нужен ли здесь человек?

Полный гайд: Как провести пользовательское интервью, часть 3

Если AI уже научились анализировать данные, то что дальше? Может, они и исследования сами начнут проводить? Ну, если честно, уже почти! Пару лет назад это звучало как шутка, но теперь кажется реальностью. Мир UX исследований стремительно меняется, и кто знает, что нас ждёт за углом.

Userology. Вот вам пример — сервис Userology, который обещает самостоятельно провести исследование и грамотно собрать данные. Честно говоря, я сначала не особо поверил, но знаете, когда-то я и в то, что все исследования уйдут в онлайн, не верил. Теперь вот сидим в Zoom и Google Meet, как будто так и надо. Так что, может, и здесь не стоит делать поспешных выводов. Дадим технологии пару лет — и, глядишь, они научатся работать лучше исследователей.

Syntheticusers. А вот ещё одна идея для тех, кто хочет совсем выйти за рамки привычного: Syntheticusers. Зачем нам настоящие люди, если можно построить их модели? Да-да, этот сервис предлагает провести интервью… без пользователей. Всё на основе синтетических данных! Он не только генерирует ответы, но и сам строит отчёт по итогам «исследования». Звучит, как сюжет для фантастического фильма, но кто знает, вдруг лет через 5 это станет новым стандартом. Пока что я бы не доверил свой продукт такому исследованию, но с другой стороны — не всё сразу. Может, через какое-то время это станет мощным инструментом в аналитике.

Как использовать материал?

Всё очень зависит от того, где вы работаете: в компании или консалтинге, внутри команды или с внешним заказчиком. У каждой команды свои процессы — у кого-то исследователь работает бок о бок с продактом, а где-то есть целые кластеры и подразделения. Ваша задача — понять, что лучше всего сработает в вашем случае. А я расскажу о нескольких подходах, может, один из них придётся вам по душе.

Презентация для отчётности

Если вокруг вас много заинтересованных лиц, но они не слишком вовлечены в процесс (а то и вовсе не хотят быть вовлечёнными), то стоит начать с отчётной презентации. Здесь вы собираете всех заинтересованных и рассказываете, что вы молодцы и какие полезные вещи вы узнали. В такой презентации важно объяснить, что такое интервью как метод и зачем он вообще нужен. Расскажите о целях исследования и задачах, которые вы ставили. А потом переходите к тому, что удалось выяснить. Я лично всегда начинаю с персон — кто они, чем дышат и какое поведение удалось выявить. Потом я подробно разбираю Flow, которые мы обнаружили, и группирую всю информацию по блокам. Каждый блок может быть полезен конкретной функции, этапу работы или определённым участникам процесса.

Воркшоп по итогам интервью

Если хотите действительно увлечь коллег и заставить их погрузиться в процесс работы над артефактами, стоит провести воркшоп. Один из видов я уже описывал выше, но что ещё можно сделать? На воркшопе я тоже начинаю с находок и паттернов, а затем мы вместе прорабатываем каждую находку и обсуждаем, что можно сделать с продуктом, учитывая новые данные. Это может занять больше времени, чем презентация, но пользы приносит значительно больше. Принять ключевые решения можно прямо здесь и сейчас, что ускоряет процесс.

База знаний

Если автоматизированные решения для базы знаний пока не доступны, а под рукой есть только википодобная система, то не беда — можно и её использовать эффективно. По итогам презентации или воркшопа составьте небольшое саммари с описанием результатов исследования. Важную информацию можно структурировать в таблицах и использовать теги для быстрого поиска. Создайте раздел, где можно будет посмотреть все результаты по конкретному запросу. Даже простая база данных может стать мощным инструментом, если правильно её организовать.

А как хранить данные по-умному?

Если обычные конспекты не впечатляют вашу команду (как и меня, если честно), можно использовать фреймворки, которые позволят хранить информацию в более интересном виде.

Jobs-to-be-Done

Этот метод помогает проанализировать интервью с точки зрения целей и задач, которые пользователи хотят решить с помощью вашего продукта. Исследователь структурирует данные, ориентируясь на задачи, для которых пользователи “нанимают” продукт. Это помогает глубже понять мотивы и поведение пользователей, а также разработать более эффективные решения.

User Personas

На основе интервью можно создавать детализированные персоны — описания различных типов пользователей. Выделяются ключевые характеристики (мотивы, боли, поведение) и формируются несколько обобщённых профилей. Персоны помогают команде лучше понять свою аудиторию и принимать более осознанные решения. На основе этих персон можно разрабатывать сценарии поведения пользователей и понимать, как они будут справляться с разными задачами.

Customer Journey Maps

Этот метод позволяет отслеживать опыт пользователя на разных этапах взаимодействия с продуктом. После анализа интервью исследователь может визуализировать весь путь пользователя, отмечая ключевые точки, где возникают проблемы или, наоборот, удачные моменты взаимодействия. Это помогает улучшить конкретные этапы пользовательского пути.

Вместо выводов

Вот и закончился цикл статей о том, как проводить интервью. Если вам интересно, как по результатам исследований создавать такие артефакты или улучшать UX в компании, не забудьте поставить лайк и подписаться :-) А чтобы не пропустить новый материал, заходите в мой Telegram-канал Drive UX — там будет ещё много полезного контента.

Полный гайд: Как провести пользовательское интервью, часть 3
33
Начать дискуссию