Лого vc.ru

Почему A/B-тесты уменьшают конверсию — опыт российской компании Driveback

Почему A/B-тесты уменьшают конверсию — опыт российской компании Driveback

Сотрудники компании Driveback, которая занимается повышением конверсии интернет-магазинов, рассказали о том, почему результаты A/B-тестирования не всегда показательны и что следует делать, чтобы избежать бесполезной траты времени и денег.

Поделиться

В Driveback мы постоянно сталкиваемся с необходимостью проведения A/B-тестов для проверки тех или иных гипотез. На проведении многих A/B-тестов настаивают наши клиенты. Нередко мы тратим по несколько часов, чтобы объяснить, почему тот или иной тест делать абсолютно бессмысленно.

В своей практике мы крайне редко встречали маркетологов, которые бы до конца осознавали, как правильно делать A/B-тесты. Хуже того, большинство из них делают тесты абсолютно неправильно.

В этой статье мы постараемся показать, как неправильно проведенные A/B-тесты c виду могут показать превосходные результаты, которые, однако, будут всего лишь иллюзией успеха. В лучшем случаев, это приведет к бесполезным изменениям на сайте, и потере времени и денег. В худшем — к изменениям, которые в действительности могут повредить конверсии и прибыли.

Базовые понятия

Начать стоит прежде всего с базовых понятий, которые известны каждому математику, но забыты многими новоиспеченными специалистами по модному нынче A/B-тестированию.

Это такие понятия, как « статистическая мощность», «статистическая значимость», «множественные сравнения» и «регрессия». Понимая эти принципы вы сможете защититься от дезинформации и заблуждений, которые наводнили индустрию A/B-тестирования, и отличать иллюзорные результаты от реальных.

Статистическая мощность

Статистическая мощность — это всего-навсего вероятность (в процентах) того, что тест определит разницу между двумя вариантами, если эта разница действительно существует.

Предположим, вы хотите определить, есть ли разница между ростом женщин и мужчин. Если вы измерите всего лишь одну женщину и всего лишь одного мужчину, может оказаться так, что вы не заметите того факта, что мужчины выше женщин. Быть может вам попалась волейболистка и мужчина роста ниже среднего.

Однако, измерив достаточное количество разных мужчин и женщин, вы придете к выводу, что на самом деле мужчины выше. Все это потому, что статистическая мощность увеличивается при увеличении размера выборки.

Абсолютно таким же образом это работает и в применении к конверсии интернет-магазинов и других веб-сайтов. Допустим, мы хотим проверить, увеличится ли конверсия, если интернет-магазин будет давать скидку 10% на определенный вид товаров. Будет ли виден прирост в конверсии, зависит от статистической мощности теста. Чем выше мощность — тем выше вероятность, что вы увидите реальный результат.

В своей практике мы неоднократно сталкивались с ситуацией, когда в первую неделю A/B-теста со значительным перевесом «выигрывал» вариант №1.

Результат после двух дней тестирования и 33 тысячи посетителей в каждую ветку

Однако после достижения достаточной статистической мощности результат выравнивался, и далее уже с абсолютным постоянством выигрывал вариант №2.

Результат после двух недель тестирования и 400 тысяч посетителей в каждую ветку

Какой же размер выборки можно считать достаточным

Достаточный размер статистической выборки напрямую зависит от следующих величин:

  • Статистической мощности, которой мы хотим достигнуть.
  • Статистической значимости (речь о ней пойдет ниже).
  • Величины эффекта (для интернет-магазинов это может быть разница в конверсиях).

Мы рекомендуем не доверять тестам, статистическая мощность которых ниже 80-90%. Полагаясь на результаты таких тестов вы можете существенно навредить своей конверсии.

Для подсчета оптимального размера выборки можно использовать калькулятор на нашем сайте.

Важно. Размер выборки в каждую ветку A/B-теста необходимо определить еще до начала теста и не менять до его окончания! Ниже мы опишем, почему это крайне важно.

Статистическая значимость

Допустим, что A/B-тест был проведен в соответствии с требованиями, описанными выше. Достигнута необходимая статистическая мощность и, наконец, можно посмотреть на результаты теста. Теперь необходимо определить, является ли тот результат, который показывает тест, статистически значимым. Простыми словами это означает: каков шанс того, что разница видна там, где ее на самом деле нет.

Или еще проще — какова вероятность того, что мы бы увидели подобный результат, если бы вместо A/B-теста проводили A/A-тест (тестирование варианта сайта против себя же самого).

Если такая вероятность мала — результаты теста можно считать статистически значимыми. Если она велика — результат может быть чистой случайностью (погрешностью) и ему не стоит доверять.

Мы придерживаемся строгого мнения, что уровень статистической значимости должен быть минимум 95%. Таким образом, шанс увидеть результат там, где его на самом деле нет — всего 5% (p-value = 5%).

Именно проверка статистической значимости результата помогает определить настоящего «победителя».

Для определения статистической значимости можно использовать множество калькуляторов. Один из них вы можете найти у нас на сайте.

Самая критическая и распространенная ошибка в A/B-тестировании — останавливать тест, как только становится заметно, что один из вариантов побеждает с существенным отрывом.

Даже если результат при этом является статистически значимым — это верный путь получить false-positive (ложноположительный) результат. Как мы уже писали ранее, несмотря на то, что результат проходит тест на статистическую значимость, это не значит, что он верный. Вполне возможно он ошибочен, так как не достигнут необходимый размер выборки.

Мы понимаем, что крайне сложно удержаться вдали от Google Analytics и подождать месяц, пока тест не будет завершен, не заглядывая в результаты раньше времени. Однако именно это спасет вас от серьезных ошибок.

Это легко проверить проводя A/A-тест (тестирование одной и той же версии сайта против себя же). Допустим, мы запустили на сайте A/A-тест и проверяем его результаты каждый день, вплоть до завершения, каждый раз останавливая тест в случае достижения статистической значимости (p-value = 5%).

Вы увидите, что почти каждый день вы будете получать статистически значимый результат того или иного варианта. И это будет продолжаться до тех пор, пока выборка не станет достаточно большой. Если действовать описанным выше способом в A/B-тесте — 80% ваших результатов будут абсолютной чушью. Только вдумайтесь — 80%.

Рассмотрим важность статистической значимости на одном из реальных примеров. На изображении ниже показан пример результатов A/B-теста одного из наших клиентов. Конверсия вариант DRIVEBACK_OFF оставляет 1,47%, конверсия варианта DRIVEBACK_ON — 1.21%. Какой, по вашему мнению, вариант выигрывает?

Пример результата А/Б-теста, который не является статистически значимым.

Предполагаем, что вы убеждены, что вариант DRIVEBACK_OFF лучше. Вы будете удивлены, что на самом деле это результаты не A/B-теста, а A/A-теста. Если вы внесете эти значения в любой калькулятор, он сообщит вам, что результат не является статистически значимым. Таким образом, на самом деле, этот результат является всего-навсего большим куском бессмысленной информации.

Множественное сравнение

Еще одна очень опасная ошибка, которую допускает большинство маркетологов — проведение сразу нескольких A/B-тестов одновременно. Выделим несколько разновидностей такого тестирования:

  • Проведение одновременно нескольких A/B-тестов, которые влияют на одну и ту же метрику и затрагивают одни и те же сегменты пользователей.
  • Мультивариативное тестирование («какой из пяти дизайнов покажет лучшую конверсию?»)
  • Сегментирование постфактум. Когда вы сначала провели тест, а потом смотрите его результаты на разных сегментах, пока не найдете хотя бы один, который даст положительный результат.

Ответ, почему такое проведение тестов является плохой идеей лежит в простой арифметике и в понимании такого термина как коррекция на множественное тестирование.

Каждый тест имеет шанс 5% (если мы выбрали p-value = 0.05) показать победителя там, где его в действительности нет. Это довольно маленькая вероятность, которая является удовлетворительной в большинстве случаев. Однако при проведении n таких тестов, вероятность того, что хотя бы один из них будет неверным, равна 1 — (1 — 0.05)n, что велико уже даже при небольших n (например, при n = 5 она равна примерно 23%).

Таким образом, проводя много тестов вы несомненно найдете победителя, однако ваша «победа» будет всего лишь иллюзией.

Регрессия

С большим сомнением относитесь к тестам, которые были крайне успешными, но при повторном проведении не подтвердили свои результаты. Вы можете подумать, что просто со временем результат пропал. Но настоящая правда заключается в том, что, скорее всего, этого результата вовсе и не было, и в первый раз вы просто получили false-positive результат.

Это хорошо известный феномен, который в статистике называется регрессией. Этот термин общеизвестен среди статистиков, но многие специалисты по A/B-тестированию едва ли о нем слышали.

Возьмем простой пример. Допустим, есть класс студентов, которые выполняют тест из 100 пунктов, где возможны только два варианта ответа — «да» и «нет». Предположим, что все студенты выбирают ответы абсолютно случайным образом. В итоге, каждый студент получит за тест случайный бал — от 0 до 100 со средним баллом по классу примерно 50.

Теперь возьмем 10% из тех студентов, которые набрали максимальный бал и назовем их «отличниками». После чего дадим им тот же самый тест, в котором они опять же ответят на вопросы случайным образом. В итоге, результат при второй попытке у них будет ниже, чем в первый раз.

Все это связано с тем, что абсолютно не важно, какую оценку они получили в первый раз. Они все равно наберут в среднем 50 баллов. Отсюда появится ложное впечатление, что «отличники» резко стали менее умными. Однако правда заключается в том, что они никогда не были умнее, чем остальные.

В A/B-тестировании происходит абсолютно также. Если ваш первый тест был false-positive, то все последующие тесты, конечно же, покажут уменьшение «разницы», которой на самом деле не было. И причиной этому будет регрессия к среднему значению.

Поэтому, если ваш повторный тест через какое-то время не показал прироста к конверсии — задайте себе вопрос: а был ли мой первоначальный тест проведен правильно? Если вы хотите быть уверены в результатах своего тестирования — всегда проводите контрольное тестирование через некоторое время, чтобы убедиться в том, что результаты первого теста были верными.

10 советов правильного A/B-тестирования

На этом мы закончим изучение скучной «математической части» и перейдем к выводам, которые следуют из всего описанного выше. Мы составили список из 10 основных советов, которые помогут вам правильно проводить тесты и быть уверенными в их результатах.

1. Определите минимальный размер выборки до начала теста

Всегда определяйте количество посетителей сайта, которые необходимы для каждой ветки теста, заранее. Не стоит просто запускать тест в надежде, что быть может через неделю результат будет статистически значимым и вы сможете принять решение в пользу той или иной альтернативы. Даже если он и будет статистически значимым — это ни о чем не говорит, если выборка не достигла определенного заранее размера.

Можно встретить много статей, где пишут «вам нужно минимум 1000 конверсий каждой ветки для проведения теста» или «примерно 3000 наблюдений на каждую вариацию в большинстве случаев достаточно».

Не существует никаких магических цифр.

Все зависит исключительно от цели вашего теста, базовой конверсии вашего сайта и величины видимого эффекта.

Для определения размера выборки в каждую ветку теста вы можете воспользоваться нашим калькулятором.

2. Игнорируйте результаты A/B-теста, пока он не завершен

Заведите привычку даже не заглядывать в результаты теста до его окончания.

Даже если в первой ветке вы видите 100 конверсий из 1000 посетителей, а во второй всего лишь 50 из 1000 — игнорируйте этот результат. Он совершенно ни о чем не говорит и еще много раз может измениться в любую сторону до окончания теста.

3. Проверяйте статистическую значимость результата лишь после проведения теста

Статистическую значимость результата необходимо проверять только после окончания теста. Для этого существует множество инструментов, таких как калькулятор у нас на сайте.

Если результат не является статистически значимым, не стоит пытаться подобрать сегмент, где он является значимым, или пробовать менять другие параметры. У вас остается только два выбора:

  • смириться с тем, что величину видимого эффекта, которую вы определили до начала теста, увидеть невозможно.
  • продлить тест еще на несколько недель.

4. Тестируйте все дни недели и все бизнес-циклы

Ваш тест должен проходить в течение одного, а лучше двух полных бизнес циклов и должен включать:

  • все дни недели.
  • все источники трафика (если только вы не проводите тест для определенного источника трафика).
  • весь цикл публикаций и рассылок, которые вы проводите регулярно.
  • достаточное количество времени для посетителей сайта, которые не принимают решение сразу (а думают над покупкой в течение 10-20 дней).
  • любые другие внешние факторы, которые могут влиять на конверсию (к примеру, день зарплаты, день аванса, праздники и так далее).

5. Используйте сегментирование

Заранее определите сегмент пользователей, для которых проводится тест.

Допустим, вы хотите протестировать, влияет ли специальное предложение на карточке определенного товара на вероятность его покупки.

  • Альтернатива A: вы отображаете скидку 10% на карточке товара «Х».
  • Альтернатива B: вы не отображаете никаких скидок на карточке товара «Х».

Не стоит проводить тест между всей аудиторией сайта. Его стоит проводить среди тех пользователей, кто теоретически мог увидеть скидку (был на карточке товара «Х»). Все остальные пользователи для нас просто не представляют интереса и лишь будут уменьшать величину видимого эффекта.

6. Забудьте про A/B-тесты, если у вас нет трафика

Если вы делаете одну-две продажи в неделю и проводите тест, где «B» в действительности конвертируется на 15% лучше, чем «А» — как вы об этом вообще узнаете? Мало того, если каким-то случайным образом в сегмент «А» попадет залетный «шопоголик» — он испортит вам статистику на много месяцев вперед.

Как бы вы не любили A/B-тестирование, это явно не то, что вы должны использовать для оптимизации конверсии при маленьком трафике. Даже если вариант «B» значительно лучше, у вас могут уйти месяцы (а иногда и годы!) чтобы достигнуть статистической значимости результата.

Таким образом, если вы будете проводить тест пять месяцев — вы просто-напросто выбросите на воздух кучу денег. Вместо этого, нужно идти на более значительные и радикальные изменения и просто реализовать вариант «B» без какого-либо тестирования. Никаких A/B-тестов, просто переключайтесь на «B» и наблюдайте за своим счетом в банке.

Дело в том, что если вы собираетесь вносить какие-то изменения на сайт без трафика — вы ожидаете большого подъема в прибыли или генерации лидов: 50% или 100%. Вы легко заметите этот подъем на вашем счете в банке даже без каких-либо тестов уже в первую неделю (либо это может быть резкое увеличение количества собранных email или полученных звонков).

Время — деньги. Не тратьте зря время на ожидание результатов, которые займут многие месяцы.

7. Проводите тесты только на основе гипотез

Гипотеза — недоказанное утверждение, предположение или догадка. Как правило, гипотеза высказывается на основе ряда подтверждающих её наблюдений (примеров), и поэтому выглядит правдоподобно. Гипотезу впоследствии или доказывают, превращая её в установленный факт, или же опровергают, переводя в разряд ложных утверждений.

«Я думаю, что на синюю кнопку будут нажимать чаще, чем на зеленую» — адекватной гипотезой не является.

Начинать тестирование, не привязанное к какой-либо гипотезе — это тоже самое, что садиться за руль и просто ехать не понимая того, куда вы едете и почему. Возможно, в итоге вы куда-то и приедете, вот только какой опыт вы от этого получите и к каким выводам придете?

Вы можете потратить кучу времени и ресурсов, меняя цвета кнопок, шрифты, размер текста. Однако такое тестирование будет бессмысленно, если в основании не лежит рациональная гипотеза, подкреплённая весомыми аргументами.

Поэтому мы настоятельно не советуем проводить бессмысленные A/B-тесты, не подкрепленные никакими данными — они никак не повлияют на вашу прибыль.

А даже если каким-то случайным образом вы и получите положительный результат — какой урок вы из него вынесете? Никакого. Ведь куда важнее то, что вы узнаете о своей аудитории. Это поможет вам изучать поведение посетителей вашего сайта и в будущем планировать более успешные тесты.

8. Не проводите несколько тестов одновременно

Проведение одновременно нескольких тестов — верный путь получить false-positive, о чем мы подробно описали в разделе про множественное сравнение.

Допустим, вы тестируете, как на покупку вещи «Х» отразится баннер на главной странице. При этом вы также тестируете, как на все покупки отразится скидка 10% за подписку на рассылку. В итоге, вы случайным образом разделите всех ваших посетителей на следующие сегменты:

Проведение одновременно двух A/B-тестов

Создав три одновременных A/B теста — вы получите уже восемь сегментов. Даже если вы все-таки сумеете правильно сгруппировать сегменты для определения результатов каждого теста в отдельности — следует учесть поправку на множественное тестирование. Если в каждом отдельном тесте уровень статистической значимости был 95%, то при проведении двух одновременных тестов (четыре сегмента) одновременно — уровень статистической значимости станет всего 81.4% для каждого теста. Это значит, что в 18.6% случаев вы будете видеть результат там, где его в действительности нет. Как мы уже говорили ранее, минимальный уровень значимости для правильного проведения A/B-тестов должен быть минимум 95%.

Поэтому, никогда не проводите более одного A/B-теста, если вы понимаете, что дополнительные тесты затронут тот же сегмент пользователей. В самом же A/B-тесте никогда не используйте более двух вариаций, забудьте про мультивариативное тестирование.

9. Не ожидайте большого увеличения конверсии

Мы часто встречаем клиентов, которые видят увеличение конверсии на 2% и говорят что-то вроде: «Всего 2%? Это слишком мало! Даже не хочется заморачиваться с реализацией этого изменения».

Но вот в чем правда. Если ваш сайт хорош, вам вряд ли стоит ожидать больших скачков в в конверсии. Если кто-то показал вам результаты A/B-теста, согласно которому вашу конверсию увеличили на 20-30% это может означать только две вещи:

  • Ваш сайт — реальное г**но.
  • Вас обманули (или неправильно провели тест).

Большинство выигрышных тестов дают небольшое увеличение конверсии — 1%, 2%, 5%. Для некоторых крупных интернет-магазинов, увеличение конверсии даже на 1% может стать результатом увеличения выручки на миллионы рублей. Тут уже все зависит от абсолютных цифр. Но посмотрите на все это в перспективе 12 месяцев.

Один тест — это один тест. Но вы собираетесь делать множество тестов. Даже увеличивая конверсию на 1% каждый месяц — это уже 12% в течение года! 12% к выручке — это уже значительный результат.

Поэтому, стремитесь к маленьким победам. Ведь в конце концов каждая из них внесет вклад в общее увеличение прибыли.

10. Всегда проводите повторный тест спустя некоторое время

Тут правило простое. Ваш тест показал впечатляющие результаты, но вы не до конца уверены в природе столь хороших результатов? Мало того, после реализации изменений на сайте вы не видите существенного изменения в прибыли?

Обязательно проведите повторный тест спустя несколько месяцев. Может оказаться так, что в прошлый раз вы всего лишь получили false-positive.


Присылайте собственные кейсы, в результате которых вам удалось заметно улучшить (или, наоборот, ухудшить) показатели проекта. Интересные эксперименты обязательно попадут на страницы рубрики Growth Hacks.
Популярные статьи
Показать еще
Комментарии отсортированы
как обычно по времени по популярности

Ну а на что молиться тогда будем, на персонализацию что ли? Вопрос риторический.

По мне так неплохой ликбез, учитывая сколько сейчас идиотов "повышают продажи". Редко встретишь тут статью, где чётко и по делу, а не какой у меня классный стартап и сколько я пью смузи.

Спасибо, очень полезная статься.
И пдф у вас на сайте тоже полезный :)

Платформу Driveback вы используйте только с своими клиентами или её как-то можно использовать другим студиям?

0

- Создав три одновременных A/B теста — вы получите уже девять сегментов.
Вообще-то восемь.
В целом статья неплохая.

Точнее не 9, а 27. Количество сегментов будет равно 3 в степени 3.

0

Ну тут зависит от того, матрично(мультивариантное тестирование) или линейно(что изначально неправильно) создавать тесты и количества вариантов переменных :)

0

Семен Семеныч! 2(A/B) в степени количества тестов.

0

Все верно, 8 сегментов для 3 A/B тестов :) ignore previous comment :D

По аналогии с книгой Морейниса было бы здорово опубликовать цикл образовательных статей по теорверу и статистике для маркетологов. А статья отличная, да.

А чем статистика для маркетологов отличается от статистики не для маркетологов?

Вы правы, по большому счету ничем. Имел ввиду изложение основ статистики простым языком с маркетинговыми примерами.

С маркетинговыми примерами не видел, да и особо не нужно, а вот по мед есть хорошие зарубежные книги, которые написаны очень простым и доступным языком. По маркетингу есть "Маркетинговые исследования" Малхорта, в части анализа данных приводится много примеров статистического анализа

0

это всё так сложно... лучше бы написали просто прейскурант. когда понадобится, мы непременно обратимся :о)

0

По-моему это лучший из материалов про правила проведения A/B-тестирования, который я когда-либо читала

В целом статья отличная, но вот этот совет более чем странный "Игнорируйте результаты A/B-теста, пока он не завершен". Как вы собираетесь определить длительность тестирования заранее? Длительность тестирования есть функция результата, который заранее не известен. Если прирост 5% это одна длительность, если 100% - совсем другая. И если видно, что наблюдается рост, существенно превышающий ожидаемый, то при выполнении всех ограничений по p-value и т.п. очень странно дожидаться окончания тестирования.

В целом для оценки конверсии (биномиального распределения с параметром p близким к 0) p-value лучше не использовать из-за возникающих вычислительных артефактов (они и приводят к появлению значимой разницы в процессе а/а тестирования), лучше подходит байесовская статистика.

Александр, согласен, звучит это довольно странно, что до начала теста необходимо определить, какой результат хочется увидеть. Однако, это единственный способ не напороться на false-positive.

Приведу пример.

Предположим, что мы запускаем А/А-тест и начинаем проверять каждый день результат на статистическую значимость (останавливаем его тогда, когда p-value <= 10%).
По этой ссылке можно симулировать подобный тест: destack.home.xs4all.nl/projects/significance/.

Из результата видно, что более 50% тестов, хотя бы один раз показывали успешный результат. И лишь 10% завершились успешным результатом (т.к. p-value = 10%). Т.е. останавливая тест раньше времени (либо как только вы увидели статистически значимый результат) вы значительно увеличиваете шанс получения false-positive.

0

Обалдеть! Классная статья.

Давеча был свидетелем как клиенту, которому делали мультивариантный тест, скрипт пообещал +8% конверсии и какой-то там неплохой CTR если использовать только выигрышную комбинацию из 4х элементов.

Закончили тест после 5,000-8,000 тысячи кликов, включили только "самую лучшую комбинацию", конверсия повысилась но на 1%-2% а CTR был далек от обещанного.

Клиент расстроился. Тогда-то я задумался над тем, что должна быть какая-то дельта, какая-то статистическая погрешность, что-то неучтенное. Но копать глубоко не стал потому что не было времени и мотивации.

Статью сохранил

0

Отличная статья!
Немного оффтоп - не порекомендуете какую-нибудь книгу по статистике, ориентированную на маркетинговые исследования?

В целом статья неплохая (относительно всякого бреда про А\В тесты). Только не особо понятно, регрессия-то тут при чем?
Открываем википедию и читаем:
Регрессия - это ... зависимость среднего значения какой-либо величины от некоторой другой величины или от нескольких величин.
То, что вы описываете в статье, является результатом разброса случайной величины в пределах трех сигма (среднеквадратических отклонений).

0

Мой опыт А/Б тестирования для товарки. Прошу ваших профессиональных мнений и комментариев.
vk.com/orelbiz?w=wall-92432854_66%2Fall

0

Возможность комментирования статьи доступна только в первые две недели после публикации.

Сейчас обсуждают
Anton Barhan
GK OMEGA

я просто оставлю это здесь: cloud.mail.ru/public/9HQb/PdmVp8Ls8.

Нет, у РАЭК как раз есть прямые источники. Нет, не "высосаны из пальца"

РАЭК: Объём экономики рунета вырос на четверть в 2015 году — до 1,35 трлн рублей
0
Andrey Harchenko

Если абстрагироваться от космоса и Маска. То чем отличается стартап SpaceX от остальных в которые инвесторы так же охотно льют деньги?

«Элон Маск полетит на Марс, хочет он того или нет»: сотрудник Dauria Aerospace о планах по колонизации Марса
0
colorless

Ну вот зачем ты так... Теперь будет медленнее..

Запуск браузера со встроенным VPN принёс Opera 2 млн пользователей за неделю
0
Max Leontiev

Ну он ёбнутый на все 146%, это без вопросов - Малышеву смотрит. из США.

«Первый канал» ухудшил качество видео на своем сайте для пользователей с блокировщиками рекламы
0
Sayanim Mossad
Media5

Я понял, что как только так сразу...
Ну а как поменять критерии, которые я вводил при регистрации?

ФРИИ официально запустил сервис для поиска сооснователей стартапов Cofoundit
0
Показать еще