{"id":14289,"url":"\/distributions\/14289\/click?bit=1&hash=892464fe46102746d8d05914a41d0a54b0756f476a912469a2c12e8168d8a933","title":"\u041e\u0434\u0438\u043d \u0438\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442 \u0443\u0432\u0435\u043b\u0438\u0447\u0438\u043b \u043f\u0440\u043e\u0434\u0430\u0436\u0438 \u043d\u0430 5%, \u0430 \u0441\u0440\u0435\u0434\u043d\u0438\u0439 \u0447\u0435\u043a \u2014 \u043d\u0430 20%","buttonText":"","imageUuid":""}

Почему А/Б тесты не всегда работают

В последние годы А/Б-тестирование стало широко использоваться для проверки новых идей, аудитории и контента. Однако, А/Б может максимум показать какой контент лучше, основываясь на ряде показателей, но что если вы пытаетесь выбрать не ЛУЧШЕЕ из ЛУЧШИХ, а вместо этого тратите деньги на тесты, чтобы выбрать наилучшее из худших. И именно в этом заключается главный недостаток A/B-тестирования - оно не способно указать, есть ли у вашего контента какие-то фундаментальные проблемы. Представьте, что вы пытаетесь протестировать рекламу, в которой аудитория не поняла, против другой рекламы с теми же проблемами - A/B не укажет на это.

Поэтому в наших исследованиях мы сочетаем несколько инструментов, чтобы выяснить:

-Какой контент показал лучшие результаты.

-Почему он оказался лучше другого.

-Есть ли у него фундаментальные проблемы, которые необходимо исправить.

Подробнее о нашем проекте читайте на сайте

0
Комментарии
-3 комментариев
Раскрывать всегда