Гипотеза о корреляции между положением мыши и направлением взгляда рождает в воображении картинку чтения книг маленькими детьми, малограмотными людьми и людьми с теми или иными расстройствами зрительного восприятия, которые ведут пальцем у точки чтения. К поведению обычного человека, привыкшего глядеть на экран, эта корреляция имеет весьма условное отношение (если только вам не интересно именно поведение на сайте детей и малограмотной публики).
"К поведению обычного человека, привыкшего глядеть на экран, эта корреляция имеет весьма условное отношение" и какие же условия могут быть, если человек взрослый и насколько малограмотен может быть взрослый? А если у человека зрение не идеальное и если дизайн сайта такой, что без "вождения пальцем" посетитель просто потеряется?
Я могу дописать после этого этого пункта "условно" — но я имел ввиду, что аналитика знает что именно находится на экране, то несть алгоритмы которые есть сейчас могут отличить кнопку от текста, и сделать определенные выводы
Протестировал и, к сожалению, предположение подтвердилось. Открыл товар в интернет-магазине, но для анализа взял скриншот всего браузера вместе с... яндекс.советником.
Ну вы уже поняли. Всё внимание на себя забрал советник, который в яндекс.браузере не отключается даже соответствующими скриптами на стороне сайта.
Процентов 60-70 думаю совпадает, неплохо для предсказателя) Проверил штук десять изображений, не все удачные получились результаты. Некоторые очень простые и предсказуемые - слева сверху вниз, от большого элемента ко второму по величине, и т.д. Но некоторые не угадал вообще (в основном контрастные, но небольшие элементы все проигнорированы).
Как по мне, есть значительная разница между тем на что пользователь фактически обращает внимание (глазами) и тем куда двигается курсор...порой это не синхронные вещи! Есть стартапы которые показывают более эффективную аналитику и собирают её с ЦА (вы высылаете портрет ЦА, они делают таргетирование объявление о проводящемся опросе в соц. медиа, к примеру и потом тестируют их с помощью инструментов отслеживающих движение зрачка на карте интерфейса). В Украине был такой, точно не помню название. Но в интернете есть куча бюджетны ай-трекеров, а так же - более продвинутых.
Вы правы, я там специально дописал в статье, что алгоритмы сейчас в целом знают что юзер видит на экране и куда кликает, а еще можно сделать датасет на основе трекинга глаз, что было бы следующим шагом для такой нейронки
Интуитивно понятный интерфейс это когда вы находите кнопку "отправить" внизу справа, а кнопку "главная страница" вверху слева, а не наоборот и т.д. т.е. когда пользователь на незнакомом сайте хочет произвести какое-то действие и быстро понимает как это сделать, на основе своих привычек которые у него сформировались при пользовании других сайтов. Есть для этого юзабилити тесты, проще говоря даёшь 10-20 знакомым, попользоваться сайтом и спрашиваешь их мнение что не так, где трудности и т. д.. и понимаешь что всё очень красиво, но неудобно или наоборот. Вообще алгоритм такой мозги, работа, тест, мозги, работа, тест > класный сайт.
Олег, почему вы отвечаете не в ветку комментариев? Предположу, что вы нажимаете ответить не под конкретными комментариями как все? Как видите — интуитивно-понятный интерфейс для меня, не такой же как и для вас, в таких случаях нам нужны алгоритмы автоматизации процесса — 10-20 знакомых будут не нужны через какое-то время, так как алгоритм сразу в скетче подскажет, что эту кнопку лучше бы заменить на другую.
Я уж не говорю о том, что классный сайт — супер субъективная вещь.
Загрузил штук 20 различных изображений и скриншотов интерфейсов в сервис. Получить какой-то необычный инсайт у меня не вышло. Все стандартно по алгоритму - наиболее выраженные детали, и внимание от левого верхнего угла к правому нижнему. Если у кого-то вышло получить что-то необычное, поделитесь, пожалуйста.
Допустим, у большинства сайтов внимание привлекает выделенный блок "Акции". Но тогда надо проверять, если мы сделаем блок малозаметным, то пропадет ли к нему внимание, или всё-таки пользователи изначально хотят найти этот блок самостоятельно.
У меня в вебвизоре был пример, где на совершенно неадаптированном сайте клиент 15 минут заказывал накидку с подогревом с iPhone 5S. У него что-то там слетало, перегружалось, не мог попасть в поля формы пальцем, но он её заказал, так как цена была реально лучше, чем у конкурентов. Что мне даст нейросеть в этом случае? Скажет снижать цены?)
Хороший вопрос, если бы я нашел денег и команду для ML исследования этого вопроса, я бы на него ответил :) Могу предположить — что все эти баги можно алгоритмами обойти, то есть получился бы именно идеальный продукт работающий для всех, но это не значит, что это так и должно было бы быть в идеале.
Юзабилити, интуитивно понятный интерфейс= качество, а эти исследования только с толку сбивать будут, если на то пошло я бы заинтересовался исследованиями когда 10 000 пользователям (100 не катит, это для британских учёных) показали 100 вариантов расположения кнопки купить (заказать, бронировать и т.д.) и посмотреть на результат, что они выбрали, это ещё может заинтересовать и всё равно вернётся к Юзабилити, интуитивно понятный интерфейс. Как-то так.
Дело в том, что вы и я не знаем, что такое интуитивно понятный интерфейс в его истинном смысле — исходный кол проекта открыт, можно его натренировать на 10 000, вопрос желания
Кажется, что-то пошло не так.
Внимание надо отслеживать по направлению взгляда.
Положение и динамика мыши - вообще не о том.
Ну, скажем так, данные о направлении взгляда можно вшить в датасет — но можно учитывать и то и то, это так, нет проблем с этим
Гипотеза о корреляции между положением мыши и направлением взгляда рождает в воображении картинку чтения книг маленькими детьми, малограмотными людьми и людьми с теми или иными расстройствами зрительного восприятия, которые ведут пальцем у точки чтения. К поведению обычного человека, привыкшего глядеть на экран, эта корреляция имеет весьма условное отношение (если только вам не интересно именно поведение на сайте детей и малограмотной публики).
"К поведению обычного человека, привыкшего глядеть на экран, эта корреляция имеет весьма условное отношение" и какие же условия могут быть, если человек взрослый и насколько малограмотен может быть взрослый? А если у человека зрение не идеальное и если дизайн сайта такой, что без "вождения пальцем" посетитель просто потеряется?
Я могу дописать после этого этого пункта "условно" — но я имел ввиду, что аналитика знает что именно находится на экране, то несть алгоритмы которые есть сейчас могут отличить кнопку от текста, и сделать определенные выводы
Протестировал и, к сожалению, предположение подтвердилось.
Открыл товар в интернет-магазине, но для анализа взял скриншот всего браузера вместе с... яндекс.советником.
Ну вы уже поняли. Всё внимание на себя забрал советник, который в яндекс.браузере не отключается даже соответствующими скриптами на стороне сайта.
Комментарий удалён модератором
Ставьте блокирующие его скрипты на сайт
Через GTM обновлять их не проблема
Я как-то за выходные уже сделал телеграм-бота с похожей идеей.
http://t.me/deepuxbot
Процентов 60-70 думаю совпадает, неплохо для предсказателя) Проверил штук десять изображений, не все удачные получились результаты. Некоторые очень простые и предсказуемые - слева сверху вниз, от большого элемента ко второму по величине, и т.д. Но некоторые не угадал вообще (в основном контрастные, но небольшие элементы все проигнорированы).
Как по мне, есть значительная разница между тем на что пользователь фактически обращает внимание (глазами) и тем куда двигается курсор...порой это не синхронные вещи! Есть стартапы которые показывают более эффективную аналитику и собирают её с ЦА (вы высылаете портрет ЦА, они делают таргетирование объявление о проводящемся опросе в соц. медиа, к примеру и потом тестируют их с помощью инструментов отслеживающих движение зрачка на карте интерфейса). В Украине был такой, точно не помню название. Но в интернете есть куча бюджетны ай-трекеров, а так же - более продвинутых.
Вы правы, я там специально дописал в статье, что алгоритмы сейчас в целом знают что юзер видит на экране и куда кликает, а еще можно сделать датасет на основе трекинга глаз, что было бы следующим шагом для такой нейронки
Интуитивно понятный интерфейс это когда вы находите кнопку "отправить" внизу справа, а кнопку "главная страница" вверху слева, а не наоборот и т.д. т.е. когда пользователь на незнакомом сайте хочет произвести какое-то действие и быстро понимает как это сделать, на основе своих привычек которые у него сформировались при пользовании других сайтов. Есть для этого юзабилити тесты, проще говоря даёшь 10-20 знакомым, попользоваться сайтом и спрашиваешь их мнение что не так, где трудности и т. д.. и понимаешь что всё очень красиво, но неудобно или наоборот. Вообще алгоритм такой мозги, работа, тест, мозги, работа, тест > класный сайт.
Олег, почему вы отвечаете не в ветку комментариев? Предположу, что вы нажимаете ответить не под конкретными комментариями как все? Как видите — интуитивно-понятный интерфейс для меня, не такой же как и для вас, в таких случаях нам нужны алгоритмы автоматизации процесса — 10-20 знакомых будут не нужны через какое-то время, так как алгоритм сразу в скетче подскажет, что эту кнопку лучше бы заменить на другую.
Я уж не говорю о том, что классный сайт — супер субъективная вещь.
Загрузил штук 20 различных изображений и скриншотов интерфейсов в сервис.
Получить какой-то необычный инсайт у меня не вышло.
Все стандартно по алгоритму - наиболее выраженные детали, и внимание от левого верхнего угла к правому нижнему.
Если у кого-то вышло получить что-то необычное, поделитесь, пожалуйста.
Допустим, у большинства сайтов внимание привлекает выделенный блок "Акции". Но тогда надо проверять, если мы сделаем блок малозаметным, то пропадет ли к нему внимание, или всё-таки пользователи изначально хотят найти этот блок самостоятельно.
У меня в вебвизоре был пример, где на совершенно неадаптированном сайте клиент 15 минут заказывал накидку с подогревом с iPhone 5S. У него что-то там слетало, перегружалось, не мог попасть в поля формы пальцем, но он её заказал, так как цена была реально лучше, чем у конкурентов. Что мне даст нейросеть в этом случае? Скажет снижать цены?)
Хороший вопрос, если бы я нашел денег и команду для ML исследования этого вопроса, я бы на него ответил :) Могу предположить — что все эти баги можно алгоритмами обойти, то есть получился бы именно идеальный продукт работающий для всех, но это не значит, что это так и должно было бы быть в идеале.
Короче что-бы понять что человек обращает внимание на текст, меню, картинки и кнопки, а не смотрит в пустоту, нужны научные исследования.
Олег, мне кажется вы не понимаете как научные исследования работают и зачем их делают публичными.
Юзабилити, интуитивно понятный интерфейс= качество, а эти исследования только с толку сбивать будут, если на то пошло я бы заинтересовался исследованиями когда 10 000 пользователям (100 не катит, это для британских учёных) показали 100 вариантов расположения кнопки купить (заказать, бронировать и т.д.) и посмотреть на результат, что они выбрали, это ещё может заинтересовать и всё равно вернётся к Юзабилити, интуитивно понятный интерфейс. Как-то так.
Дело в том, что вы и я не знаем, что такое интуитивно понятный интерфейс в его истинном смысле — исходный кол проекта открыт, можно его натренировать на 10 000, вопрос желания