40% багов на верстке можно избежать: сплит-тестирование

Расскажем три истории экспериментов с тестированием макетов: как, зачем и чем это все заканчивалось.

1515 показов
2.1K2.1K открытий

Почему многие не тестируют сайты на "работоспособность" на слабых ноутбуках, у этих компаний в офисах стоят iMac, они думаю что это норма, но возьмите пожалуйста ноутбук низшей ценовой категории 200-250$ (Celeron) и протестируйте все современные магазины, половина из них вообще открываются с трудом.

Основные узкие места:
1. Перегруженные интерфейсы лишней информацией. (видео, плагины соц.сетей)
2. Современные ресурсоёмкие JS фреймворки, нагрузка на проц. больше чем у 3D-шутеров.
3. ... допишите сами...

Ответить

Вот именно, если половина не открывается, то зачем делать один оптимизированный сайт? Пользователи скорее всего считают подобные проблемы нормой. И раз не хотят решать, значит у них есть основания для этого. 

Ответить

Потому что сайт - это компромисс между "сделать хорошо" и решением тех задач, которые поставил клиент перед разработчиком. Например, у клиента может быть несколько направлений в интернет-магазине, у каждого направления свои продажники, у них свои начальники. Каждый из них хочет баннер на главной странице. Куда деваться разработчику, если наличие и порядок этих баннеров на главной странице сайта были хитро пролоббированы в тонких подковерных играх, еще до того, как с компанией-разработчиком заключили договор?

Ответить

Почему многие не тестируют ... на слабых ноутбукахПока всё ещё дешевле купить более производительную железку, чем тратиться на такого рода оптимизацию. Кроме того, на рынке существует масса разработчиков, которые не сильно затрудняются головой, которые полагаются на всевозможные IDE и современные framework. Эти инструменты, действительно, дают возможность собирать решения менее квалифицированными специалистами (дешевле и быстрее). Чудес не бывает, и эти инструменты добавляют большие накладные расходы: тратится слишком много памяти, процессора, канала и других ресурсов.

ТАК БЫЛО НЕ ВСЕГДА

Когда компьютеры были большими и очень дорогими, программисты реально думали о производительности. Они знали, что завтра не купят более быстрый процессор, а работать надо уже сейчас. Вот они и изворачивались, пытаясь уместить программу в 64 килобайта (условно), уменьшить потребление других ресурсов.

ТАК БУДЕТ НЕ ВСЕГДА

Человечество вплотную приблизилось к квантовым ограничениям в дизайне и производстве процессоров. Правило Мура вот-вот перестанет выполняться.

Мы окажемся в ситуации, когда требования к ПО будут возрастать, но железо не сможет давать больше. Кодом надо будет реально заниматься: думать на архитектурой, изучать алгоритмы, выбирать оптимальные пути решения в конкретных условиях.

А все те люди, которые пришли в индустрию за легкими деньгами, загрустят. Им надо будет глубоко погрузиться в computer science, потому что их старые подходы не будут срабатывать.

Ответить