Нет ли проблемы, что у людей порой визуальная память и куча уже открытых вкладок, по которым пользователь может ориентироваться как раз по фавиконам? У меня есть опасение, что вместо "о, крутой фавикон" люди будут думать "это что такое, я это не открывал".
Очень интересный материал, мощная теоретическая база, как для учебника
Крутой заголовок, обращает внимание. По факту же данные мелочи ничего не меняют в среднем для специалистов, как по мне
Это очень интересная статья. Ради такого я и захожу в раздел SEO.
"Юзабилити составляет – 40% трафика
...
Контент – 10% трафика".
Я бы бан давал за такие статьи на пару месяцев.
1. Потому что впервые вижу такое мнение и хотел бы возразить. Не хочется, чтобы у кого-то сформировалось мнение, что SEOшник должен ЕЩЕ больше, чем сейчас
2. Да это можно и сайт создать, поднять на Вордпрессе да плагины прикрутить, а там и на форумах решения поискать и вот вы уже и оптимизатор, и менеджер, и программист, и контентник. Да, ну и тексты раз ТЗ делаем и вносим, можно и самому написать :) настоящий мастер на все руки
3. Тут не спорю, это замечательно.
1. SEO-специалист обязан уметь работать с редиректами (сделать карту, отличать 301 от 302, давать ТЗ по ним). Вносить их сам он не должен категорически - как отмечали выше, можем накосячить, может переписать чужие правки, не сделает бэкап, сайт не починит и вообще это не его зона ответственности.
2. Аналогично по внесению контента - это делает контент-менеджер / программист. SEO-специалист делает ТЗ, а не вносит на сайт правки.
3. В остальном - статья отличная, очень интересная, но первые 2 пункта + Марина, которая и в коллектив влилась, и задачи хорошо делала для меня негативно сыграли в этой статье. Что с ней не так-то в итоге? По ощущению, она то ли привыкла и работала спокойно, то ли была слишком квалифицирована для простой работы, а ее не повышали, то ли никак не мотивировали, но я так и не понял, в чем причина, что ее уволили. Даже если она не собиралась расти как спец, можно было ее оставить, а на растущего взять кого-то перспективнее и голоднее.
Статья провокационная, сочная, интересная, но эти 3 пункта меня внутренне прямо задели.
Скрытый текст в итоге относится и к черному, и к серому?)
Спасибо за статью. Во многом как бальзам на душу: сам тоже в основном всегда занимался только белыми методами. Но то, что я пробовал с коллегами в тестовом режиме по накруткам и PBN-ам показывает, что если делать аккуратно и умно - никто ничего не обнаруживает и не делает. Сам был бы рад, если бы Яндекс перебанил любые возможности накрутки, но пока абсолютно не так: мало и редко ловят ботов по накрутке, не ставят баны с плашками в вебмастере. Нужно совсем наивно и некачественно крутить/ставить ссылки, чтобы Яндекс обратил внимание. В итоге продвигая "вбелую" мы порой проигрываем игрокам, использующим серые методы во все поля и занимающим топы выдачи. Не очень мотивирует.
"Ещё одна большая проблема - когда сеошнику приходится контактировать с клиентом напрямую, например, в общих чатах или мессенджерах (да-да, бывает и такая практика, даже при наличии менеджера проектов)".
Согласен, тоже ужасаюсь от такого. Недавно читал в интервью одного руководителя в SEO-компании, что у них всех сотрудников заставили напрямую общаться с клиентами и исключили из цепочки аккаунт-менеджеров. Для меня это звучит страшно, т.к. я в SEOшники пошел в том числе чтобы переговоров напрямую не вести. Про то, что отдельные созвоны в принципе и так бывают - молчу.
По остальным пунктам в общем и целом тоже согласен, разве что кроме "По возможности, узнайте LTV - прибыль от одного клиента" - я бы на месте компании такие цифры не раскрывал да и вопрос может напрячь в целом. К тому же, такое не все считают, обычно считают общие доходы-расхожды, наиболее и наименее маржинальных клиентов, но не среднее LTV (хотя в каждой компании индивидуально).
Ну и пункт "Соответственно, по части клиентов просто отправляются отчёты" это, конечно, жесть, если я правильно понял: плановые работы не делаются, просто готовится итоговый отчет, т.к. клиент ничего не спрашивает и лоялен? Это сурово даже для очень потоковой компании.
Офигеть, то есть, позиции в Яндексе скачут настолько часто? Спасибо за информацию.
И вопрос по строчке "Бандит Яндекса постоянно мешает выдачу, я пока не видел проектов где AVG прошел отметку 2.5" - имеете в виду, что никто в выдаче не находится всегда в топ-1 на самом деде и Яндекс постоянно смещает/возвращает сайт на 1 позицию или что-то другое?
В следующий раз так и скажу начальству: "эту задачу я делать и не могу, и не хочу". Наверняка результат меня поразит.
А вы к Looker Studio смогли Вебмастер подсоединить?
Делал такую же задачу, многое реализовал схожим образом, и, видимо, как и вы, тоже настрадался с Яндекс Вебмастером и в итоге не включил его в отчет коннектором
Не всех можно убедить, что по SEO нужно сделать хоть что-то. Пилят сайт (абы какой, в котором корзину не найдешь) и запускают рекламу. Контекстолог им говорит - это конвертировать такой ресурс не будет, доделайте сами, через техподдержку, через SEO - не хотят, начинаем крутить рекламу, говорят, - немедленно. Вносить ничего не хотим больше.
Про случаи, когда сайт не может быть просканирован из-за CMS или шаблона я, кстати, не слышал, видимо, не сталкивался. Только со случаями, когда движок сайта так сделан, что весь контент отдаётся через скрипты и поисковик любой контент видит плохо.
Минусов, по-моему, нет. Нужно разово потратить время чтобы всё настроить, а так даже не представляю. Ну, и если слишком рано массово показать сайт гуглу (недоделанный), то тоже может аукнуться. Но в остальном лично я радуюсь и надеюсь, что лавочку не прикроют.
Есть, кстати, исключения. Делает компания сайт, например, под контекст, а у неё в поиске гугла даже сниппета нормального нет (сайт не проиндексирован). По оптимизации правки даны, но заказчик их не вносит (правки на его стороне, допустим, какие-то проблемы с программистами). Но в гугл заказчику очень хочется.
Мне именно в такой ситуации вот это решение с IndexNow очень помогло.
Забавно. Недавно увидел такие же результаты (сайт не индексировался 4 месяца, после подключения Index Now - через 3 дня пошел десятками страниц). Но у меня не было возможности лабораторно подтвердить, что это не совпадение (мог ведь гугл и сам его найти? и ведь на шел через 3 дня, а не сразу).
Но теперь вижу, что эта теория работает.
Вещь крайне полезная. По моим соображениям (и веткам на форумах вебмастеров) гугл стал медленнее и избирательнее индексировать новые сайты. Раньше он почти "должен" был проиндексировать любой уникальный сайт. Теперь же, если какие-то малейшие проблемы - может игнорировать месяцами.
Тем удивительнее, что Index Now работает. По факту это как руками добавлять урлы в консоли. Но руками не работает, а это - работает. Может, дело в количестве страниц и одновременности (200 сразу, а не 200 по очереди за 2 дня допустим).
Глобальный материал, нажористый, интересный.
Удивительно, что бесплатная доставка всё ещё главный драйвер. Условные 300-400р за доставку при цене товара в тысячи/десятки тысяч рублей явно могли бы выводить на первое место качество товара, сохранность посылки, анонимность, историю бренда и товара, отзывы. Но нет. Любопытно.
Спасибо. Полезная статья. По своему опыту могу сказать, что как пользователь всегда ухожу с сайтов, где нет нормальной доставки, где сайты говорят "ну мы можем до транспортной компании доставить в принципе если надо, а дальше сами разбирайтесь".
Мне так нравятся эти рассуждения.
Не забывайте: альтернатива - это иметь и склад, и магазин. И оплачивать штат складовщиков, продавцов и аренду платить 2 раза (склад+магазин). В магазинах при этом куча людей ходит, примеряет и не выкупает, а потом выкупает самые популярные размеры/модели и оставляет продавца с остатками.
А ограничения на массовую скупку у ВБ и раньше были, и работали/могли бы работать не рублём: срок действия аккаунта покупателя, процент выкупа, ограничение на количество покупки определенного вида товара в месяц и/или у конкретного продавца - всё это рабочие инструменты.
Но так нельзя было бы доп. плату брать с людей.
Заголовок: Алгоритмы «Директа» заменят агентства. Мы станем водителями такси
"Последнее слово": Можем спать спокойно, коллеги. Роботы пока нас не заменили. Работаем дальше.
Это что, кликбейт?
Очень помогает команда \? в Exclude, которая отсекает страницы с параметрами.
Также помогает просканировать 10%, выявить то, что можно добавить в Exclude, а потом выключить парсер и перенастроить с отсечением выявленного мусора+пагинацию тоже выключить исключением (если настройка и \? не помогли, может генерироваться иначе).
+ перечисленное в статье.
Сутки - вполне неплохое достижение.
В 2019 мне очень нужен был сайт на Тильде и я оценивал SEO для него. Закидывал удочку программистам, что сможем внести, а что нет. Вердитект был такой:
1. ЧПУ точечно правится, но выстраивание новой иерархии (категории, подкатегории, статичные фильтры) - возможно, но проблемно.
2. Редиректов можно настроить всего до 100 (насколько знаю, сейчас они делаются абсолютно неклассическим методом)
3. Сгенерировать заголовки и метатеги силами CMS нельзя, только внесение вручную.
4. Сортировки и фильтрации для товаров отсутствовали
5. Пакетная загрузка текстов на соответствующие страницы отсутствовала
6. Функционал и кнопки менялись только из имеющихся шаблонов, сверстать/скорректировать что-то было нельзя.
7. Кеширование не включалось
8. Функционал поиска расширить было нельзя
9. Турбо и AMP были недоступны (вот это точно сейчас пофиксили https://tilda.school/journal/tpost/90kfjvgj61-kak-dobavit-google-amp-i-turbo-stranitsi)
10. Sitemap и robots не редактировались вручную
Жаль пропустил горячую фазу споров. Не уверен на 100%, что я тогда не ошибался или что программисты всё проверили идеально. Не знаю, что еще изменилось за 2 года. Но если хотя бы половина проблем актуальны, то продвижению они препятствуют даже сами по себе, а не только удобством или скоростью внесения правок.
Если кто-то разберёт эти пункты по косточкам - буду признателен.
"спарсить сайт" не подразумевает, что на выходе у вас будет скриншот каждой страницы.
"копия сайта" - это скорее поднятая копия на другом сервере.
"слепок" - более-менее подходит.
Так что по сути вопроса согласен, а по примерам нет.
Претензия к языку статьи - принимается, я косноязычно описал, но это может быть кому-то полезно даже в таком виде (я бы очень хотел найти такую статью, пока искал решение проблемы создания скриншотов всего сайта)
Вообще не намекал. Тысяча в месяц для такого огромного инструмента даже для SEO-одиночки сумма подъемная и адекватная. Функционально программа делает почти все что угодно, в компаниях обычно куплена ее лицензия. Бесплатные аналоги (при всем уважении к SiteAnalyzer например) слабее в разы. Пиратство - личное дело каждого, не призываю
Что за "сервисы по анализу санкций от поисковых систем" использовали? В панелях никаких санкций не показывалось?
Юлия потрясающая. Всегда интересно читать. И в ТП Топвизора всегда четко отвечает на вопросы, когда эта роль выпадает ей, и когда кейс писали оставила сугубо положительное впечатление. Материал супер интересно было почитать. Про удаленку история ровно такая же кстати, прекрасно понимаю.