{"id":7725,"title":"\u041c\u043e\u0441\u043c\u0435\u0442\u0440\u043e \u043e\u0442\u0432\u0435\u0442\u0438\u043b\u0438 \u043d\u0430 \u0447\u0430\u0441\u0442\u044b\u0435 \u0432\u043e\u043f\u0440\u043e\u0441\u044b \u043e \u0440\u0430\u0441\u043f\u043e\u0437\u043d\u0430\u0432\u0430\u043d\u0438\u0438 \u043b\u0438\u0446","url":"\/redirect?component=advertising&id=7725&url=https:\/\/vc.ru\/promo\/306052-v-metro-moskvy-teper-mozhno-platit-za-proezd-licom-sprosili-avtorov-proekta-kak-eto-rabotaet&placeBit=1&hash=1a23ae72488790d266f074c318177ed55db913e2e0bf5b3cbc11221f61048c67","isPaidAndBannersEnabled":false}
SEO
Galaxy IT

Бойтесь и трепещите – грядет эра Core Web Vitals

Февраль, март, апрель… Три месяца отделяют SEO от следующей революции, которая грядет в мае, когда Google начнет учитывать новый комплексный сигнал ранжирования Core Web Vitals. И чем ближе эта дата, тем больше сведений о новом факторе обнародует Google…

Как все начиналось?

О том, что появился еще один сигнал ранжирования, представители поисковой системы сообщали на страницах Google Search Central несколько раз. Сначала в мае 2020 г., а затем в ноябре. В последний раз Google обнародовал дату, когда данный сигнал начнет влиять на позиции сайтов в выдаче – май 2021 г.

В публикациях отмечалось, что Core Web Vitals будет учитываться поисковиком при ранжировании вместе с остальными факторами Page Experience. Новый сигнал позволит Google оценить, насколько проиндексированная страница удобна для пользователя.

Но в отличие от остальных сигналов этот является составным, потому что в его состав входят три показателя:

Ø Largest Contentful Paint (LCP) – скорость загрузки основного содержимого веб-страницы. Эталонным LSP считается показатель в 2,5 сек. после перехода пользователя на сайт.

Ø First Input Delay (FID) – период ожидания, после которого юзер сможет взаимодействовать с веб-страницей. Идеальный FID – не более100 мс.

Ø Cumulative Layout Shift (CLS) – визуальная стабильность макета страницы. Эталонное значение – не более 0,1.

Вот только чем все эти параметры мерить? И об этом всеведущий Google уже тоже позаботился…

Не один, а целых пять!

Оказывается, что, начиная с конца мая прошлого года, Core Web Vitals уже можно мерять целыми пятью инструментами:

· В специальном отчете Search Console.

· PageSpeed Insights.

· Lighthouse – встроенный в инструменты разработчика Chrome тестер доступности страницы для пользователей (оценивает ресурс по стобалльной шкале).

Lighthouse умеет определять только два показателя Core Web Vitals: FCP и CLS. Инструмент присутствует во всех браузерах, развернутых на основе движка Chromium.

· Отчет Chrome UX – отображает обезличенную статистику, собранную с помощью Chrome.

· Chrome DevTools.

· Браузерное расширение Core Web Vitals – выводит показатели оценки страницы непосредственно в Chrome.

Последние новости с фронта

В инструментах разработчика Chrome 88, который вышел в январе 2021 г., на вкладке Perfomance теперь можно отобразить показатели Core Web Vitals. Для этого после записи производительности нужно поставить флажок в чекбоксе Web Vitals.

Как видите, Google предоставляет большой набор инструментов для измерения нового сигнала. Но при каких его показателях сайт сможет получить преимущество при ранжировании?

Во время последнего общения с вебмастерами в рамках Google Search Central Джон Мюллер ответил и на этот вопрос. Оказывается, чтобы завоевать более высокие позиции в выдаче, ресурс должен соответствовать всем критериям нового фактора. А если хотя бы один из трех параметров Core Web Vitals хромает, тогда о преимуществе при ранжировании можно забыть.

Пора готовиться

До мая осталось еще пару месяцев. Но готовиться к новым рельсам, на которые перейдет SEO, следует начинать уже сейчас. Для этого следует провести тщательный технический аудит сайта, повысить его UX, скорость загрузки страниц путем оптимизации ресурсов, кода и т.д. Хотя все это примерно. Ведь Google еще не опубликовал своих рекомендаций для вебмастеров по улучшению Core Web Vitals.

Статья от: Galaxy-it.net.

{ "author_name": "Galaxy IT", "author_type": "self", "tags": ["web","seo_\u043f\u0440\u043e\u0434\u0432\u0438\u0436\u0435\u043d\u0438\u0435","seo","google"], "comments": 71, "likes": 21, "favorites": 140, "is_advertisement": false, "subsite_label": "seo", "id": 207139, "is_wide": true, "is_ugc": true, "date": "Wed, 10 Feb 2021 16:40:43 +0300", "is_special": false }
0
71 комментарий
Популярные
По порядку
Написать комментарий...

Друзья. Влияние User Page Experience и входящих в этот новый фактор сигналов Core Web Vitals, Https, Safe browsing. Mobile friendly, intrusive interstitials довольно небольшое.
Если у вас будет отличный контент, то UPE помехой не будет.

Статья написана так, будто нас ждёт опасность. Это не так.

7
Невинный диод

Если у вас будет отличный контент, то ... его скорее всего украдут, а поисковики влёгкую отранжируют их выше вашего. Доказать поисковикам ничего не возможно, а биться в судах с легионом дорвеев бесполезно. Пишите контент, пишите. Большинство СМИ уже превратились в калейдоскоп рекламы, юридические порталы натурально рецептами тортов собрают НЧ трафик. ред.

5

Вы про Россию или про западные рынки? Украсть контент конечно же можно. Есть даже такая тактика в негативном seo.
Всё просто по Вашей логике. Не будете создавать хороший контент, не будете ранжироваться и не будете никому интересны. Может, тогда лучше вообще не начинать?

3
Невинный диод

У меня нет опыта работы с западом, а вот в ру хватает.

Не нужно, пожалуйста, приписывать мне то о чём я не говорил. Это Ваши личные выводы.

Я говорю о том, что "просто делать отличный контент" скорее всего ничего не даст. И в некотором смысле эта фраза – обман. Как бы ни упирали на "делайте хороший контент" ПС в рекомендациях и сеошники в статьях. Работает всегда комплекс мер. Качество контента, к сожалению, не является главным определяющим фактором. Более того, создавать КАЧЕСТВО экономически не целесообразно, материал в любой момент может быть украден, пропущен через авто (или ручные) рерайтеры и успешно отранжирован в очередном дорвееподобном говно-сайте, которые с помощью спец-софта клепаются сотнями при минимальных трудозатратах.

А вот что делать в этой ситуации, каждый решает сам. Это большой отдельный вопрос.

1

Вот скрин проверки на уникальность статьи с продвигаемого сайта: http://prntscr.com/z2mjsq. Статья была написана в 2017 году, и один раз (просто ради успокоения собственной души, был проведен рерайт в марте 2020 года). Вот скрин с метрики: http://prntscr.com/z2n3ff, где отчетливо видно, что рерайт не дал абсолютно никакого "супер результата", поскольку оценивалась не уникальность, а содержательная часть текста. В конце апреля статья была не рерайчена, а доработана (добавлены новые данные - посмотрите на скрине из метрики что это дало). Вот скрин, который показывает, что один из сайтов "своровавших" текст, закинул страницу в индекс ПС 196 дней назад, ну то есть примерно в конце июля: http://prntscr.com/z2ngxh. А теперь снова посмотрите на скрин с метрики, и убедитесь, что никакого краха не произошло, и более того -  в январе начался новый рост посещаемости, при том что текст продолжает быть не уникальным. К чему это я? Да ни к чему - продолжайте заблуждаться и быть уверенным что вы правы в своем заблуждении... А пока вы так делаете - другие (такие как я) делают качественный контент и получают за это хорошие позиции + свою долю трафика. Я соглашусь с вами в том, что для Яндекса (несмотря на все их утверждения) уникальность является довольно весомым фактором, но вот только я уже прочно разочаровался в нем как в поисковике, и больше внимания обращаю на то, что интересно ПС Google, а им интересен качественный контент больше, чем циферки с адвего или текст.ру.

2
Невинный диод

А умеете нахваливать себя, не пытаясь принизить других? :D

Надоели уже товарищи, которые с предмета обсуждения переходят на личности. ред.

2

извините, не хотел. Подредактировал

4
Невинный диод

Ок ) Внесу немного ясности:

Я не сеошник, который учился годами этом, я – заказчик, который вынужденно стал сам разбираться из-за многократных факапов разных сеошников (за мои же бабки). Каждый новый сео говорил примерно одинаковое: раньше все были не правильные, а мы умеем как надо.

Хорошие позиции у нас тоже есть. 80-100 трафика это конечно хорошо, а у Вас есть опыт повторения этого экспириенса до уровня
5к+ ? То есть, собирать статьями трафик по ядру на одном сайте. Вот у меня есть на градиенте в тысячи статей под НЧ. И картина, в целом, безрадостная. Что-то (что не спиздили) стреляет, но в большинство так или иначе уворовывается, многократно перерабатывается от вора к вору (потому что написать своё нужен хороший скилл в теме). И в итоге я вынужден конкурировать со своим же материалом, представленным в десятках рерайтов разного качества, когда рерайт узнать можно по одной и той же шутке, придающей шарм статье, которую вряд ли все авторы единомоментно придумали. Итого, учитывая немалую себестоимость 1 материала, получается банально нерентабельно делать качество. О чём я и говорил выше.

В итоге, лично я пришёл к выводу что тексты надо до сих пор делать не для людей, а для поисковиков. Конечно там уже не набор ключей, но вода водянская работает ещё как. И пока это будет сохраняться, в качестве просто нет смысла. А в идеале вообще уходить от схемы Контент > Адсенс (или РСЯ или CPA) и искать более серьёзные способы монетизации, чтобы не зависеть от поискового трафика, который сегодня есть а завтра нет по воле магических алгоритмов.
Они хоть и пытаются выдавать лучшее, но по факту легко обманываются ушлыми товарищами.

2

Я не стану с вами спорить. 5к плюс одной страницей для регионального коммерческого сайта - труднодостижимая вещь. Повторение опыта на других сайтах (страницах) - да есть. Спасибо что вы поделились своим опытом. Я также поделился с вами своим. Мои выводов строятся на практической выборке свыше 30 коммерческих сайтов. На всех результаты положительные. Судить о том что вы правы или не правы конкретно для вашего сайта (ниши, тематики), я не могу, не видя самого сайта и ситуации в целом. Но в плане моего опыта - качественный контент дает в любом случае положительный результат, и не зависит от того, украли его или нет (конкретно для гугла, как писал выше, на яндекс не сильно ориентируюсь). Поэтому я не согласился с вами, что писать нужно для роботов, и, уж извините, останусь при своем мнении.

3

И кстати, гляньте скрин по устройствам http://prntscr.com/z2qjw0, и оценке скорости данной страницы согласно PageSpeed Insights: http://prntscr.com/z2qsm9 (это к тому что уже полгода как пугают скоростью загрузки). ред.

0

Если показалось, что я Вам что-то приписал - извините. Ничего личного.

Вы всё не правы. Это не мои слова, а Гугла. Отличный контент всегда будет выше таких фактов как скорость загрузки. Это логично. Для пользователя важен ответ на его проблему, а не скорость страницы, но а которой он ответа не найдёт.

–1
Невинный диод

Принято )

На словах гугл Д'Артаньян, это бесспорно, на деле ситуация немного другая к сожалению. Ответом на проблему по запросу гугл считает статью, которая водянистая вода, скомпилированная из нескольких аналогичных статей, и реально проблему юзера не решает будь мы на месте юзера.

Уточню: я говорю только в рамках своего опыта, и своей ниши.

1

Про российский рынок затрудняюсь сказать. А давайте посмотрим на эту статью? Дайте пример и разберём. Я посмотрю по метрикам в Semrush и по контенту и по домену и по ключам.

0

Ни разу за последние 5 лет не сталкивался с тем, чтобы у меня спёрли контент и он ранжировался выше моего сайта. Только точная копия в данном случае может представлять опасность. Тырят-то регулярно, ну и что? Это интернет.
Рерайты? – Да пожалуйста, переписывайте - если сможете переписать лучше. Самое важное - всегда между строк.
Кмк, вы слегка преувеличиваете проблему.

2
Невинный диод

Я говорю по опыту в рамках своего проекта. 70% контента в рунете по моей нише украдено с моего сайта в том или ином виде. Там и рерайт и рерайт на рерайт, воровство ворами у воров.

Простой пример: чел берёт статью, меняет 1 абзац, постит у себя в ЖЖ и т.к. это ЖЖ, то он более трастовый для ПС и ранжируется выше, а наш материал считается копией.

0

Дело может быть в сайте, чисто технические причины. Сколько раз экспериментировал: контент одинакового качества на сайтах с разной архитектурой и структурой ранжируется совсем по-разному. 
Второй момент: это промоушен контента. Его часто упускают или делают формально - и это тоже сказывается на ранжировании, в том числе - и в результате кражи.
А рерайты никуда не денутся, пока ПС не научатся понимать, что от перестановки слов в тексте из замены ключей синонимами смысл не меняется, а дубли в поиске не нужны. Можно жить и с этим.

0

Надеюсь, гугл не вкрутит это отдельным счетчиком в пейджспид инсайтс, иначе сочувствую всем фриланс и не вриланс разработчикам.

1

Нет. Это общий фактор, состоящий из отдельных сигналов. Я их озвучил выше. Если у вас отличный контент, то скорость не будет не помехой.

0

В конкурентных тематиках оптимизированные сайты под Веб Виталс получат преимущество. Новый алгоритм в полной мере начнёт влиять на ранжирование не раньше зимы 2021 года. Сейчас всего около 20% сайтов оптимизированы, вот они и получат преимущества. Гугл сильно заморочился с этими метриками, поэтому скорее всего будут существенные изменения в ранжировании. По сути Веб Виталс это частично алгоритм ПФ. Скорость, взаимодействие, стабильность - всё это непосредственно относится к ПФ пользователей. Метрики, то отображают реальные показатели пользователей.

Гугл любит ссылки, но в то же время он прекрасно понимает, как многие их получают, ни о какой естественности речь не идёт. Вот он и завуалированно может постепенно и понижать ссылочное влияние и усиливать влияние на ранжирование ПФ. Яндекс просто тугой, без внедрения новых алгоритмов в тупую раструбил, что теперь для него ПФ самое главное и получил в ответ армии ботов ПФ, но сумел из этого получить выгоду, в виде скликивания ботами его рекламы.

Алгоритм Веб Виталс очень смахивает на начало перехода Гугла от ссылочного влияния на поведенческое.

0

Вы путаете алгоритмы. CWV часть User Experience. Прочтите статью Glen Gabe.
20 процентов сайтов оптимизированы как? Откуда такие данные? Почему они должны получить преимущество?

0

Тогда в чём смысл алгоритма, просто чтоб был? На кой он метрики в консоль добавил, на создавал кучу инструментов для проверки, инструкций и так далее! Когда было такое, что Гугл вводил новый алгоритм и никто от этого в ранжировании не пострадал? По 20% где-то на гуру видел инфу.

0

Вы смотрите только на CWV. Но там не только они. Когда мы говорим о пользовательском опыте, то это UX в чистом виде. Оценить его довольно непросто. Так же Гугл заявил что, в случае, если сайт максимально отвечает запросу пользователя (контент), то плохая скорость не повлияет на ранжирование.

0

А если будут отвечать максимально десятки, сотни, тысячи сайтов, то о чём я и говорю. При равных в конкурентных нишах Веб Виталс будет преимуществом. Ок, посмотрим, что будет зимой.

0

Зачем зимой? Можно уже в августе наблюдать.

0

Потому что Гуглу нужно собрать статистику, да и в своей инструкции он пишет, что алгоритм Веб Виталс будет внедрятся постепенно, соответственно реальные результаты можно будет увидеть, когда алгоритм полноценно заработает.

0

Я заранее содрогаюсь, предвидя мучения западных веб-мастеров.
И радуюсь за земляков, до которых ни панды, ни пингвины, ни, прости господи, колибри эти сатанинские добраться не могут - просто потому, что гугл, как нормального шерифа, проблемы индейцев не волнуют.

5

Это вы зря так) Довольно много коммерческим проектов и не только, пострадали от зоопарка.

0

Пока гром не грянет, никто не перекрестится! Фигня это все. Во многих нишах в топе древнее говно, медленное до жути. И даже контент не экспертный, а от коВЫряйтеров. И ничего. Страниц контентных много, пользователей много - вот сайт и в топе. И ничего не изменится! Если у вас супер-быстрый сайт из 2,5 страниц - в топ вы не попадёте. Никак. Потому, паника излишняя. Сначала оценится качество и количество контента, и только потом (если нужно) сравнивать будут метрики скорости. 

4

Привет ).
"И даже контент не экспертный, а от коВЫряйтеров." - я вот раньше понять не могла, как так.
А оказывается, это чтобы не украли.
"Если у вас будет отличный контент, то ... его скорее всего украдут, а поисковики влёгкую отранжируют их выше вашего. Доказать поисковикам ничего не возможно, а биться в судах с легионом дорвеев бесполезно. Пишите контент, пишите." (Павел Портнягин)

2

Если сайт новый, то да украдут, нужно работать над продвижением сайта, как правило на это уходят годы.

1

У меня только один вопрос - кто плюсует этой страшилке от людей, которые ни в одной статье не показали своей экспертности и детального разбора материала?

3

Да просто статья написана для того, чтобы напугать клиентов. 
До мая осталось еще пару месяцев. Но готовиться к новым рельсам, на которые перейдет SEO, следует начинать уже сейчас.

А какими способами - нет. Статья не для маркетологов и SEOшников ))

2

Ну она вообще выглядит переводной или скомпилированной. Если взять поиск по картинкам - там такого добра один-в-один вылезет тонна, и разницы между ними - никакой.
Ну написали бы: мы разработали технологию быстрой адаптации сайта к новым метрикам. Или там чеклист запупырили - что делать и куда смотреть.
Так нет - пережёвывание информации, которой уже год, и никакой конкретики.

2

Все что нужно знать про эту оценку скорости

2

Я тоже ржал над этой метрикой.

0

А если посмотреть Amazon, которые вообще помешаны на всех этих метриках, то они вообще далеко не в зеленой зоне

0

Все дело в технологиях, google хочет убить старые сайты, я лично перевез контент одного из своих сайтов на новенький cms, с поддержкой webp, и AMP страниц. Трафик вырос в два раза за три месяца. Сейчас есть смысл переезжать, кто не приспособиться, тот вымрет.

0

А что за cms?

0

Joomla

3

Joomla, 😂😂😂

3

Нуу, зря вы так. Джумла сама по себе неплохая платформа, при правильных руках и понимании задач старушка может ещё огого.
Всё всегда упирается в руки и голову админа.

1

При и использовании практически любой CMS всё всегда упирается в голову вебмастера делающего сайт... 

2

Ну что вы, если несколько лет пилит ее, будет что-то. Но от joomla останется лишь память))

0

На Envato в разделе скрипты ищите. Любой сценарий на php нужно дорабатывать, так что готовьтесь тратить деньги. ред.

0

Мы даже целый сервис написали, чтобы измерять напрямую из дата сета Гугл все параметры Core Web Vitals  —  https://webvitals.ru. Пробуйте, тестируйте. Скоро историю прикрутим там же.

0

спасибо, полезно, интересно. добавил в  закладки, буду тестировать

2

Да отличная форма для заказа услуги. 😂 Не достаточно данных? Сколько должно быть посещений в день для показа метрики? ред.

1

ну про сайт с малой посещаемость мне написало также. другой сайт показал норм результат

1

Дмитрий, вы написали (и потом исправили):

"Да отличная форма для заказа услуги. 😂 Не достаточно данных?. Ваш домен куплен 18.01.2021 кого обмануть хотите, не люблю я таких деятелей, дату на сайте измените не с 2018 года а пару месяцев назад. Походу нужно отзыв написать по поводу вашего сайта."

Наш домен и правда свежий. Мы недавно решили вывести отдельно сам Web Vitals.
Это чисто для удобства. Развернули его отдельно на новом домене. 

На loading.express выводится тоже в отчете по скорости, полосками. Но там могут не понять что это за полоски. Поэтому вывели отдельно.

Отзыв можете писать, если он будет адекватный, то мы на него ответим. Если неадекватный, то тоже ответим.) 

Про обмануть и деятелей — тут хотелось бы подробностей. Обманывать мы не можем никого, потому что данные напрямую подтягиваются из датасета Гугла. Мы своего тут ничего не пишем. 
А вот на loading мы свой тротлинг делаем и свою калькуляцию, но сам замер тоже идет через гугловский lighthouse. 

Так же вы можете пойти замерить в самом свежем Lighthouse 7 ваш сайт.
https://lh.loading.express.

1

Да исправил, вам нужно править футер, сделайте информацию актуальной для разных доменов.

0

Смотрите, вы можете немного разобраться в теме и быть в курсе, что в датасет Гугл по живым данным попадает около 75% трафика и данные обновляются раз в месяц.
Если у вас есть данные в Гугл Серч консоли, то и в нашем сервисе вы увидите результаты. Данные напрямую от Гугл идут. 

Ну, а если данных нет, то увеличивайте посещаемость. Тут ничего не сделать.

0

 Почему-то без протокола не понимает сайт

1

Потому что база гугл очень капризна к написанию домена. Тут либо на нашей стороне искать правильное написание домена, которое есть в базе и сравнивать с написанным пользователем, либо оставить на стороне юзера понимание правильного написания домена.

1

Ну вот и славно. Всякие там сайты на конструкторах с низкими показателями ждёт учесть вылета из топа далеко и на долго, там им и место.

1

Сайты на конструкторах буду актуальны всегда, ибо специалисты в рф с их познаниями в программировании просто выводят меня на смех (без негатива).

1

Какой хороший пример логики и владением русскама языка.
Я так хохотальса (без негатива, чисто поржать)

1

это тебе, знатоку русского языка, даю даром "."

1

экая занудь

1

Это вы зря так конечно) Украина, Белоруссия, Республика Татарстан (Казань) - Россия - именно из этих стран отличные программисты выходят, которые успешно работают в зарубежных странах, те же Evil Martians (Злые марсиане) - чисто для примера - https://vc.ru/life/147200-zlye-marsiane-put-ot-dvuh-chelovek-v-kafe-do-ofisov-v-nyu-yorke-san-francisko-moskve-i-osake
 

1

Я же специально обратил внимание на "ибо специалисты в рф". Те кто работаю за рубежом это "специалисты за рубежом". И не важно какой они национальности и откуда. Корневой аспект - они за рубежом, а не в рф))) Основатель гугла тоже русский. Но он специалист, создавший гугл за рубежом, а не в рф)))))))

1

К этому все и идёт!

1

Если все в нише со слабой скоростью загрузки, как сейчас очень много в каких сферах происходит, особо ничего не изменится. А вот продвинутые клиенты уже начитались и паникуют.

1

Но мы то знаем, что лучший UX там, где есть баннеры с рекламой.

1

К сожалению, больше всего портит эти показатели наличие на сайте баннеров гугл адсенс. Не понятно что с этим делать.

1

Комментарий удален по просьбе пользователя

1

Не понятно только - какому инструменту проверки верить. В search консоли всё отлично. В Core Web Vitals - отлично. В PageSpeed Insights - беда.

0

Эти метрики относительны. Значение имеет медиана, да и та - из вашей целевой локации. Если к вам на сайт из Пакистана пойдут - вот тогда беда с этими метриками, там ttfb до минуты бывает.
Думаю, в течение года это станет фактором ранжирования где-нибудь в Нью-Йорке, в 2022 - доберется до Техаса, а ужо потом, помолясь, к 2025 и до матушки России докатится на излете.

2

Чтобы везде было плохо, а в Web Vitals хорошо - слабо верится, что может быть наоборот - запросто, когда подделают pagespeed с темой аспро и сидят довольные, в зеленой зоне. А смотришь живые данные, а там зеленого почти ноль.) 

0

Плохо только в PageSpeed Insights. В GSC и Core Web Vitals отлично.

1

А можете в личные скинуть урл? Интересно посмотреть кейс.

0

А бывает наоборот. В Insights отлично а в GSC беда.

0
Читать все 71 комментарий
Как имиджевый проект о безопасном вождении привлёк лиды и расширил маркетинговую воронку страховой компании

А игра с виртуальной фарфоровой статуэткой помогла 6,5 тысячам водителей не превышать скорость.

Как UX-дизайнерам и редакторам писать уместные и этичные тексты

Меня зовут Маргарита Хохлова, я занимаюсь продуктовыми текстами больше трёх лет. Сначала казалось, что можно стать хорошим редактором, если отлично разобраться в синтаксисе интерфейсов, прокачать продуктовое мышление, научиться строить пользовательские сценарии и бодро подстраиваться под tone of voice. Сейчас я вижу, что всё намного сложнее.

Qlik представляет гибридную облачную аналитику с помощью решения Qlik Forts

Qlik объявляет о запуске Qlik Forts – нового гибридного облачного сервиса на базе Qlik Cloud, который поможет воплотить концепцию Active Intelligence, обеспечивая аналитику всего объема данных в полном соответствии с нормативными требованиями.

Как получить искреннюю обратную связь от сотрудников и улучшить работу компании?

Как-как… попросить инфу на личном уровне. Дать слово, что критика не будет наказана. Быть командой, в которой не страшно сказать свое фи. Мы попробовали, и вот что у нас получилось.

Хакасия первой из регионов ввела комендантский час во время «нерабочих» дней Статьи редакции

В трёх городах перестанет работать общественный транспорт, а таксисты смогут работать только со справкой о вакцине.

ITeaConf - 2021 / Python, Ruby, Rust, Java, Go, Node.js, .NET, Frontend

Мы знаем лучший способ провести воскресенье, если вы работаете в IT.

Как программист-интроверт стал СЕО стартапа, сделал MVP за один месяц и заработал 12 млн за год – история Revvy

SaaS-сервис Revvy, который помогает бизнесу общаться с клиентами и умеет «перехватывать» негатив.

Пример позитивного отзыва и “перехвата” негатива
«2ГИС» представил обновлённый навигатор с мини-картой на экране, данными о камерах и парковках Статьи редакции

Его уже подключил «Ситимобил».

Обновлённый интерфейс навигатора  «2ГИС»
Почему индексные фонды стали популярными. Рассказывает персональный брокер
Как не угодить в мышеловку бесплатного аудита контекстной рекламы? Немного советов от йогуртного сомелье

Не все аудиты одинаково полезны. Не так давно один знакомый маркетолог потерял работу, доверившись аудиту контекстной рекламы известной компании, а те слили в трубу его пухлый бюджет из-за ошибки в расчетах. Как не влипнуть в такую же историю и получить отличные результаты? Инфа в статье.

null