SEO оптимизатор с 2008 года, разработчик нейросетей. Веду блог "Python, SEO, 2нейрона" https://t.me/seo_python_2neuron
Я надеюсь эта единственная капля дёгтя не испортит весь тот экспертный контент который я публикуюна канале )
Согласен на все 100% главный инструмент SEOшника мозг. Просто было интересно посмотреть, что там они считают. Нуи разныезоны документяони по разному, для Тайтлов судя по сливам до сих пор BM25
Вопрос, как они измеряют качество выдачи? Если объёмом своего кармана и откручиваемого директа - ничего не испортили )))
Ну SEO оно всё живет по такому принципу ) Как там? Сделал, посмотрел, сделал посмотрел помолился)
Они сейчас всё векторизуют, видимо настолько им зашла эта технология
Хорошая схожесть это как какой разброс между хорошими и плохими? Я сейчас эксперементирую с 4-мя моделями, писал об этом на vc. Закидываю пару ключ-текст и смотрю близкие фразы и у всех очень сильно отличается разброс между цифрами при том, что результаты для первых 100 похожих слов коррелируют плюс-минус. Для справки у 2-й модели размерность [1,1536] у 3-й [1,1024] и у них как будто разброс меньше
gensim юзали?
б) согласен там коммерчский ранж
в) тут ПФки однозначно, такое бывает, когда контент не отвечает ожиданиям пользователя.
г) смотря как оценивать. YATI он же специфически оценивает, у него там не совсем трансформер. грубо говоря, если закопать LSI в подвале где нибудь без ключа в какой либо близости - да согласен, толку от такой ширины не будет. По Гуглу мне Буйлов показывал реальные кейсы, как после обработки нейросетью, внедрение LSI итд +40 по позициям
Спасибо!
Нет не файнтюн, это эмбеддинги по АПИ
Что у него под капотом? Промпт "Представь себя продвинутым SEO специалистом, найди мне все LSI слова по ключу" или, что-то более серьезное?
Спасибо!
Корпуса есть на все 4 модели, но есть один нюанс, если юзать в чистую лезет мусор, например по фразе "окно" он может найти "автостекло", поэтому ориентируемся на фразы из ТОПа всё таки. Я готовлю небольшоее исследование как раз по корпусам и там всё это отражу. Спасибо, что проголосовали!
Других брендов нет? Могу сказать по опыту, что если вы двигаете ИМ стиральных машин и если у вас нет Bosch и Indesit - у сайтов шансов нет, поскольку брендовый и модельный спрос в этой нише был огромный. Там 2 момента играли роль, во первых сильно сужался запросный индекс сайта,во вторых - ПФ, поскольку 40% люди набирая "стиральная машина купить" ожидали там увидеть Bosch и не найдя уходили. Может быть у вас проблема в этом?
Ассортимента хватает? Если у вас 10 рюкзаков, а конкурентов 100 у вас нет шансов. Насколько ваша страница похожа на то, какие страницы в Топе, смотрели?
Хорошо, когда появляются авторы, готовые писать и рассуждать на серьёзные темы на серьёзном уровне, а не на "с каким DR покупать дроп" или "каким софтом крутить ПФ". Хорошая статья, но грустная)). Pandas + Matplotlib + Seaborn - я думаю овладев этими навыками + немного изучив тервер и матстатистику SEO шник в один момент пошлёт всё к чертям собачим и уйдет в ML на хорошую позицию.
Всё, круг замкнулся )))
Суть вопроса Георгия Шилова была по поводу классического Текстового анализа по ТОПу
Георгий Шилов я случайно удалил ваш пост ))
Прошу прощения у автора, не нату кнопку нажал
Фишка в том, что у копирайтера который в теме или у seoшника который долго копает какую-то узкую нишу, близкие по сементике слова, что называется, вшиты в подкорку, поэтому у них случайно ничего не попадает в документ. Теперь по поводу классического ТА по выдаче. Да, результаты часто дают высокую степень схожести, при условии, что выдача не переспамлена ссылками и не перекручена ПФ. Здесь классический ТА по топу сможет просто не найти некоторые похожие слова. В нашем же случае, мы это можем сделать независимо от Топа, просто вытащив инфу из LLM большой языковой модели.
Спасибо, за оценку). Да, не мешало бы им интеграций добавить, могли бы, к примеру, с ChatGpt замутить, вообще была бы бомба
Ой не то слово! Идеальный клиент, сейчас она меня уже на тренинги тащит по управлению бизнес процессами, подсказывает, что у меня не так в компании, куда дальше развиваться
Привет, круто, не знал про скриминг!