Крупная российская фриланс-биржа завоёвывает иностранный рынок

Конкуренты: Fiverr, UpWork и Freelancer. Как российской компании быстро завоевать новый рынок? Раскрываем секрет стратегии, показываем результаты и объясняем подход, чтобы вы смогли сделать так же. Конечно, и здесь не обошлось без ИИ.

Рисунок 0. Как завоевать иностранный рынок.

А вы справитесь с иностранным рынком?

К нам пришли классные ребята с запросом на продвижение сайта биржи фриланс-услуг под EN направление. Их цель — активно продвигаться на иностранном рынке и конкурировать с лидерами отрасли. А поскольку мы занимаемся SEO, продвигать сайты в топ и увеличивать видимость — наша работа.

Клиент выделил конкурентов: Upwork, Fiverr, Freelancer, Guru, PeoplePerHour.

Но справимся ли мы с большим иностранным рынком?

Мы были уверены, что да:

  • У ребят есть успешный опыт на российском рынке, они уже являются лидерами отрасли.
  • У них также есть работающий бизнес в СНГ.
  • Существует EN-версия сайта, которая ранжируется по многим запросам, и на ней есть органический трафик.
  • У нас в Ant-Team.ru есть опыт работы с крупными проектами. А также большой опыт работы в бурже и с выходом на иностранные рынки.

Отличное сочетание. Поехали дальше.

Любая работа начинается с построения стратегии.

Рисунок 1. Мем: с самого начала у нас была какая-то стратегия.

Строим эффективную стратегию для быстрой упаковки сайта

Основной посыл площадки: несложные задачи, которые можно выполнить с базовыми навыками.

Средний чек: 35$-40$.

В силу некоторых обстоятельств наша команда не могла просто делать лендинги с профилями фрилансеров под всевозможные поисковые запросы. Например, как на рисунке ниже.

Рисунок 2. Яндекс.Услуги.

Поэтому нужно было искать другой подход.

У клиента уже было небольшое количество страниц под разные фриланс-услуги. Эти страницы содержали блоки с преимуществами, отзывами, небольшими кейсами и прочие. Мы решили добавлять на них SEO-тексты.

Шаг 1. Решаем, кого привлекать в первую очередь.

С чего начать: с привлечения исполнителей или заказчиков? Фрилансеров много, этому способствует бизнес в России и СНГ, поэтому задание почти сразу улетает исполнителю и выполнялось за пару дней.

Потому на данном этапе развития сайта необходимо в первую очередь привлекать заказчиков. Это решили. Что дальше?

Шаг 2. Анализируем конкурентов.

Проводим анализ, ищем точки роста, изучаем, чем конкуренты лучше нас и т.д.

После анализа понимаем, что семантическое ядро сайта клиента значительно меньше, чем у конкурентов. Как итог, необходимо сделать ОЧЕНЬ большое количество страниц (десятки тысяч) в короткие сроки, чтобы не растягивать это на годы.

Стоимость такой работы огромная:

  • Собрать и согласовать семантику.
  • Составить ТЗ на контент для копирайтеров.
  • Написать тексты по ТЗ.
  • Вычитать и отредактировать тексты. Доработать их в случае необходимости.
  • Всё опубликовать, проиндексировать, занести семантику на отслеживание, провести аналитику. Ааааааа.

Работы просто колоссальное количество. Стоимость очень высокая, а время ограничено. Сколько seo-джунов, копирайтеров и редакторов нужно привлечь? Что делать? Строить новый отдел под клиента?

Шаг 3. Анализируем данные биржи клиента.

Смотрим, на какие услуги уже сейчас есть исполнители и/или заказчики. Делаем мы это потому, что заказчики сами публикуют свои задания, расписывая ТЗ, а исполнители выбирают в ленте заданий те из них, которые могут выполнить. Также есть данные по фрилансерам. Поэтому мы решили в первую очередь наращивать трафик в рамках этого списка, так как он более приоритетен для клиента. А после начнем работать по анализу конкурентов для расширения количества посадочных.

Шаг 4. Планируем стратегию продвижения.

Нужно собрать и проработать много семантики, несмотря на то, что мы ограничили направления для проработки на начальном этапе.

Хорошо подумав, мы решили сделать тестовый запуск с помощью OpenAI.

Идея крайне простая:

  • Наполняем сайт контентом, сгенерированным ИИ. Таким образом делаем это дешево и быстро.
  • В будущем оптимизируем сгенерированный контент по ТЗ на основе семантики.

Но!

Кто знает, как отработают сгенерированные тексты именно в этой тематике? Дадут ли они хоть какой-то профит в ранжировании? Будут ли они релевантны семантике?

Поэтому делаем небольшой тест на 200 страниц. Анализируем итоговые данные и принимаем решение, можно ли работать по такой схеме и нужно ли что-то доработать.

Проводим тест, чтобы не слить деньги впустую

Для начала мы ознакомились с тем, как устроены наполненные страницы фриланс-услуг. На всех страницах используются шаблонные заголовки, в которых меняется только название услуги (в целом всё как у всех).

Исходя из этого, методом проб и ошибок мы подготовили шаблонные вопросы для OpenAI, предназначенные для каждого отдельного куска текста на странице. В вопросах необходимо было менять только название категории фриланс-услуги.

Рисунок 3. Запросы для генерации текста с использованием переменной (на картинке — Article writer).

Далее мы подготовили таблицу для автоматизации размещения сгенерированных текстов. В каждой ячейке должна быть информация о посадочных: URL, метатеги, тексты по блокам с html-вёрсткой.

Рисунок 4. Пример таблицы разработчиков для автоматического наполнения сайта.

Мы поделили генерацию контента для 200 страниц на 3 этапа. Это было сделано для того, чтобы не слить впустую выделенный на тест бюджет.

Первый этап

В первый запуск мы работали по такой схеме:

  • Контент-менеджер (КМ) брал вопрос, менял в нем переменную и работал в интерфейсе OpenAI.
  • Получал текст, вычитывал его. Менял некоторые слова, чтобы нарушить статичность сгенерированного контента.
  • К вычитанному тексту добавлял следующий вопрос и повторял ход действий из второго пункта.
  • Переносил текст в таблицу, созданную программистами для автоматической публикации.

Сделав небольшую часть работы, мы проанализировали результаты, чтобы найти ошибки, откорректировать процесс, дать обратную связь контент-менеджерам.

Итог получился такой:

  • Сгенерировано контента: для 25 страниц.
  • Затраты по времени: 9,5 часов.
  • Затраты по деньгам: 7 125 рублей.
  • Затраты на одну страницу (время): 23 минуты.
  • Затраты на одну страницу (деньги): 285 рублей.
  • Количество символов: 109 878.
  • Количество символов на одну страницу: 4 584.

Результат нам понравился. Затраты оказались небольшими, но предстояло наполнить ещё 175 страниц, а в работе КМ было много рутины.

Мы обозначили проблему команде, поработали руками и нашли способ автоматизации через привязку OpenAI к Google-таблице.

Про таблицы, API, OpenAI

Если вы уже и так всё знаете про данный метод, то смело переходите к следующему разделу.

Не будем слишком подробно описывать момент подключения и использования OpenAI в Google-таблицах, т.к. существует огромное количество скриптов и расширений для Google-таблиц (и не только таблиц, и не только Google) и ещё больше видео на YouTube на эту тему.

Лайфхак!

Видео можно искать по этому запросу: google sheets gpt 3/4.

Очень удобно включать их в Яндекс.Браузере и смотреть с переводом от их нейронки.

Мы использовали один из самых популярных скриптов (как минимум на тот момент он был самым свежим и популярным), который добавляется в таблицы через вкладку “Расширения” -> “Apps Script”.

Рисунок 5. Добавляем скрипт в таблицы через вкладку “Расширения”.

Использовать сам скрипт легко и удобно:

  • Добавляете ваш API-ключ от OpenAI.
  • Выставляете максимальное количество токенов. Тут отметим, что в интерфейсе OpenAI выставляется количество символов. А в данном скрипте выставляются именно токены — 1000 токенов равны примерно 750 символам.
  • Выставляете температуру. Чем она выше, тем красочней будет сгенерированный текст. Нужно быть внимательным к вашей тематике, чтобы ИИ от нее не отклонялся. Чем менее популярна тема, тем меньшую температуру нужно выставлять.
  • Отмечаете интересующую вас языковую модель. По умолчанию это text-davinci-003.

Всё готово! Осталось только нажать на кнопку “Сохранить”.

Рисунок 6. Пример скрипта для подключения к OpenAI.

Спойлер: ссылка на скрипт будет в конце статьи.

Далее прописываете в ячейках необходимые формулы через =AI(prompt; temperature; model):

  • prompt — ваш запрос.
  • temperature — можно не использовать, т.к. она прописана в самом скрипте.
  • model — можно не использовать, т.к. она прописана в самом скрипте.

С учётом этого формула выглядит так: =AI(“ваш запрос”). К самому запросу можно приклеивать информацию из ячеек через оператор амперсанд — &.

Только не забывайте про пробелы, иначе ваш запрос будет склеиваться с информацией из ячеек. Прямо как на этом примере:

Рисунок 7. Пример склеивания текста при использовании амперсанда.

Работа с таблицей выглядит примерно так, как на рисунке ниже:

Рисунок 8. Пример таблицы с привязкой к OpenAI и работы с ней.

Сгенерировал первый столбец, вычитал. Сгенерировал второй столбец, вычитал. И так далее.

Наша таблица схематично выглядела так, как на рисунке ниже. Единственное, что мы меняли, это столбец “A”, в котором находился список интересующих нас тем:

Рисунок 9. Схематичный пример таблицы для нашего проекта.

Второй этап

А теперь посмотрим, насколько эта таблица помогла нам в генерации текстов.

Мы запустили в тестовом режиме подготовку текстов для 25 страниц (столько же было сделано в первый запуск), чтобы снова произвести разбор полетов и понять, есть ли вообще польза от этой таблицы.

Для чистоты эксперимента мы выбрали другого контент-менеджера, чтобы он был в тех же условиях, что и предыдущий: малознакомый проект, новый стиль генерации. Сам контент-менеджер по нашей внутренней аналитике был практически идентичен предыдущему КМ по качеству работы и скорости ее выполнения.

Результаты превзошли все наши ожидания:

  • Сгенерировано контента: для 25 страниц.
  • Затраты по времени: 5,5 часов (минус 4 часа).
  • Затраты по деньгам: 4 125 рубля (минус 3900 рублей).
  • Затраты на одну страницу (время): 13 минут (минус 10 минут).
  • Затраты на одну страницу (деньги): 163 рубля (минус 122 рубля).
  • Количество символов: 120 284.
  • Количество символов на одну страницу: 4 642.

Сократили расходы почти в 2 раза — на 43%! Честно говоря, мы ждали сокращения максимум на 15%.

Важно учитывать, что это был тестовый запуск и контент-менеджер еще только набивал руку. Теперь ему предстоит сделать разовый заход на 150 статей.

Третий этап

Итоговый запуск генерации контента удивил ещё сильнее. Контент-менеджеру удалось генерировать контент для одной страницы на 3 минуты быстрее (набил руку). Таким образом мы сэкономили дополнительно 450 человеко-минут.

  • Сгенерировано контента: для 150 страниц.
  • Затраты по времени: 25,5 часов.
  • Затраты по деньгам: 19 125 рублей.
  • Затраты на одну страницу (время): 10 минут.
  • Затраты на одну страницу (деньги): 127,5 рублей.
  • Количество символов: 837 317.
  • Количество символов на одну страницу: 4 702.

Итоговая статистика нашей работы выглядит так:

Рисунок 10. Результаты эффективности использования Google-таблицы с привязкой OpenAI.

Оптимизация ресурсов на 55%

Делаем вывод, что генерировать контент с применением таблиц — отличное решение. Результаты вы могли оценить выше. Но данный метод работает только при использовании шаблонных вопросов к ИИ, в которых меняется лишь переменная.

А теперь поговорим о результатах самого теста.

Позиции падают, клики падают — тест провалился?

Мы не получили разрешение на то, чтобы поделиться данными. При заключении договора мы соглашаемся с пунктом о конфиденциальности, поэтому далее не будет никаких точных цифр. Где-то сможем использовать процент изменения.

Статистика GSC по всем регионам:

Рисунок 11. Статистика GSC по всем регионам.

Статистика GSC по США:

Рисунок 12. Статистика GSC по США.

Клики рухнули, позиции рухнули. Трафик не изменился.

Всё плохо.

Начинаем подводить итоги.

Проводим анализ тестового запуска

Сначала ответим на вопросы, которые могли возникнуть:

  • Как индексируем сайт?

Пингование sitemap.xml и Google Indexing API. Все страницы в индексе, и попали они туда довольно быстро (хорошее ссылочное делает своё дело).

  • Что по ссылочному?

Сильно слабее, чем у конкурентов. Но оно есть, и для некоторых тематик этого более чем достаточно для успешного ранжирования. К сожалению, более конкретно мы сказать не можем (в процентном соотношении тоже).

  • Как долго существует сайт?

Сайту несколько лет.

Анализ данных в Google Search Console

Посмотрим на эти таблицы. Пояснения к ним вы найдете ниже.

Таблица 1.
Таблица 2.
Таблица 3.

При сравнении мы взяли за начальную точку данные по страницам, которые уже несколько месяцев существовали на сайте до того, как мы стали наполнять их контентом (всего 56 страниц) - таблица 1.

Далее мы сделали таблицу 2, отражающую изменения на этих страницах после добавления сгенерированного текста.

Таблица 3 содержит данные по абсолютно новым страницам (всего 144 страницы).

Длительность периодов для сравнения данных одинаковая. За основу мы взяли таблицу 1, обозначив данные по всем параметрам как 100%. В других таблицах вы увидите процентную разницу в сравнении с первой таблицей.

Как читать таблицы:

  • Все ячейки окрашены с помощью градиента: худший результат соответствует красному цвету, средний результат — жёлтому, лучший — зелёному.
  • Градиент используется для ячеек с одинаковыми параметрами. Например, сравниваются все ячейки “СРЗНАЧ”:”Клики”.

Значения в таблицах:

  • СРЗНАЧ - среднее значение.

  • МИН - минимальное значение.

  • МАКС - максимальное значение.

  • МЕДИАНА - медианное значение.

Результаты анализа:

  • 144 новые страницы, которые мы создали и наполнили сгенерированным контентом (таблица 3), показали более плохие результаты, чем 56 старых страниц, которые долго провисели без SEO-текстов (таблица 1), и чем эти же 56 страниц после наполнения их сгенерированным контентом (таблица 2).
  • Как видно по показам, лучшие страницы — это те, которые существовали уже давно и на которые впоследствии были добавлены сгенерированные тексты. Но вот по позициям у них все не так хорошо.

При этом новые страницы принесли 20% показов. И есть страницы, которые попали в топ 10.

Также мы отдельно сравнили результаты по 56 страницам, которые существовали на сайте до наполнения сгенерированным контентом: на них не было подготовленных нами текстов, но остальные элементы присутствовали. В таком виде они пробыли на сайте более 3 месяцев. Данные по движению позиций представлены ниже.

Как видно, результаты стали немного хуже, чем до наполнения сгенерированным контентом (таблицы 1 и 2).

При этом некоторые страницы стали ранжироваться лучше. В таблице 4 указана разница позиций. К примеру, значение 50,0 в первой ячейке может говорить о том, что страница поднялась на 50 позиций в выдаче. Например, перешла с 65 на 15 позицию (+50). Данные из GSC.

Таблица 4. Разница позиций.

Из них:

  • 4 страницы попали в Топ 10 из Топ 60.
  • 10 выпали из Топ 10 в Топ 30.
  • 4 остались в Топ 10.

Предлагаем посмотреть на лидирующие по количеству показов страницы (по всем регионам).

Данные по двум страницам, которые уже существовали до наполнения сгенерированным контентом:

Рисунок 13. Данные по одной уже существовавшей странице.
Рисунок 14. Данные по другой уже существовавшей странице.

Данные по двум новым страницам, которые мы создали и наполнили сгенерированным контентом:

Рисунок 15. Данные по новой странице, которую мы создали и наполнили сгенерированным контентом.
Рисунок 16. Данные по другой новой странице, которую мы создали и наполнили сгенерированным контентом.

Данные GSC. Несколько месяцев до публикации и несколько месяцев после:

Рисунок 17. Данные GSC.

Для генерации мы использовали вхождения “hire freelance {web developers}”. Мы проверили их. Это низкочастотные вхождения. Но! Посмотрите, какие позиции по “США desktop Google” мы смогли получить:

Рисунок 18. Позиции по “США desktop Google”.

90 запросов по нашим НЧ ключам находятся в топ 10. Это 90 страниц (1 запрос = 1 страница). Текстовая оптимизация по ключам работает. Поэтому достаточно просто расширить количество запросов для генерации ИИ. Лучше взять именно частотные запросы, чтобы получить более эффектный результат. Поэтому мы будем продолжать тестировать генерацию, основанную на использовании списка частотных запросов. И постараемся отписаться, что в итоге у нас получилось.

Подводим итоги: успех или провал

За два месяца 200 страниц со сгенерированным контентом принесли:

  • 30% показов в поисковой выдаче (от общего числа всех показов);
  • 2% посещений из поисковой выдачи (от общего числа всех посещений).

Можно смело брать на вооружение генерацию с помощью OpenAI davinci-003 и привязки таблиц. В EN-сегменте так уж точно (в RU еще тестируем). Если учесть, что контент будет постепенно прорабатываться позже, то для быстрого выхода на рынок наполнение страниц с помощью генерации текстов — очень даже рабочая тема. А при условии, что один текст будет обходиться вам в 130 рублей, можно даже не раздумывать =) Конечно, это шутка, и нужно адекватно оценивать, подходит ли этот метод именно в вашем случае. Если сомневаетесь, то напишите нам и подумаем вместе.

Генерировать контент и публиковать его без редактуры — можно. Но это не волшебная таблетка, которая позволит полностью забить на редакторов и ТЗ на контент:

  • Если у вас хороший сайт, то проблем с индексацией и общей видимостью сайта не будет. Правда, мы опубликовали лишь 200 страниц. Другой вопрос: что произойдёт, если страницы с таким контентом будут составлять более 20/50/80 процентов от общего числа текстовых страниц? В целом тоже ничего плохого. Практика PBN-сайтов показывает, что страницы со сгенерированным контентом отлично себя чувствуют в индексе Google. Как в России, так и в бурже. Другое дело, что позиции в топ 10 вы не получите.
  • Лучше привлечь хотя бы нескольких недорогих редакторов, знающих тему, для которой вы пишите. Конечно, стоимость текста вырастет в несколько раз. В нашем случае редактура для одного текста могла составлять 2 000 рублей (мы рассчитывали это в качестве запасного плана). Но зато мы исключаем весь бред, который время от времени попадается в текстах ИИ. А это, увы, случается, особенно если задачей занимается один контент-менеджер: концентрация пропадает, процент ошибок растет — человеческий фактор.

Мы убеждены, что искусственный интеллект — отличная помощь специалистам. ИИ не заменит человека, но человек, использующий ИИ, заменит человека, который его не использует.

Да пребудет с вами сила!

И, как и обещали, делимся ссылкой на скрипт: https://gist.github.com/abi/94ffd06cf654038c75f56ff59ef2f086

Автор: Кирилл Агафонов (Ant-Team.ru).

P.s. Подписывайтесь на наш телеграм-канал t.me/seoantteam, чтобы первыми узнавать о выходе новых полезных материалов. Там мы регулярно публикуем кейсы и видеоуроки по SEO.

0
9 комментариев
Написать комментарий...
Сергей Дьяченко

Подвожу итог:
размножили НЧ запросы и создали под них страницы + AI-тексты, далее долго и пристально смотрели в GSC )).
Отличный водянистый кейс, я бы не смог растянуть 1 строку на 15500 сбп.

Ответить
Развернуть ветку
Kirill Agafonov

Сергей, спасибо за ваш комментарий.

Если очень кратко, то вы действительно правы. И очень жаль что нет пока возможности показать цифры (замазывали их всю ночь), чтобы вы тоже могли пристально смотреть на GSC.

Статья нацелена не на банальное: генерируйте контент - это работает (это статья ни о чём).

Каждый процесс расписан подробно, чтобы у любого была возможность повторить наш подход и масштабировать его на свой проект. Бери и делай по шагам.

Плюс мы на своём опыте подтверждаем гипотезу: работает ли подход - "размножили НЧ запросы и создали под них страницы + AI-тексты"?

Работает.

Ну и кому-то интересно читать лонгриды, всем не угодишь)

Ответить
Развернуть ветку
Чайка О.
размножили НЧ запросы и создали под них страницы + AI-тексты

Собственно, это типичный подход в SEO: запросы — посадочная — контент. Меняются тактики:
- один запрос — одна страница;
- кластер — страница;
- несколько кластеров — страница.
С контентом тоже самое:
- отдать хорошему копирайтеру;
- отдать плохому копирайтеру;
- сгенерировать шаблон;
- сгенерировать нейросеткой.
Какую тактику применить, зависит от ниши и ресурсов.
Какая тактика сработает — всегда вопрос. Причём сегодня ответ такой, а завтра может быть другим.

Ответить
Развернуть ветку
Ant-Team.ru
Автор

Приятно видеть человека, который понимает, что нужно делать исследования и искать наилучшее решение для проекта в плане SEO)

Ответить
Развернуть ветку
PiFagor

Это kwork.com что ли? По первым строкам угадывается именно он.

Ответить
Развернуть ветку
Jackzavr

Тоже про него подумал. Но потом смутило вот это: "У клиента уже было небольшое количество страниц под разные фриланс-услуги. Эти страницы содержали блоки с преимуществами, отзывами, небольшими кейсами и прочие."

Ответить
Развернуть ветку
Trautmori

Более легкий способ обращаться с таблиц - https://docs.google.com/spreadsheets/d/1Nx761zi5kCk2_u7ySIkzuGEKhSE3WUUi13Aqy4AEZoc/edit#gid=1317889793 (источник не мой)

Ответить
Развернуть ветку
Alfred

оставили бы ссылку на этот фриланс сайт

Ответить
Развернуть ветку
Дмитрий Пашнин

Спасибо за статью! Отрицательный результат - тоже результат :)
Впервые, наверное, вижу от вас статью, где вы прямо говорите, что что-то пошло не так!
А в целом, по итогу - правда очень познавательно. Ещё не доходили руки до массовой генерации контента с AI, так что ваш пост несомненно поможет сориентироваться при необходимости.

Ответить
Развернуть ветку
6 комментариев
Раскрывать всегда