Такой же результат мы могли бы получить в окне чата, но это слишком медленно для наших задач. Тем более, почти всегда нужно использовать больше одной поисковой фразы. Соответственно, нам нужно как-то отправить сразу много фраз для ChatGPT с привязкой к URL, чтобы в итоге свети все в единую таблицу с URL и Meta Description.
Приветствую, Александр! 👋
У нас фразы вида «Сгенерированный Meta Description:» и подобные не появлялись на выборках в несколько тысяч Description. Возможно, потому что мы используем немного иные формулировки promt-ов для ChatGPT https://vc.ru/seo/620941-ispolzuem-iskusstvennyy-intellekt-v-seo-i-ekonomim-denyuzhki-klienta
Поглядите, может наш подход поможет вам избавится от них.
Добавим свои 5 копеек, чтобы сделать работу seo-специалистов с ChatGPT эффективнее:
- Promt-ы на английском формируют более качественный ответ. В варианте с Description мы отправляем promt на английском, но просим ответ сформировать уже на русском.
- В бесплатной версии ограничение 20 запросов в минуту по API – вдруг кто-то хочет знать точное число 😆
- Очень важный момент ⚠️⚠️⚠️ для тех, кто использует платную версию – если вы сохранили формулу в Google Data Sheets по вашему примеру =GPT(A2), то при каждом новом открытии документа Google Data Sheets формула будет пересоздавать результаты. При наличии десятков тысяч Description это может быстро опустошить баланс аккаунта. Не забывайте отключать работу формулы на уже сгенерированном диапазоне.
При работе с большими ядрами, для генерации под большое количество страниц отпадает необходимость прорабатывать словоформы и последовательность слов для того, чтобы текст описаний выглядел естественным. Это особенно актуально при работе с большим количеством разноплановых категорий, относящихся к разным разделам и т.п. То есть один раз составив корректное задание для GPT мы можем “не беспокоиться” о том, что часть сгенерированных результатов буде содержать “кривые” с точки зрения русского (и любого другого поддерживаемого) языка фразы. Кроме этого, отпадает необходимость ручной проработки, например Title для включения туда слов из запросов и т.п.
Метод не лишен недостатков и экономит время на больших объемах при массовой оптимизации, когда речь идет о сотнях или тысячах страниц.
Добавлю, что в статье показан сам принцип, проиллюстрированный генерацией на основе семантики, но есть задачи, на которых можно сэкономить еще больше времени.
Например, создание описаний на основе параметров товаров и поисковых запросов, мэппинг данных, создание списков ключевых моментов, которые необходимо раскрыть в контенте на основе запросов для страницы, масоовое автоматическое создание структуры текстов для информационных страниц на основе ранее спаршенного контента (или заголовков) от конкурентов и т.п.
Святослав, приветствую!
Благодарю за уточнения, однако, что касается промтов на английском (делали под бурж, магазин одежды, около 15 000 страниц), я также получал в некоторых случаях (грубая оценка от 2% до 5%) нечто вроде: "Meta Description text: " с самим текстом, следующим после такого анонса. Аналогично было для некоторых Title и H1 (H1: текст или <H1>Текст</H1>). Возможно проблема характерна для некоторых тематик и вызвана особенностями процесса обучения модели. Тем не менее, вы правы, как было сказано в статье, это лечится исправлениями promt, а также проверкой сгененированного контента по списку.
Вариант "промт английском - результат на русском" не проверял, воспользуюсь рекомендацией :)
Буквально сегодня пришла идея формировать мета теги через нейросеть, пробовал, но не было примера формирования правила. Спасибо за пример! Буду экспериментировать. Насколько я понимаю, там платный доступ по API?
До 20 запросов к API в минуту - бесплатно. Если больше, то - да, доступ платный, но цена адекватная. Подписки на API как таковой нет, оплачивается расход токенов постфактум.
О, да! Кто же не мечтает о том, чтобы нейросеть делала всю работу за него? Ну а чего еще ожидать от такого опытного SEO-консультанта и Team Lead? Он же знает, как лучше всего автоматизировать процессы, чтобы не приходилось напрягаться и думать самому. А что, если нейросеть начнет писать статьи лучше, чем человек? Ну а что, если она займет нашу работу и мы останемся без работы? Не беда, мы же SEO-специалисты, найдем себе новую нишу, например, будем обучать нейросети. Да, друзья, будущее уже здесь, и оно автоматизированное!
У вас очень интересная продуктивность создания комментариев: 50 000 символов за последний час, если исключить заголовки и т.п., предположим, что будет 25 000 символов. И во всех прослеживается похожий паттерн. Если не секрет, скажите каким образом создавали промты (можно в личку). Объемы текстов многих статей на VC, которые вы прокомментировали, превышают лимиты в ChatGPT.