Блог digital-агентства Ant-Team.ru. Экспертные статьи по SEO.
Если есть проблема нестабильных хостингов, то это решение поможет избежать потери данных и минимизировать время простоя
Спасибо! Используйте нашу технологию, и такого больше не повторится)
на сегодняшний день аналогов CF нет
Будем рады, если статья принесет вам пользу
Да, технология абсолютно рабочая, проверена нашим агентством)
Да, бекапирование, безусловно, очень важно. Но здесь мы описываем технологию по синхронизации баз данных между разными хостингами.
Это не про бекапы.
Тут с одного сайта мы сливаем инфу на другой, мы копируем только базу данных
CDN Cloudflare - бесплатный, балансировщик обойдется в 5 долларов в месяц, и 2 хостинга тоже необходимо оплачивать.
Нет, это не то. Бекапы вас берегут от ваших ошибок. А описание в статье помогает бесперебойной работе сайтов.
Спасибо! Доля лукавства, конечно, есть) Но большая часть из этих 12 часов ушла на составление промптов и тестирование моделей. Единожды проделав эту работу, мы выработали готовую схему, по которой теперь будем тратить на задачу те самые 3 часа)
Мы с удовольствием прочитаем ваш кейс, где вы вручную проработаете 13+ тыс.карточек товаров и сделаете это выгодно для бизнеса) Ведь речь идет не про маленький проект, а про массовое наполнение пустых описаний. Мы решали нашу задачу таким способом, и он оказался для нас оптимальным.
Простановка ссылок с морд на страницы 2/3 вложенности - это элемент меню-каталог, который реализован на любом сайте интернет-магазина. Этот метод тоже "не так уж нов") Но мы будем рады почитать ваши кейсы и оценить реальные результаты.
И это только начало)
Спасибо! Да, иногда самый очевидный вариант - не самый оптимальный)
Времени и денег клиента)
Результат заметен не сразу, сначала нужно, чтобы достаточное для анализа количество пользователей посетило достаточное количество карточек (200+), а это происходит не за один день. Для бизнеса результат в итоге оказался положительный в плане уменьшения отказов с карточек товаров и времени нахождения пользователя на этих страницах
Это все здорово, но это очень много ручного труда, объем задачи (более 13 тыс. пустых карточек) как раз и привел к необходимости генерации. Сколько таких тщательно выверенных описаний можно подготовить за месяц? Сколько это будет стоить? И будет ли это выгодно бизнесу? Слишком объемная для ручного труда задача и вынудила нас искать другое решение для клиента и автоматизировать этот процесс. И с такой проблемой часто сталкиваются большие ИМ и маркетплейсы.
Кроме того, многие товары были мелочевкой вроде болтиков, гаек, пружин - в каталоге не только крупная техника. Для таких мелких товаров даже нет никакого описания от производителя.
Автоматизировано проверяли все тексты - сортировками, фильтрациями, формулами. Перед началом генерации мы тщательно протестировали составленный шаблон промпта, чтобы он не выдавал ерунду на большой выборке. Если вместо текста описания генерируется сообщение об ошибке - его легко найти фильтрацией. Также можно второй раз отправить весь массив текстов в api и попросить в промпте проверить текст, а в ответе вернуть булево значение 1 или 0, в зависимости от корректности текста, таким образом можно сделать "ручную" проверку каждого текста с помощью ИИ
Такой метод можно использовать:
1. На сайтах услуг, чтобы заполнять описания услуг, но там нужно больше контроля к качеству текстов и ручная проверка.
2. При подготовке отзывов на площадки.
3. При создании метатегов для страниц вместо шаблонных метатегов.
Можно придумать и другие применения, все зависит от ваших задач)
по времени:
10 минут — запуск парсинга, сам процесс занимает 1-2 часа.
6 часов — составление промптов и тестирование моделей в первый раз.
10 минут — настройка и запуск скрипта на Python. 2-3 часа ушло на его выполнение.
Ну для нашей задачи Пайтона хватило)
Точно)
Спасибо! Рады, что вам понравилось.
Спасибо! Да, Python решает
аха-ха) будущее все ближе)
точно))
Около часа. Проверяем автоматизировано. Изначально при составлении промптов для модели мы проводили тестирование и добились результата без ошибок на большой выборке, поэтому плохих текстов получилось всего 1-2%
Сбер гигачат обучается на русскоязычных текстах, но его обучающая выборка данных меньше и он не такой умный, как gpt. Поэтому да, хуже. А еще не уверены, что у Сбера есть возможность работы по api задешево
Спасибо! Мы рады, что статья полезна)
Задача вполне выполнимая, но тут надо тестировать, т.к. есть риск схватить от сервера превышение времени выполнения. А также с ОЗУ, вероятно, будут проблемы. Скорее всего, надо будет дорабатывать.