Никита Шорин

+192
с 2023

Создаю ИИ Агентов для бизнеса в AIBot.Direct 🧩 Обучаю ИИ Автоматизации: https://youtube.com/@shorin_nikita

77 подписчиков
9 подписок

Хороший аргумент, но он стоит на неверной посылке.

Вы представляете AI-агента как человека с блокнотом, который открывает файлики и правит их руками. Как в 2002 году. Но это не так.

«Пересобираете сайт заново» — нет. Статьи у нас хранятся в PostgreSQL, не в файлах. Агент работает с базой данных точно так же, как любая CMS — только без админ-панели, без ORM, без рендер-движка и без уязвимостей во всей этой цепочке. Если завтра понадобится каталог на 5000 товаров — они тоже будут лежать в Postgres на том же сервере. Это не «файлики 2002 года» — это полноценный стек, просто без лишних прослоек.

«Когда файлов станет 600, затраты возрастут» — в этом и есть ключевое непонимание. AI-агенту всё равно, 6 записей в базе или 6000. Команда «замени номер телефона на всех страницах» — один SQL-запрос, секунда. Команда «добавь FAQ-блок ко всем статьям, где его нет» — тоже одна команда. Масштабирование — это не проблема, а сильная сторона подхода.

«Нужна подписка на AI и разобраться в агентах» — соглашусь, порог входа есть. Это не drag-and-drop конструктор. Но это путь изобилия: вы можете упаковать в агента любую логику, а не пользоваться только тем, что предоставил вендор. Хотите автоматическую генерацию статей с SEO-разметкой? Пожалуйста. Хотите анализ конкурентов перед каждой публикацией? Добавьте в пайплайн. На Тильде или Битриксе вы ограничены набором плагинов. Здесь ограничений нет.

«Потом построите свой велосипед, потом придёте к Вордпрессу» — CMS появились, чтобы решить проблему: люди медленно редактируют файлы. AI-агенты решают ту же проблему, но без прослойки. Говорить «вы вернётесь к Вордпрессу» — это как говорить создателям электрокаров «вы вернётесь к бензину, потому что мы тоже начинали с простых моторов».

И самое важное: сравнивать AI-агента с CMS — это как сравнивать смартфон с калькулятором. Да, оба умеют считать. Но CMS — это инструмент для управления контентом. AI-агент — это универсальная система, где управление сайтом — лишь один скилл из тридцати. У меня настроены скиллы для экспорта и анализа Telegram-чатов, создания диаграмм и инфографик, генерации видео через Grok, анализа трендов, аудита сайтов и даже генерации изображений. Вот видео, где я демонстрирую это в деле: https://youtu.be/YiwPIkaTEpM. На канале также есть видео: процесс создания SEO-статьи от анализа ключевых слов до публикации. Написание статей в блог — это буквально одна функция из тридцати. И всё это — полный open source на одном сервере. Никаких вендорлоков, никаких лицензий. Весь стек принадлежит мне.

Вордпресс был отличным решением для своего времени. Битрикс — тоже. Но сейчас появился инструмент, который делает промежуточный слой ненужным. Можно с этим спорить, а можно посмотреть, куда идёт рынок.

P.S. Подписка на AI — от $20/мес. Час разработчика Битрикс — от 2000 ₽. Одно обновление сайта на Битриксе «поменять баннер и текст на главной» — это сколько по времени и деньгам? У меня — голосовая команда и 10 секунд.

Спасибо за развёрнутый комментарий — видно, что в теме. Отвечу по пунктам.

1. «Однотипные блоки — это и есть SEO»

Вы путаете структуру страницы (H1, блоки преимуществ, CTA) со сгенерированным кодом. Да, структура должна быть как у топов — это базовое SEO. Но когда Тильда генерирует одинаковый HTML/CSS/JS на тысячи сайтов — поисковику сложнее выделить ваш. Уникальный чистый код и уникальная структура — разные вещи. Первое — про реализацию, второе — про содержание. Мы делаем и то, и то.

2. «Скорость не важна»

Core Web Vitals — подтверждённый фактор ранжирования Google с 2021 года. Да, не главный. Но при прочих равных — быстрый сайт выигрывает. А «прочие равные» — это как раз ситуация, когда все конкуренты на одном конструкторе. Мы убираем этот риск полностью: 0.1 сек загрузки, 100/100 PageSpeed. Зачем оставлять слабое место, если можно не оставлять?

3. «Иркутск — это скрипт выбора города»

Нет. У строительной компании из Балашова не было никакого скрипта выбора города. Это был захардкоженный текст в структурированных данных (Schema.org), которые поисковики читают напрямую. Яндекс действительно рендерит JavaScript — но structured data он берёт как есть. Именно поэтому сайт не ранжировался по «строительство домов Балашов». После переноса на чистый код и исправления разметки — стал.

4. «По каким ключевым словам топ-7?»

Средняя позиция 7.4 — агрегат Google Search Console по всем запросам с показами. Основной трафик — информационные запросы из блога. Мы это и не скрываем. Стратегия: информационный контент, трафик, конверсия. Стандартная воронка контент-маркетинга, работает в любой нише.

5. «Трафик только на статьях»

Именно. Контент-маркетинг — это не баг, это фича. 36 статей, каждая под конкретный поисковый запрос. Статья «Как оплатить ИИ из России» собирает людей, которым нужен ИИ — часть из них становится клиентами. Это и есть SEO-стратегия. Или вы считаете, что SEO — это только коммерческие запросы?

6. «Как редактировать самопис без CMS?»

И вот тут самое интересное — потому что этот вопрос показывает, что вы пока не видите, что произошло в индустрии.

Я не редактирую сайт руками. Я говорю AI-агенту голосом: «обнови тарифы, было 5000, стало 7000» — он находит файл, меняет, деплоит. Новая статья? «Напиши статью про X, опубликуй в блог» — готово.

Но это даже не главное. Я создаю скиллы (Claude Skills)— готовые пайплайны, где одной командой запускается полный цикл: анализ трендов через Google Trends, YouTube API и Яндекс.Вордстат, подбор ключевых слов, написание статьи, SEO-оптимизация, генерация FAQ, разметка Schema.org, создание OG-картинки, мобильная версия, публикация. Всё за одно действие. Весь пайплайн от идеи до опубликованной статьи с полной SEO-разметкой и индексом в Гугл и Яндекс.

Сколько времени займёт сделать это через ваш CMS? Скорее всего она не делает и половину этих действий, даже в полу-ручном режиме, что уж говорить о полной автоматизации.

CMS не нужна, когда AI-агент и есть ваша CMS. Только без 11 000 уязвимостей WordPress, без 300 КБ скриптов Тильды и без необходимости нанимать разработчика на каждое изменение.

---

И напоследок. Вы начали с того, что я «не понимаю ничего ни в коде, ни в SEO, ни в сайтах». Я не mass-produce сайты на Битриксе — это правда. Я строю систему, где AI-агент за минуты делает то, на что раньше уходили дни. 36 сайтов на чистом коде, работающие пайплайны от анализа трендов до публикации, трафик из поиска без единого купленного рубля ссылок.

Это не спор «Тильда vs код». Это спор «ручной труд vs автоматизация». И мне кажется, вы спорите не со мной — а с направлением, в котором движется вся индустрия.

Всё зависит от специфики бизнеса.

ИИ агент лишь обрабатывает входящий поток трафика, квалифицирует его в срм [заполняет поля, переводит на нужный статус, ставит задачу менеджеру на основе проделанного диалога], уведомляет руководство, делает персонализированный авто-дожим на основе выявленных потребностей клиента через 2ч и 24ч [если заявка не сформирована органичном путем - входе диалога]. По итогу ИИ передаёт менеджеру горячего клиента с рекомендациями. После этого кожаный сотрудник подключается к делу.

Последующими этапа в виде автоматического формирования КП, подготовки договора и счёта вас уже вряд ли удивить :D тут даже ИИ не нужен.

Связку с подобным функционал демонстрировал в своём ютюбе "ИИ в отдел продаж".

P.S. Вы писали о бизнес/смарт процессах, по факту это разные "винтики" одной системы. ИИ лишь усиливает эту систему.

1

Какие из моделей CPU норм для взаимодействия на русском? я пробовал не все, конечно же. Но из тех, что пробовал gemma 3 показалась хорошей, результат больше понравился, чем у китайских моделей.

Хоть на свой компьютер, система гибкая и устанавливается на любую систему с докером

Сейчас Дуров запустил cocoon, это должно сделать использование сильных моделей дешевле. Посмотрим, как будет на практике :D

Модели можно добавлять любые, все которые доступны в ollama и любую облачную модель.

2

Вы можете использовать коммерческие модели, система позволяет это делать. Например, GPT-5.1, Claude Sonnet 4.5, Grok 4.1 - конечно это уже не будет подходить под законы РФ касательно обработки персональных данных. Но для личного использования почему бы и нет?

Также есть возможность подключить модель от Yandex - такой подход позволит использовать облачную (не локальную) модель, и как следствие не нужен будет дорогой сервак.

2

Здравствуйте! На счёт всех курсов не скажу) Но могу сказать, что для продуктивного общения с ИИ действительно нужно обладать знаниями промптинга, но для этого не обязательно знать языки программирования, так как ИИ хорошо понимает естественный язык, включая русский язык. На моём ютюб канале, я не раз демонстрировал, как с помощью правильно подобранных слов можно делать виртуальных сотрудников, писать контент и многое другое.