Максим Козлов

+142
с 12.03.2026

Руковожу веб-студией АП-ИМ 17 лет. Сайты, SEO, AI-автоматизация. Всё, о чём пишу — делаем для клиентов. Вопросы — в ЛС или на сайт студии.

16 подписчиков
1 подписка

Free модели на openrouter работают не стабильно.
Но в aistudio например на gemma 4 есть жирный лимит на free tair

А где gemma-4 в этой выгрузке ?
Как по мне она круче тех что там есть сейчас.
Я даже пост про нее делал https://vc.ru/ai/2846592 =)

знакомый мужик на фото. GPT-Image 2 сгенерирован?))
мне она такого же мужика сделала)

3

Телеграм заблокирован в РФ. Значит каждый, кто им пользуется, уже сидит с нероссийским IP. Значит IP при логине и при запросе API совпадут. В чём статья-то?

Смысл КВН чтобы выходная точка была как раз не РФ =)
Пусть в авторизации и на сайте будет один зарубежный ip
Разрабы должны справиться =)

Денис, ты прав в диагнозе, но картина сложнее - и твоё же замечание про промпт это отлично показывает. Давай разберу.

Три различия между человеческой и AI-гомогенизацией:

Первое - масштаб усреднения. Книги, ТВ, друзья - локальные источники. Твой круг друзей пересекается с моим на 5%. Ты читал 200 книг, я - 300, совпадение в 20. Русский маркетолог из Питера и немецкий из Берлина обучались на разных референсах. AI ломает эту локальность: все - питерский, берлинский, бразильский, тайваньский - прогоняют мысли через те же GPT-5.4 и Claude 4.6. Это не усреднение внутри культуры, это усреднение всех культур к одному знаменателю.

Второе - характер усреднения. Человек ассимилирует книги через свой опыт: провалы в личных проектах, специфика ниши, разговоры с клиентами. На выходе - переработанная версия. LLM статистически усредняет паттерны обучения. Человек с 10 книгами + своим опытом = 11-й источник. AI с триллионом токенов = один источник, изображающий триллион.

Третье - скорость. Культурная гомогенизация шла веками. Каждое поколение вырабатывало критику предыдущего слоя - битники против мейнстрима 50-х, панки против 70-х. AI-слой развернулся за 3 года, механизм обратной связи ещё не успел возникнуть.

Теперь к твоей главной мысли - про промпт.

Ты описал ровно тот механизм, о котором я пишу в статье: AI выравнивает среднее, но не трогает верхнюю планку. Специалист, который пишет в промпт свои идеи, требования, контекст и экспертизу - получит не усреднённый ответ, а персонализированный. Но это работает только для того, у кого есть что положить в промпт. Для того, кто пишет «напиши пост про маркетинг» - на выходе будет неотличимое от конкурентов месиво. Для того, кто пишет «напиши пост для B2B-аудитории промышленного оборудования, учитывая, что мы видим вот такой паттерн в переписке с клиентами, и противопоставляя вот этой позиции конкурента» - будет уникальный результат.

Парадокс в том, что для качественного промпта нужно именно то, что AI якобы заменяет: понимание ниши, опыт, собственные идеи, критическое отношение к результату. Человек с сильным мышлением использует AI как рычаг и усиливается. Человек без собственных мыслей получает готовую усреднёнку и считает её своей работой. Первый конкурирует не с AI, а через AI. Второй становится проводником AI - интерфейсом между клиентом и моделью без добавочной стоимости.

Возвращаясь к тендеру. Ты правильно сказал, что раньше 10 агентств приносили похожие идеи. Но - похожие по направлению, разные по деталям, акцентам, формулировкам. Сейчас картина раздваивается: агентства, где стратег вложил в промпт реальное понимание клиента и отрасли - приносят дифференцированные решения. Агентства, где джун написал «сделай креатив для промышленного клиента» - приносят одинаковый AI-мусор в разной обёртке. И разрыв между этими двумя группами растёт быстрее, чем когда-либо раньше.

Это и есть расслоение, про которое я писал. Не «AI делает всех тупее», а «AI жёстко разделяет тех, кто думает, и тех, кто только кажется». Люди с сильной рамкой через промпт ещё больше усиливают свой голос. Люди без собственной рамки растворяются в AI-стиле. И граница между первыми и вторыми - именно то, про что сейчас стоит беспокоиться.

По документации клиента. Да, в 7 случаях из 10 клиент на запрос «дайте переписку с клиентами за год» отвечает «а зачем?» или «это где-то есть, надо спросить Олю». Это главный практический барьер. Но в нашей практике проблема решается не на стороне клиента, а на стороне сбора корпуса из внешних источников: отраслевые форумы, профильные Telegram-каналы, обсуждения на Habr и VC, реальные ТЗ из открытых тендеров (ЕИС-закупки - кладезь), даже отзывы на 2ГИС и Яндекс.Картах по конкурентам. Переписка клиента - идеальный источник, но не обязательный. Без неё корпус беднее, но 200-300 внешних фрагментов всё равно дают рабочую карту тем. Что реально не заменяется - это доступ к эксперту клиента для финальной валидации: правильно ли мы прочитали кластеры, не перепутали ли категории. Тут согласен полностью - без 2-3 часов с техническим директором клиента схема превращается в гадание.
По центроиду и косинусу - технически правы, и это не лечится без дообучения. Но я бы поспорил с тем, что это проваливает pipeline. Товарная карточка, выскочившая в центроид - это сигнал, что в корпусе перекос в сторону продуктового контента и мало клиентского языка. Это не баг - это диагностика структуры корпуса, которую надо исправить добавлением материала. Два ценных документа с косинусом 0.2 - да, HDBSCAN разнесёт их по разным кластерам, но при визуальном анализе на UMAP они часто оказываются в соседних регионах, и человек-аналитик связь увидит. То есть метод не самоцель, а способ сократить время эксперта: вместо чтения 400 документов - анализ 7-10 визуальных групп и точечная проверка граничных случаев.
Вывод, с которым я согласен без оговорок: это инструмент не автоматизации, а ускорения работы эксперта. Если аналитик данных не понимает предметку, а эксперт клиента не включён в процесс - вы правы, получается набор красивых инсайтов без практической нагрузки. Нужна связка «аналитик понимает инструмент + эксперт понимает нишу + общая сессия валидации результатов». Без этого pipeline даёт 30% результата от потенциала.
Что я бы дописал в статью по итогам нашей дискуссии - именно этот пункт. «Метод требует не только pipeline, но и совместной работы с экспертом клиента» - это принципиальное условие, и в моей подаче оно размыто. Вы правы, что сейчас статья читается более оптимистично, чем заслуживает практика.

Виктор, по одному пункту согласен, по трём есть что возразить.

Согласен: без эксперта в нише схема действительно не работает. Но это не уникальная проблема эмбеддингов - классический Key Collector без эксперта даёт такой же мусор, только другой фактуры. Разница в том, что мой подход даёт эксперту структурированный материал из реальных текстов отрасли, а не субъективный словарь ключевиков. Инструмент не заменяет понимание аудитории, он усиливает того, кто ей уже владеет.

По Бродеру - вы сами подсказали ответ: если транзакции отпадают и чистое инфо инженерам не нужно, остаётся ровно одно - commercial investigation, поиск технического решения под ограничения. Это и есть доминирующий интент в B2B-инженерии. Четырёхчастная таксономия Бродера для такой ниши сворачивается в одну. И как раз этот интент - «коммерческая информация по проектированию и решениям», который вы сами назвали проблемой - эмбеддинги на корпусе из переписки и тендерных ТЗ вытаскивают хорошо. Потому что в этих документах живёт именно он: «нужна система под такие-то параметры, решите проблему X». Это не инфо-запрос в смысле Википедии, но и не транзакция - это гибрид, под который нужен отдельный тип страницы.

По SERP - я его не предлагал как основной валидатор. Основной источник - внутренние данные клиента: переписка отдела продаж, тендера, разбор отказов. SERP - дополнительный сигнал, и да, в узких нишах он часто пустой. Но пустой SERP - это не провал валидации, это сигнал о возможности. Ниша недообслужена, первая качественная страница займёт топ. Для валидации интента в таких нишах работают профильные сообщества (отраслевые Telegram-каналы, инженерные форумы) и аналитика поведения уже привлечённых посетителей - не SERP.

По «дохлой кошке и милому котёнку» - технически вы правы, cosine similarity не различает полярность. Но это проблема не UMAP, а уровня представления. На уровне эмбеддингов она нерешаема, на уровне LLM-анализа кластера - решается: модель видит контекст и различает «фильтр держит нагрузку» от «фильтр не держит». Плюс в B2B оба полюса часто ценны одинаково: одна формулировка ведёт к FAQ «почему забивается», вторая - к странице «как обеспечить стабильную работу». Разделение по полярности - это дополнительный слой, а не замена семантического.

И последнее - моя статья не про «автопилот SEO». Это про инструмент структурирования первичного материала, который в B2B иначе разбирать часами вручную. Окончательная архитектура контента - всегда решение эксперта, не LLM и не UMAP.

Точное замечание - эмбеддинги не ловят интент технически, они про семантику. Но в нашем pipeline интент извлекается не из векторов, а на Шаге 4 - когда LLM анализирует кластер и отвечает на вопрос «какой контент нужен, чтобы закрыть эту потребность». Там в промпте явно разделяем: информационный запрос → статья, сравнительный → обзор, транзакционный → карточка услуги.
То есть эмбеддинги дают топологию смыслов, а интент проставляется сверху - через LLM-анализ фрагментов и через проверку SERP по найденным формулировкам (если в топе справочники и Википедия - info, если листинги - commercial, если карточки - transactional).
В статье это действительно недораскрыто - виноват, читается как «кластер = страница», хотя правильнее «кластер = тема, внутри которой нужно разделить по интентам». Поправлю в тексте.