Как относиться к ИИ-контенту в 2025
Проблема уже не в том, что ИИ появился. Проблема в другом: ИИ-контент стал массовым, похожим друг на друга и часто безответственным. Пользователь устал от потока и начал защищаться простыми правилами: "выглядит искусственно - не доверяю", "скрывают использование - не уважают". Это напрямую бьет по брендам, потому что доверие в 2025 решает больше, чем технологичность.
Что именно исследовали LAMPA и Rambler&Co
Опрос провели на ресурсах медиахолдинга Rambler&Co с 27 ноября по 4 декабря 2025 года. Участвовали 127 726 интернет-пользователей.
Это важно: выборка огромная, и вопросы не в контексте "любите ли вы нейросети", а про поведение и восприятие - замечают ли рост, как распознают, как реагируют на бренды.
Ключевые цифры исследования
Эти три блока дают простой вывод: аудитория не награждает бренд за использование ИИ, но быстро штрафует за два триггера - неестественность и попытку спрятать источник.
Как лично я к этому отношусь с точки зрения маркетинга
Я отношусь к ИИ-контенту как к производственному инструменту, а не как к идеологии бренда (хотя, очень многие начали к этому стремиться). Он помогает быстрее выпускать вариации, локализации, адаптации, черновики. Но он же повышает риск: люди видят одинаковость и считывают ее как экономию на качестве, а скрытность - как манипуляцию. Опрос это подтверждает цифрами: половина аудитории ухудшает отношение к брендам, которые прячут использование ИИ.
Поэтому моя позиция такая:
- я использую ИИ там, где он ускоряет и не ломает доверие;
- я ставлю человека на финальный контроль везде, где есть факты, обещания, влияние на решения;
- я маркирую роль ИИ коротко и понятно, чтобы не ловить минус за сокрытие.
Практический принцип: оценивайте ИИ-контент по цене ошибки
У пользователя сейчас один главный вопрос: "могу ли я доверять?". Значит, в маркетинге нельзя оценивать ИИ-контент только по CTR и скорости выпуска.
Я делю бы рекомендовал делить задачи на три уровня.
Низкий риск: баннеры, ресайзы, варианты заголовков, адаптации под каналы, черновики карточек товаров. Здесь ИИ дает экономию, а ошибки редко приводят к серьезным последствиям.
Средний риск: статьи, кейсы, обзоры, экспертные объяснения продукта. Здесь ИИ может помочь со структурой и черновиком, но человек проверяет факты, примеры, цифры и формулировки.
Высокий риск: здоровье, финансы, право, безопасность, кризисные коммуникации, публичные обещания. Здесь ИИ не должен быть автором. Он может помогать, но ответственность и проверка остаются на людях.
Маркировка: не юридический текст, а снятие подозрения
В опросе есть конкретный сигнал: 16% принимают ИИ только при указании, а 26% воспринимают отсутствие маркировки как нечестность.
Маркировка должна отвечать на вопрос "какую роль сыграл ИИ", а не просто ставить галочку. Скорее всего скоро будут тестироваться два формата:
- Иллюстрация создана с помощью ИИ.
- Текст подготовлен с помощью ИИ и отредактирован редактором.
Этого хватает, чтобы убрать ощущение, что бренд что-то прячет. И в этом нет абсолютно ничего плохого. Для кого под конец 2025 года остается секретом то, что нейросети могут генерировать изображения и видео с отличным качеством и детализацией? Мы же это принимаем.
Мировые кейсы: где ИИ помог, а где ударил по бренду
Coca-Cola, 2025: компания выпустила очередную ИИ-генерированную рождественскую рекламу и снова получила волну критики за неестественность и неуютный визуал. Важно, что это уже второй год подряд с похожей реакцией. Вывод для маркетинга простой: массовая аудитория не прощает нейро-глянец, особенно в эмоциональных категориях.
Toys "R" Us, 2024: ролик, сделанный с помощью генеративного видео, вызвал резкую полемику и критику за неживой результат и странные детали. Кейc хорошо показывает, как быстро обсуждение уходит от "крутая технология" к "почему это выглядит дешево и тревожно".
McDonald's (Нидерланды), декабрь 2025: сеть сняла с публикации ИИ-сгенерированную рождественскую рекламу после негативной реакции и обвинений в AI slop. Тут урок еще жестче: когда бренд заменяет человеческую эмоциональную режиссуру генерацией и не доводит результат руками, публика это замечает за секунды.
Heinz, AI Ketchup: пример другой логики. Бренд использовал генеративные картинки как идею кампании и доказательство узнаваемости продукта, а не как замену креативу и продакшену. Это сработало именно потому, что ИИ стал инструментом в концепции, а не способом сэкономить на качестве.
Что делать, чтобы ИИ-контент работал, а не снижал доверие?
Я бы выстроил это как процесс, а не как разовые удачные промпты. ИИ должен иметь четкую роль в производстве. В одних задачах он дает варианты и ускоряет адаптацию под каналы, в других помогает собрать структуру или сделать черновик, а в некоторых темах его лучше вообще не использовать. Как только роль не определена, в контенте появляются случайные публикации - и именно они чаще всего выглядят искусственно и раздражают.
Дальше нужен стандарт доказательности. Для текстов это простые вещи: источники, даты, цифры, формулировки, которые можно проверить. Для визуала - ограничение на универсальные нейро-картинки в чувствительных темах и требования к правдоподобию деталей. Чем легче аудитории проверить и понять, что перед ней, тем меньше подозрений и меньше ощущения, что бренд экономит на качестве.
Редактуру стоит сделать измеримой. Не в смысле бюрократии, а в смысле понятных критериев финала. Я бы доводил ИИ-черновики по одному и тому же маршруту: убрать шаблонные обороты, добавить фактуру и конкретику, перепроверить факты и имена, пройтись по рисковым обещаниям, привести тон к голосу бренда. Тогда ИИ остается быстрым генератором заготовок, а не производителем однотипного шума.
🔥🔥🔥Подписывайтесь на мой ТГ-канал, там я рассказываю про нейросети и автоматизацию. Вы там точно найдете много полезного! 👇👇👇