Как отличить контент, созданный ИИ

Инструменты и лайфхаки, которые помогут распознать «пластиковый контент».

Как отличить контент, созданный ИИ

Каждый месяц в интернете появляются новые фейковые фото, видео и тексты, созданные нейросетями. По данным Originality.ai на январь 2025 года, каждая пятая ссылка в результатах поиска Google ведёт на сгенерированный текст. Год назад таких было чуть больше 10%, а до появления ChatGPT — всего 2,3%.

При этом всё чаще контент от ИИ становится инструментом давления: на бизнес, репутацию, общественное мнение. В этой статье собрали основные признаки, по которым можно распознать контент от нейросети.

Признаки сгенерированного текста

Современные LLM-модели учатся на миллиардах текстов, поэтому могут писать связные и стилистически ровные материалы. Но именно в этом их слабость.

Ниже — признаки, по которым можно определить, что перед вами текст не от эксперта, а от алгоритма.

Как отличить контент, созданный ИИ

1. Водность текста. Нейросети умеют писать много и ни о чём. Например, на вопрос «Как управлять командой в кризис?» модель может выдать:

«В условиях кризиса особенно важно сохранять сплочённость коллектива, поддерживать мотивацию и налаживать чёткую коммуникацию».

Формально всё верно, но такой совет не применить на практике. Нет инструментов, примеров, даже намёка на личный опыт.

2. Ложные факты. ИИ может уверенно сочинять детали, которых не существует. Например, в мае 2025 года газета Chicago Sun-Times опубликовала список книг на лето. Из 15 произведений в перечне 10 оказались вымышленными. Все они были приписаны известным авторам: Исабель Альенде, Энди Вейру, Брит Беннетт.

Список книг на лето от Chicago Sun-Times, который не так-то легко прочитать. Источник: Chicago Tribune
Список книг на лето от Chicago Sun-Times, который не так-то легко прочитать. Источник: Chicago Tribune

У книг были даже описания в духе: «Сага о нескольких поколениях, действие которой происходит в прибрежном городке, где магический реализм встречается с экологическим активизмом».

Материал выглядел профессионально и убедительно — ровно до тех пор, пока журналисты не начали проверять факты.

3. Идеально чистый текст. В работе человека почти всегда проскакивают мелкие огрехи: опечатки, повторы слов, особенности ритма. Текст от ИИ — безукоризненно чистый, но из-за этого он теряет индивидуальность.

К примеру, пользователи X (ранее Twitter) заметили: нейросети часто используют в текстах длинные тире.

«Простой способ определить, написано ли что-то ИИ: модель использует символ "—" на протяжении всего текста. Люди пишут его довольно редко, может быть, один или два раза. Но чат-боты любят его использовать. Понятия не имею почему»
«Простой способ определить, написано ли что-то ИИ: модель использует символ "—" на протяжении всего текста. Люди пишут его довольно редко, может быть, один или два раза. Но чат-боты любят его использовать. Понятия не имею почему»

Всё пошло от HR-специалистов. Они стали массово жаловаться на резюме, которые выглядели «подозрительно идеально» и почти все были усыпаны такими символами. Теперь некоторые рекрутеры считают это новым ред флагом.

4. Отсутствие эмоций. ИИ чаще пишет по шаблону. Он не добавит неуместной грубости, не рискнёт пошутить не по теме и не напишет что-то слишком личное. Всё очень правильно, гладко и обтекаемо.

Типичный пример: «Иногда бывает трудно, но вы справитесь — просто верьте в себя». Формально фраза поддерживающая, но на деле пустая. Не чувствуешь, что её написал человек, который действительно через что-то прошёл.

В живом тексте эмоции редко бывают отшлифованными.

Там могут быть:

  • личные подробности: «Я неделю просто лежал и смотрел в потолок, потому что не знал, как вытянуть проект»;
  • резкие реакции: «Это бесило так, что я готов был разбить клавиатуру»;
  • противоречия: «Было страшно, но и как-то по-хорошему волнительно — как в детстве перед экзаменом».

5. Структура по шаблону. Для человека структура — это инструмент. Он может начать с вывода, пропустить пункты, поиграть с формой. У ИИ чаще всего структура — это скелет, на который натянут остальной текст.

Нейросети любят работать по знакомым схемам. Сначала — вежливое вступление, потом список (обязательно с цифрами или пунктами), в конце — мораль и вывод. Всё строго по шаблону.

Что может выдать ИИ:

  • слишком гладкая логика — без отклонений, сомнений и реальных примеров;
  • избитые формулировки — «в современном мире», «важно понимать, что…», «не стоит забывать…»;
  • одинаковая длина пунктов в списках, как будто текст выровнен под линейку;
  • отсутствие настоящего голоса — юмора, сомнений, личного опыта.

Признаки сгенерированного изображения

Как отличить контент, созданный ИИ

В мае 2024 года в соцсетях разлетелась фотография Кэти Перри с Met Gala. Изображение собрало миллионы лайков. Но оказалось, что певица вообще не приезжала на мероприятие — всё сгенерировал ИИ. Многие поверили сразу, потому что картинка выглядела «слишком красиво, чтобы быть фейком». А зря!

То самое фейковое фото Кэти Перри
То самое фейковое фото Кэти Перри

Вот признаки, по которым можно распознать работу нейросети:

1. Ошибки в мелочах. Чем меньше деталь, тем выше шанс, что ИИ не сможет её нарисовать правильно. Классика: лишние или кривые пальцы, уши без формы, странные тени.

Человека с шестью пальцами на упаковке чипсов не обсуждал только ленивый
Человека с шестью пальцами на упаковке чипсов не обсуждал только ленивый

Это касается и фона: вывески, этикетки, подписи на документах часто превращаются в визуальный шум. Даже если в целом картинка правдоподобна, присмотритесь — текст выдаёт фальшь.

У людей неестественно ровные позы, а вывеска на заднем плане нечитаема. Изображение: ChatGPT
У людей неестественно ровные позы, а вывеска на заднем плане нечитаема. Изображение: ChatGPT

Иногда на изображении появляются «пузырящиеся» участки — пиксели, смазанные края, нелогичные слияния объектов. Например, часть стула переходит в руку или дерево врастает в человека.

2. Повторы лиц, поз и предметов. Если в кадре несколько человек, посмотрите внимательно: часто ИИ копирует части одного лица на другое или делает людей подозрительно похожими. Может повторяться выражение лица, направление взгляда или даже изгиб рук.

А ещё дублироваться могут не только люди, но и предметы в кадре. Две одинаковые сумки, три клонированных дерева, стулья под копирку. Это не всегда бросается в глаза сразу — нужно присмотреться.

Деревья на заднем плане абсолютно одинаковые — это выдаёт генерацию. Изображение: ChatGPT
Деревья на заднем плане абсолютно одинаковые — это выдаёт генерацию. Изображение: ChatGPT

3. Высокое или слишком низкое качество. Изображения от ИИ часто выдают технические параметры.

Например, фотография может выглядеть глянцевой, как из каталога. Оттенок кожи ровный, одежда сидит идеально, а освещение без шумов и бликов, даже если фото снято на улице. Такое качество — редкость даже для профи, особенно при «живой» съёмке.

Бывает и обратная ситуация. ИИ может хорошо сгенерировать общий образ, но при увеличении видно: текстуры плывут, а линии не сходятся. Особенно страдают:

  • украшения: серьги и цепочки могут расплываться или врастать в кожу;
  • волосы: отдельные пряди слипаются;
  • края предметов: линии неестественно рваные или обведены лёгким свечением.

Если картинка выглядит слишком красиво — увеличьте её. Посмотрите на пальцы, волосы, текстуры и фон. Часто именно там нейросеть оставляет следы своей работы.

Признаки сгенерированного видео

Как отличить контент, созданный ИИ

Если с фотографией всё более-менее понятно — можно рассматривать детали, увеличивать изображение, искать артефакты — то с видео сложнее. Картинка движется, и мозг подсознательно верит тому, что видит в динамике. Но именно это делает дипфейки опаснее.

Вот на что стоит обращать внимание.

1. «Восковая» кожа и искажения при движении головы. Часто фейковое видео выдаёт лицо.

Вот признаки, которые помогут заподозрить подделку:

  • Слишком гладкая кожа. Лицо выглядит отретушированным — без пор, складок, мимических морщин. У реального человека даже при хорошем освещении на коже заметны мелкие неровности и текстура. А тут всё как из воска.
  • Провалы в шее и челюсти. При поворотах головы ИИ не всегда корректно «пересчитывает» форму лица. В результате появляются артефакты: будто бы кусок челюсти сдвинулся или шея на мгновение исчезла.
  • Размытие и дрожание контура. Когда человек резко двигается, особенно поворачивает голову, в дипфейке контуры лица могут плыть, размываться или сливаться с фоном.

2. Фон живёт своей жизнью. Задний план в фейковых видео может быть чересчур неподвижным, как в театральной декорации.

Или наоборот — странно двигаться:

  • элементы «дрожат», будто слабо прорисованы;
  • контраст между объектом и фоном слишком резкий, нет естественной глубины;
  • свет на лице и на фоне — будто из разных источников.

Совет. Чтобы проверить, достоверно ли видео, поставьте его на паузу в момент движения. Посмотрите на кожу, шею, челюсть, линию волос и фон. Любые резкие провалы, неестественные тени, размытие или склейки — тревожный сигнал. Особенно если качество видео вроде бы высокое.

Что делать, если вы подозреваете фейк: чек-лист

1. Проверьте источник. Убедитесь, что публикация размещена на авторитетном сайте — хотя и здесь бывают казусы. Если вы нашли информацию в соцсетях, обратите внимание на дату создания аккаунта, количество друзей. Насторожить должны анонимность автора, однодневный аккаунт и отсутствие других публикаций.

2. Сравните с другими источниками. Попробуйте найти подтверждение фактов в независимых медиа. Если новость важная, о ней точно напишут несколько источников. Отсутствие альтернативных публикаций — повод насторожиться.

3. Используйте реверс-поиск. Проверьте изображения через поиск по фото в Google или Яндекс. Для видео используйте расширение InVID или функцию раскадровки, чтобы проверить отдельные кадры.

4. Обратитесь к фактчекерам. Уточните у специализированных проектов (Лапша Медиа, Provereno.Media), изучали ли они этот материал. Если нет — отправьте ссылку через форму обратной связи. Многие редакции оперативно реагируют на подобные обращения.

5. Не распространяйте сомнительное. Даже если хотите «просто поделиться» или «спросить мнение» — это может сыграть на руку распространителям фейков. Пока информация не подтверждена, лучше отложить репост или пересылку.

4
Начать дискуссию