Насколько deep ваш fake: можно ли распознать подделки на основе искусственного интеллекта?

<i>Мы попросили Midjourney перенести Папу Римского в его белом пуховике в Москву. Промпты для любопытных: Pope Francis in Moscow wearing a white-colored puffer coat, street photo, daylight, shot on Canon Mark IV --ar 4:3</i>
Мы попросили Midjourney перенести Папу Римского в его белом пуховике в Москву. Промпты для любопытных: Pope Francis in Moscow wearing a white-colored puffer coat, street photo, daylight, shot on Canon Mark IV --ar 4:3

Помните ставшую вирусной фотографию Папы Римского в белом пуховике? В марте 2023 в нее поверили буквально все — и соцсети, и СМИ. Достаточно быстро выяснилось, что фото было сгенерировано с помощью нейросети Midjourney, а в обществе с новой силой заговорили о потенциале искусственного интеллекта. Крупные СМИ выпустили материалы с объяснениями, что именно с этой картинкой не так, а модераторы социальных сетей добавили к особенно популярным постам плашки о фейке. Но, кажется, пора заводить новые отметки: не просто fake, а deepfake.

Если под «просто фейком» подразумеваются обычные подделки, которые в большинстве случаев создаются вручную с помощью редакторов изображений или видео, то deepfake-технологии основаны на использовании глубокого обучения, подвиде машинного обучения, где нейронные сети создают впечатляюще реалистичные подделки фото-, видео- или аудиозаписей, идентичных оригиналу.

И пусть нейросети, генерирующие изображения по текстовому запросу, еще иногда выдают шестипалых монстров, но за последние полгода-год их результаты стали настолько реалистичными, что разработчики уже запретили генерировать новые изображения по некоторым запросам (в основном связанным с политиками и публичными фигурами) . Такая «глубина фейковости» достигается путем обучения ИИ на больших наборах данных.

Распознавание deepfake: как отличить подделку от реальности

Парадоксальным образом, именно искусственный интеллект и машинное обучение — те же инструменты, что используются для создания deepfake, — помогают в борьбе с ними. Суть метода заключается в обучении ИИ на огромных наборах данных, включающих как подлинные, так и поддельные изображения и видео. Искусственный интеллект «учится» выявлять тонкие признаки, которые отличают deepfake от оригинала — например, странные микроэкспрессии лица, неестественное мерцание в глазах или неправильное отражение света. Своеобразная игра в «найди десять отличий» на максималках, где вместо человеческих глаз за работу берутся мощные алгоритмы, способные провести тысячи проверок в секунду. Подобные системы постоянно совершенствуются и обучаются, адаптируясь к более новым и изощренным техникам создания deepfake.

• Сервис для проверки подлинности изображения Truepic собирает информацию о том, где и когда была сделана фотография, и доказывает, если изображение было подделано.

• Project About Face от Adobe также работает над инструментом, который может обнаруживать изменения в изображении и даже попытаться восстановить его оригинальный вид.

• Microsoft Video Authenticator от Майкрософт оценивает фото и видео и определяет вероятность монтажа.

• Deepware — сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки.

• Forensically — набор бесплатных инструментов для анализа изображений.

• Image Edited анализирует фото на уровне пикселей и их цветов, определяет, были ли изменения в снимке, а если были, то в каком графическом редакторе их сделали.

• Ghiro — программа с открытым исходным кодом, которая ищет ошибки в изображениях и на их основе выявляет монтаж.

• KaiCatch распознает поддельные фото и видео с помощью ИИ. Это приложение от корейского разработчика определяет аномальные искажения лиц с точностью 90%.

В дополнение к машинному обучению есть и ручные методы, которые могут помочь в распознавании deepfake. Исследователи и эксперты по обработке изображений развили ряд техник, которые включают поиск аномалий в изображениях или видео, таких как неестественное мерцание, странные движения глаз или несоответствие между голосом и движениями губ. Кроме того, может быть полезно изучить метаданные: информацию об изображении или видео, времени создания, использованной камеры, истории редактирований и так далее. Ручные методы требуют значительных навыков и опыта.

Соцсети – первый рубеж deepfake

Социальные сети играют ключевую роль в борьбе с подделками. Это связано с тем, что они являются основными каналами распространения информации, в том числе и подделок. Соцсети и мессенджеры — своеобразные входные двери и окна, через которые может проникнуть вор. Если мы укрепим эти «входные точки» с помощью правил и регуляций, то сможем значительно затруднить жизнь злоумышленников.

Некоторые крупные платформы, такие как Facebook и Twitter, уже приняли меры для обнаружения и устранения deepfake. Facebook, например, запустил Deepfake Detection Challenge, стимулируя исследователей разработать методы обнаружения deepfake. Twitter также пересмотрел свою политику и добавляет метки к манипулятивным медиафайлам.

Цифровые водяные знаки и технологии идентификации авторства представляют собой другую линию защиты против deepfake. Они работают путем внедрения невидимых или почти невидимых меток в изображения или видео. Такие метки могут содержать информацию об авторе или оригинальном источнике, и их сложно убрать без повреждения самого медиафайла.

Но независимо от всего научно-технического прогресса, одним из наиболее мощных инструментов против deepfake является образование и осведомленность пользователей. Обучение людей признакам deepfake и тому, как им следует реагировать при обнаружении подделки, имеет огромное значение.

Совместимы ли законы, этика и дипфейки?

Регулирование deepfake и подобных технологий становится все более важным в свете их потенциального использования для дезинформации и манипуляций. На уровне стран и регионов уже существуют законы, цель которых – бороться с этим новым вызовом. В США, например, некоторые штаты приняли законы, которые запрещают создание и распространение поддельных порнографических изображений без согласия изображенных на них людей.

На международном уровне подобное регулирование все еще находится в разработке. Организация Объединенных Наций включила вопросы о deepfake и цифровой дезинформации в свою повестку дня. Европейский союз также активно работает над созданием правовой основы для борьбы с цифровыми подделками – там написали первый в мире закон, регулирующий применение ИИ (в том числе ChatGPT и Midjourney) . Однако до вступления этого закона в силу еще от полугода до года.

Дискуссия о балансе между свободой творчества, приватностью и безопасностью является одной из наиболее сложных и важных в контексте дипфейков и генеративного контента вообще. С одной стороны, технологии искусственного интеллекта, лежащие в основе, могут быть использованы для творческих и благородных целей – например, для реставрации старых фильмов, создания виртуальных ассистентов или синтеза речи для людей, страдающих от нарушений голоса. Они могут также служить средством выражения и демократизации медиаконтента. С другой стороны, возможность злоупотребления этих технологий для создания поддельных изображений и видео создает серьезные проблемы.

Ключ к балансу между этими важными ценностями, вероятно, лежит в разумном регулировании и образовании. Это может включать в себя юридические меры против неправомерного использования технологии deepfake, вместе с просветительской работой, направленной на обучение людей использованию и распознаванию подделок.

66
1 комментарий

Я поверила в эту фотографию Папы Римского, не нравится. Смешно что искусственный интеллект будет отличать то что сгенерировал другой?(или тот же?) искусственный интеллект. И где гарантия что он будет говорить правду?
Сервисы в посте интересные, спасибо, возможно пригодятся. Вообще не понимаю что с этими фэйками делать - обозначать? А что если завтра кто-то захочет фэйком обозначать то что ему просто не нравится? Что тогда? Тонкая грань между адекватностью и цензурой.
Но за реставрацию древнего кино и помощи людям с нарушениями голоса можно многое технологиям простить.