Современные технологии выявления дипфейков, созданных искусственным интеллектом

Современные технологии выявления дипфейков, созданных искусственным интеллектом

Сегодня дипфейки - это развивающаяся форма искусственного интеллекта. Они заставляют поверить в реальность того, что на самом деле лишь подборка поддельного фото- видео- и аудио контента, призванного одурачить вас. Всплеск так называемых “фейковых новостей” и мошенничеств с подменой изображения и голоса, произошедший в последнее время, это наглядно демонстрирует. «Фейковые новости» существуют веками, но благодаря простоте создания и распространения, сейчас они наносят гораздо больший вред,

С момента первого появления в 2017 году ролика, где лицо актрисы и модели Галь Гадот было наложено на реальное порнографическое видео, алгоритмы, изменяющие внешность и голоса в аудиовизуальном контенте, эволюционировали до мобильных приложений и веб-сервисов, доступных обычным пользователям.

Но угроза дипфейков и синтетических медиа исходит не от технологии их создания, а от природной склонности людей верить в то, что они видят.

Вот две показательные истории использования и распространения дипфейков, которые произошли в последнее время.

В феврале этого года газета South China Morning Post сообщила о финансовых потерях на сумму 200 миллионов гонконгских долларов (25,6 миллиона долларов США), понесенных офисом транснациональной компании в Гонконге, название которой не раскрывается, из-за мошенничества с использованием технологии дипфейк.

Все началось с фишингового сообщения от финансового директора компании из Великобритании о проведении секретной транзакции, которое получил сотрудник финансового отдела гонконгского филиала.

Возникшие у сотрудника сомнения развеялись после того, как его пригласили на групповую видеоконференцию с участием финансового директора и других сотрудников компании. Все участники видеоконференции были узнаваемы, выглядели и говорили как настоящие люди.

Во время видеоконференции мошенники попросили жертву представиться, но не вступали с ним в беседу, а давали указания. Следуя полученным инструкциям, сотрудник произвел 15 переводов на общую сумму 200 миллионов гонконгских долларов на пять банковских счетов в Гонконге. Только через неделю он понял, что это мошенничество, и обратился в штаб-квартиру компании.

По данным полиции мошенники обращались и к другим сотрудникам этой компании, используя ту же тактику видеозвонка, но безуспешно.

Другая история - спекуляции в социальных сетях о принцессе Уэльской Кейт Миддлтон, которые возникли после серии загадочных событий, побудивших публику искать дополнительную информацию о её здоровье.

В январе этого года Кенсингтонский дворец распространил заявление о том, что Кейт перенесла успешную операцию на брюшной полости. Однако, к середине февраля появились вопросы: принцессу вообще не видели с Рождества, а принц Уильям регулярно посещал публичные мероприятия, в том числе церемонию BAFTA (Британская академия кино и телевизионных искусств), без нее.

Затем, в начале марта дворец опубликовал фотографию Кейт и троих ее маленьких детей, которая, как она позже призналась, была отредактирована. Поскольку новостные порталы отозвали публикацию этой фотографии, инцидент вызвал еще больше вопросов. 11 марта Кейт принесла извинения через социальную сеть X, признав, что «как и многие фотографы-любители, я иногда экспериментирую с монтажом».

18 марта на портале TMZ появилось видео, на котором принцесса несет продукты вместе со своим мужем, что вызвало новую волну домыслов о том, что это не Кейт.

22 марта Кейт опубликовала видеообращение, в котором рассказала, что у нее диагностирован рак. Одни пользователи социальных сетей выразили сожаление по поводу спекуляций из-за ее длительного отсутствия на публике, но другие сразу же стали обсуждать новую «теорию заговора» - видео было создано искусственным интеллектом.

В социальных сетях стал расходиться ролик, указывающий на предполагаемые «следы» ИИ - исчезновение и появление вновь кольца на руке Кейт, неестественное движение волос или, что нарциссы в клумбе на заднем плане подозрительно неподвижны.

BBC Studios назвало обвинения в использовании искусственного интеллекта «вводящими в заблуждение». Несколько экспертов по дипфейкам согласились с этим, заявив, что они изучили видео и не обнаружили никаких признаков манипуляций.

Только один эксперт поддержал подозрения: стартап по обнаружению дипфейков Deep Media, имеющий контракты с Пентагоном, обнаружил “высокую вероятность” того, что голос и лицо Кейт изменяли с помощью искусственного интеллекта.

Продолжающиеся спекуляции вокруг принцессы подчеркивают сложность оценки того, что реально в медиасфере с поддержкой искусственного интеллекта, а также риски, связанные с использованием детекторов дипфейков, для отделения фактов от вымысла.

По словам Клэр Уордл, соучредителя и содиректора Лаборатории информационного будущего в Университете Брауна (США): «У большинства людей нет доступа к инструментам, позволяющим проводить подобный анализ. А люди, заявляющие, что такие инструменты у них есть, никогда не уверены в них на 100 процентов».

Все больше исследователей, ученых и основателей стартапов, формируя альянсы с ведущими мировыми информационными агентствами и крупными технологическими компаниями, работают над технологиями распознавания дипфейков.

Сегодня существуют три основных направления отслеживания и маркировки контента, созданного с помощью ИИ.

Наиболее популярная технология — маркировка изображений, аудио и видео контента цифровыми водяными знаками. Цифровые водяные знаки не новая технология. Их уже много лет используют звукозаписывающие компании и киностудии для защиты своего контента от пиратства.

В рамках принятых на себя в середине 2023 года обязательств перед правительством США по снижению рисков, связанных с искусственным интеллектом крупнейшие технологические компании: Google, Amazon, Microsoft, Meta, OpenAI должны разработать инструменты для маркировки изображений, видео или текста, созданного с помощью искусственного интеллекта.

Подписанный 30 октября 2023 года президентом США Байденом указ о безопасной разработке и использовании искусственного интеллекта также содержит поручение правительству США создать стандарты для компаний-разработчиков по маркировке цифровыми водяными знаками контента, сгенерированного ИИ.

Внедрение надежной системы, которую применяют все крупные технологические компании и платформы социальных сетей, призвано уменьшить проблему дипфейков,

Некоторые разработчики уже размещают видимые метки на изображениях, сгенерированных искусственным интеллектом. Например, OpenAI прикрепляет пять маленьких цветных прямоугольников в правом нижнем углу изображений, созданных генератором изображений Dall-E. Другие популярные инструменты генерации изображений с помощью искусственного интеллекта, такие как Stable Diffusion, свой контент никак не маркируют.

Эта технология пока далека от совершенства. Более ранние версии цифровых водяных знаков можно было легко удалить или подделать, просто изменив цвета изображения, или повернув его на бок.

Сейчас приоритетом являются технологии с цифровыми водяными знаками, которые встроены в изображение.

В августе 2023 года Google анонсировал новый инструмент под названием SynthID, который встраивает цифровой водяной знак непосредственно в пиксели изображения. Он невидим человеческому глазу, но легко распознается специальным инструментом для обнаружения искусственного интеллекта.

По мнению Google, новая технология устойчива к несанкционированному вмешательству, что делает ее ключевым элементом контроля за распространением фейковых изображений и противодействия дезинформации.

На данный момент SynthID доступен только некоторым платным клиентам облачного сервиса и работает с изображениями, созданными с помощью Google Imagen.

Поскольку SynthID все еще находится в стадии разработки, Google не требует от клиентов его обязательного использования.

Но ученые из Университета Мэриленда в своем исследовании, опубликованном в феврале 2024 года, показали, что последние разработки Google и других технологических гигантов по маркировке контента несовершенны, и их можно обойти.

Следующее направление - маркировка реальных изображений.

Суть технологии - встраивание метаданных в изображение прямо в тот момент, когда фотография делается камерой, чтобы обеспечить то, что цифровая индустрия называет «происхождением» (provenance).

Еще до того как OpenAI выпустила ChatGPT в конце 2022 года и положила начало буму искусственного интеллекта, производители фотоаппаратов Nikon и Leica начали разрабатывать способы «впечатывания» специальных метаданных, в которых указано когда и кем сделана фотография непосредственно в момент создания изображения камерой. Canon и Sony запустили аналогичные программы, а компания Qualcomm, производящая компьютерные чипы для смартфонов, заявляет, что у нее тоже есть проект по добавлению метаданных к изображениям, снятым на камеры телефонов.

Новостные гиганты - BBC, Associated Press и Thomson Reuters работают с компаниями-производителями фотоаппаратов над созданием систем для проверки аутентичности данных перед публикацией фотографий. Сайты социальных сетей также могут использовать эту систему, маркируя реальные и фальшивые изображения, помогая пользователям понять, что они видят. Еще один инструмент - отдавать приоритет реальному контенту в алгоритмических рекомендациях или позволять пользователям фильтровать контент, созданный ИИ.

Эти меры могут усложнить распространение дипфейков, но технология, в которой реальные изображения проверяются и помечаются в социальных сетях или на новостном сайте, тоже имеет изъяны.

Киберпреступникам сегодня не составляет труда узнать как производители фотокамер или чипов встраивают метаданные в изображение и добавить их к подделкам, которые затем попадут в социальные сети.

Еще одно направление по выявлению дипфейков - использование специальных программ и приложений для обнаружения контента, созданного ИИ.

На сегодняшний день существует множество программ и приложений, разработанных как технологическими гигантами, так и небольшими стартапами, которые используют различные технологии для выявления контента ИИ.

Вот самые известные.

Детектор дипфейков в реальном времени FakeCatcher, представленный Intel в 2022 году - инновационный инструмент, предназначенный для борьбы с распространением дипфейков. В его основе лежит метод, известный как фотоплетизмография (PPG), который фокусируется на обнаружении изменений в кровотоке и движении глаз. Эти физиологические сигналы считываются из 32 областей человеческого лица и впоследствии преобразуются в пространственно-временные карты. Intel утверждает, что точность FakeCatcher 96%.

Sentinel AI — программа на основе ИИ для обнаружения дипфейков, использующая передовые нейронные сети для изучения выражений лица, моделей моргания и манипуляций со звуком. В ней также применяется технология обработки естественного языка (NLP) для выявления нарушений в речевых шаблонах.

Пользователи могут загружать цифровой контент для обнаружения дипфейков непосредственно на веб-сайт Sentinel AI.

Sensity - один из ведущих мировых поставщиков решений, позволяющих обнаруживать диффузионные нейросети, используемые передовым искусственным интеллектом, таким как Dall-E, Stable Diffusion, FaceSwap и Midjourney.

Sensity AI обнаруживает элементы, созданные генеративно-состязательной сетью (GAN), распознает текст, созданный с помощью больших языковых моделей (LLM), таких, как ChatGPT, даже если авторы-люди вносят изменения в ИИ контент.

По заявлению разработчиков, Sensity AI может похвастаться точностью более 98,8%, что делает его одним из самых надежных детекторов дипфейков.

Microsoft Video AI Authenticator — наверное самый «старый» инструмент для обнаружения дипфейков. Он был разработан командой Microsoft Research and Responsible AI в ответ на широкое распространение фейковых сообщений в новостях во время выборов в США в 2020 году.

Программа распознает едва заметные изменения в оттенках серого, невидимые человеческому глазу, и оценивает достоверность контента в режиме реального времени для быстрого обнаружения дипфейков. Microsoft заключила партнерство с базирующимся в Сан-Франциско фондом искусственного интеллекта, чтобы предоставить этот инструмент политическим кампаниям и медиа-центрам, участвующим в избирательном процессе.

Сегодня мы вступаем в мир, где сканирование на наличие дипфейков становится частью стандартного программного обеспечения любого компьютера, точно так же, как почтовые приложения, такие как Gmail, автоматически отфильтровывают очевидный спам. Но даже в этом случае людям все равно придется критически относиться к тому, что они видят в Интернете.

Ничего не предполагайте, никому и ничему не верьте и сомневайтесь во всем. Если у вас есть сомнения, просто предположите, что это подделка.

Нико Декенс, директор по кибербезопасности компании ShadowDragon
22
Начать дискуссию