Дипфейки: как защитить себя от цифрового обмана

Дипфейки: как защитить себя от цифрового обмана

В эпоху стремительного развития цифровых технологий граница между виртуальным и реальным становится все менее четкой. Один из самых спорных способов применения технологии искусственного интеллекта — дипфейки, которые показывают то, чего на самом деле не было в реальности. Чем опасны дипфейки, как их опознать и как использовать «во благо» — читайте в нашем материале.

Что такое дипфейк и чем он опасен?

Мы уже слушаем музыку, которая подобрана рекомендательными системами с использованием искусственного интеллекта, покупаем товары, которые «предложила» нам нейросеть, а специалисты проводят исследования и лечат людей с помощью цифровых помощников. Согласно Индексу готовности приоритетных отраслей экономики Российской Федерации к внедрению искусственного интеллекта за 2024 год, средний уровень использования искусственного интеллекта в разных отраслях российской экономики составляет 32%. Однако помимо пользы, эта технология приносит и вред.

Дипфейк — это метод применения ИИ, позволяющий создавать правдоподобные изображения, видео и звук. Часто его используют мошенники, чтобы получить конфиденциальные данные людей, доступ к финансам или аккаунтам.

«Создать дипфейк сегодня стало значительно проще благодаря развитию доступных инструментов и программных решений. На рынке существует множество приложений и онлайн-сервисов, которые предлагают возможность разработать дипфейк без глубоких технических знаний. Для простого дипфейка действительно может хватить нескольких часов, чтобы освоить работу с этими инструментами. Для профессионального уровня дипфейков — например, тех, что используются в кино или для сложных подмен лиц и голосов с сохранением мимики и других деталей, требуются более мощные ресурсы, большие объемы данных и опыт работы с нейронными сетями», — рассказал Андрей Кузнецов, руководитель лаборатории FusionBrain в AIRI.

Чтобы создать дипфейк, специалисты используют генеративно-состязательные нейронные сети (GAN). Такая система разделена на два алгоритма: генератор и дискриминатор. Задача первого — создавать изображение, звук или видео. Второй алгоритм определяет реалистичность этого контента, сравнивая его с «оригиналом» — настоящим голосом, картинкой или видеозаписью.

В итоге система учится сама у себя: генератор получает обратную связь от дискриминатора, которая заставляет его создавать все более и более реалистичные изображения, аудио- или видеозаписи, пока дискриминатор не «перепутает» подделку с оригиналом.

Во имя добра

С начала 2024 года число преступных схем с использованием дипфейков выросло в 30 раз. Из-за этого может сложиться впечатление, что дипфейки были изначально созданы для обмана. Однако это не так. Например, дипфейки полезны в:

● образовании;

● киноиндустрии;

● рекламе;

● играх;

● творчестве.

Цифрового двойника на основе искусственного интеллекта можно использовать, например, чтобы «воскрешать» других людей, как это сделало издательство «Эксмо». Кинематографисты тоже используют дипфейки умерших актеров: с их помощью Юрий Никулин «сыграл» в новом фильме «Манюня: Приключения в Москве». Внешность и голос актера были воссозданы с помощью нейросетей. Разрешение на это дал сын актера. Однако не все потомки известных людей разделяют такую позицию. Дочь актера Юрия Яковлева, Алена Яковлева, категорически против воссоздания образа отца с помощью технологии deepfake.

«Один из примеров, который сразу приходит в голову, — технология применялась для создания молодого Марка Хэмилла в сериале “Мандалорец”, а также для восстановления образов актеров в фильмах, когда съемки с их участием не могли быть завершены. Еще один вариант применения в кинематографе — дипфейки могут использоваться для синхронизации движений губ актеров при дублировании фильмов на другие языки. Это позволяет улучшить восприятие переведенного контента, делая его более естественным и точным», — рассказал Андрей Кузнецов.

…И во имя зла

Когда с помощью нейросети можно с поразительной точностью воссоздать голос, внешность и даже движения человека, появляются злоумышленники, которые используют эту возможность для мошенничества, шантажа и других преступлений.

Зачем мошенники могут использовать дипфейки?

● Чтобы притвориться знакомым и втереться в доверие к человеку;

● Чтобы шантажировать человека или бренд;

● Чтобы продвигать свои интересы (например, дискредитировать кандидата во время выборов);

● Чтобы взламывать системы распознавания лиц и получить доступ к конфиденциальной информации;

● Чтобы распространить дезинформацию.

В первом случае в мессенджер может прийти голосовое сообщение или видеозапись (иногда в формате популярного в мессенджерах «кружочка») от знакомого человека с просьбой перевести сумму денег. Зачастую такие дипфейки почти неотличимы от оригинала: с тем же тоном, громкостью голоса, интонациями. В такой ситуации легко попасться на уловку мошенников и сообщить им конфиденциальные данные или даже отправить деньги.

Во втором и третьем случаях злоумышленники распространяют сгенерированный контент, в котором дипфейк сообщает вредоносную информацию или совершает действия, компрометирующие его или других людей или бренды. Так, например, 4 тысяч знаменитостей стали жертвами дипфейков. Часто эти дипфейки применяются для создания порнографических роликов.

Основные опасности дипфейков:

● Дезинформация.

● Дискредитация.

● Финансовое мошенничество.

● Утечка персональных данных.

● Обман систем аутентификации.

Андрей Кузнецов, руководитель лаборатории FusionBrain в AIRI, рассказал, как понять, что перед вами — дипфейк:

● Аномалии в мимике и движениях. Дипфейк может плохо синхронизировать движения лица с речью или эмоциями. Например, движения губ могут не полностью соответствовать звуку или эмоции на лице могут выглядеть неестественно.

● Неестественные моргания. Часто у дипфейков бывают проблемы с реалистичным морганием. Человек может моргать реже или чаще, чем обычно, или само моргание выглядит неестественным — слишком медленным или быстрым.

● Рассогласования в освещенности. В дипфейках освещение на лице может не совпадать с окружающей средой. Например, тени на лице могут быть неестественными или неподходящими для общего освещения.

● Искажения вокруг лица. На границе лица и волос могут наблюдаться искажения, особенно при движении. Контуры лица могут выглядеть размытыми или неправильными.

● Неестественные движения головы и шеи. Нейросеть может создавать артефакты в движениях головы или шеи, особенно если они наклоняются под необычными углами.

● Качество кожи и текстуры. При внимательном рассмотрении можно заметить ненатуральную гладкость кожи или недостатки в текстуре лица, что может указывать на искусственную обработку изображения.

● Аудиосинхронизация. В некоторых дипфейках заметны несовпадения между движением губ и звуком, особенно при сложных или быстрых речевых конструкциях.

Существуют специальные программы, которые позволяют определить, были ли изображение, видео- или аудиозапись созданы искусственным интеллектом. Например, представленная в 2023 году специалистами Донского государственного технического университета разработка позволяет выявлять дипфейки, созданные с помощью алгоритма GAN.

А кто нас защитит?

«В контексте дипфейков речь обычно идет о копировании внешности человека, то есть их использование попадает в список вопросов об авторском праве, связанных с разрешением на копирование. Зачастую создателем дипфейка выступает “нейросеть”, в юридической терминологии –– компьютерная программа, у которой нет субъектности: по российскому законодательству автором может быть только физическое лицо (ст.1228 ГК РФ), возможности признать факт создания объекта авторского права за ИИ-системой нет. Еще сложнее обстоят дела с копированием голоса, так как ни в одной юрисдикции на голос как таковой не распространяется авторское право», — рассказал Андрей Кузнецов.

Также эксперт объяснил, что в российском законодательстве, скорее всего, будут рассматривать дипфейки как «объекты смежного права, при котором использование исходного произведения без согласия его правообладателя будет незаконно». Решить все вопросы с таким подходом не получится, однако на данный момент ни в одной стране мира еще не сформирована законодательная практика, которая полностью регулирует сферу дипфейков, отметил Кузнецов. Это нормально, считает эксперт, ведь создание нормативно-правовой базы для технологических решений требует времени. Впрочем, Европейский парламент в 2024 году утвердил закон о регулировании искусственного интеллекта. Он обязывает маркировать дипфейки.

Дипфейки — это лишь метод, который может использоваться как во благо, так и в преступных целях. Этот инструмент только развивается, поэтому пока что его регулирование и в России, и в других странах развито весьма слабо. До тех пор, пока законодательство не достигнет необходимого уровня, важно не давать себя обмануть: обращать внимание на мимику, тембр голоса и другие признаки, которые могут подсказать, что перед вами — ненастоящее видео, аудио или изображение, а лишь творчество искусственного интеллекта. Лучше всего относиться к любому контенту, который публикуется в интернете, со значительной долей бдительности и настороженности, особенно из-за развития в последнее время систем, создающих дипфейки.

Следите за событиями в сфере ИИ на национальном портале в сфере ИИ – ai.gov.ru.

11
Начать дискуссию