{"id":14291,"url":"\/distributions\/14291\/click?bit=1&hash=257d5375fbb462be671b713a7a4184bd5d4f9c6ce46e0d204104db0e88eadadd","title":"\u0420\u0435\u043a\u043b\u0430\u043c\u0430 \u043d\u0430 Ozon \u0434\u043b\u044f \u0442\u0435\u0445, \u043a\u0442\u043e \u043d\u0438\u0447\u0435\u0433\u043e \u0442\u0430\u043c \u043d\u0435 \u043f\u0440\u043e\u0434\u0430\u0451\u0442","buttonText":"","imageUuid":""}

Технология Deepfake: сможете ли вы распознать Deepfake?

Deepfake - это фильмы, подделанные с помощью искусственного интеллекта, которые стали предметом озабоченности правительств, правоохранительных органов и всех остальных. Этот тип синтетических медиа может быть очень убедительным и в будущем может разрушить старую пословицу "видеть - значит верить". Но что такое технология deepfake? Почему deepfake так опасна?

Что такое deepfake?

Deepfake позволяет создавать убедительные фильмы, в которых политики и знаменитости говорят и делают на пленке то, чего на самом деле не было. Deepfake относительно легко получить и использовать, а в сочетании с технологией искусственного интеллекта, позволяющей воспроизводить голос конкретного человека, качественный deepfake превращается в мощный и потенциально чрезвычайно опасный инструмент.

Как создать фейковое видео?

Для deepfake обычно используется видеозапись человека, чаще всего актера. Человек - это просто марионетка, а затем на оригинальный персонаж накладывается другое изображение лица. Затем ИИ просматривает сотни изображений разных людей и реалистично воспроизводит их черты. Затем новое изображение лица подбирается к движениям актера, синхронизируя выражения и движения губ.

Как распознать глубокую подделку?

1. очевидные визуальные недостатки
2. неточные черты лица
3. неестественные движения тела
4. неубедительный голос

Угрозы глубокой подделки

1. фальшивые новости и политическая пропаганда
2. мошенничество и социальная инженерия

Заключение

По мере развития технологий обнаружить глубокую подделку будет все сложнее. И если технологии дошли до того, что любой человек, имеющий компьютер и владеющий базовыми знаниями о программах визуальных эффектов, может снять фильм, в котором президент делает позорное заявление, значит, проблема существует.

В настоящее время простой мерой борьбы с риском глубокого мошенничества является ограничение количества размещаемых в сети изображений. Для создания убедительного видео, сгенерированного искусственным интеллектом, системе необходимо получить доступ к большому количеству фотографий и видеозаписей вашей цели, поэтому мы рекомендуем вам держать свои профили в социальных сетях закрытыми и не публиковать регулярно изображения, содержащие ваше собственное лицо. Защитите свою конфиденциальность с помощью высококачественного VPN

0
2 комментария
Полина Кузьмина

скоро эта программа настолько совершенствуется ,что будет сложно отличить дипфейк и реальное фото/видео

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
free vpn

ужасная технология

Ответить
Развернуть ветку
-1 комментариев
Раскрывать всегда