{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Технология Deepfake: сможете ли вы распознать Deepfake?

Deepfake - это фильмы, подделанные с помощью искусственного интеллекта, которые стали предметом озабоченности правительств, правоохранительных органов и всех остальных. Этот тип синтетических медиа может быть очень убедительным и в будущем может разрушить старую пословицу "видеть - значит верить". Но что такое технология deepfake? Почему deepfake так опасна?

Что такое deepfake?

Deepfake позволяет создавать убедительные фильмы, в которых политики и знаменитости говорят и делают на пленке то, чего на самом деле не было. Deepfake относительно легко получить и использовать, а в сочетании с технологией искусственного интеллекта, позволяющей воспроизводить голос конкретного человека, качественный deepfake превращается в мощный и потенциально чрезвычайно опасный инструмент.

Как создать фейковое видео?

Для deepfake обычно используется видеозапись человека, чаще всего актера. Человек - это просто марионетка, а затем на оригинальный персонаж накладывается другое изображение лица. Затем ИИ просматривает сотни изображений разных людей и реалистично воспроизводит их черты. Затем новое изображение лица подбирается к движениям актера, синхронизируя выражения и движения губ.

Как распознать глубокую подделку?

1. очевидные визуальные недостатки
2. неточные черты лица
3. неестественные движения тела
4. неубедительный голос

Угрозы глубокой подделки

1. фальшивые новости и политическая пропаганда
2. мошенничество и социальная инженерия

Заключение

По мере развития технологий обнаружить глубокую подделку будет все сложнее. И если технологии дошли до того, что любой человек, имеющий компьютер и владеющий базовыми знаниями о программах визуальных эффектов, может снять фильм, в котором президент делает позорное заявление, значит, проблема существует.

В настоящее время простой мерой борьбы с риском глубокого мошенничества является ограничение количества размещаемых в сети изображений. Для создания убедительного видео, сгенерированного искусственным интеллектом, системе необходимо получить доступ к большому количеству фотографий и видеозаписей вашей цели, поэтому мы рекомендуем вам держать свои профили в социальных сетях закрытыми и не публиковать регулярно изображения, содержащие ваше собственное лицо. Защитите свою конфиденциальность с помощью высококачественного VPN

0
3 комментария
Полина Кузьмина

скоро эта программа настолько совершенствуется ,что будет сложно отличить дипфейк и реальное фото/видео

Ответить
Развернуть ветку
молочная корова

Это и хорошо и плохо

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
yi yi

ужасная технология

Ответить
Развернуть ветку
0 комментариев
Раскрывать всегда