{"id":14284,"url":"\/distributions\/14284\/click?bit=1&hash=82a231c769d1e10ea56c30ae286f090fbb4a445600cfa9e05037db7a74b1dda9","title":"\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c \u0444\u0438\u043d\u0430\u043d\u0441\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u043d\u0430 \u0442\u0430\u043d\u0446\u044b \u0441 \u0441\u043e\u0431\u0430\u043a\u0430\u043c\u0438","buttonText":"","imageUuid":""}

DeepFake заменит всех?

Салют! На связи команда Chad AI. Сегодня поговорим о том, что происходит в мире с приходом дипфейков: как ИИ поджёг Эйфелеву башню, Тейлор Свифт ушла в большое кино, Папа Римский стал модником, а государство решило легализовать…

Сначала разберём несколько примеров использования Deepfake-технологий.

Париж в огне

В январе этого года все социальные сети взорвала новость с горящей Эйфелевой башней. Но гореть она начала ещё летом 2023 года, когда компания по созданию 3D-эффектов «Augmented One» выложила на свой канал в YouTube 9-секундный видеоролик с горящей достопримечательностью.

В описании ребята указали, что это компьютерная графика. Однако интернет-пользователи проигнорировали это и начали массово постить видео, выдавая его за реальное.

Затем стало появляться всё больше новых фотографий с «места происшествия», и на этот раз так постаралась нейросеть Midjourney. Фото горящей Эйфелевой башни были настолько реалистичны, что набрали миллионы просмотров.

Важное заявление от Олега Тинькова*

Осенью 2021 года в сети появилось мошенническое видео с основателем одноимённого банка от страницы Tinkоff Вonus. Бизнесмен на видео обещал подарить 50% к сумме вложений при регистрации.

«Например, вы инвестируете 20 тысяч рублей, а на счёт для работы получаете 30 тысяч рублей», — говорит фейковый Тиньков.

Ролик создали мошенники и распространили его в социальных сетях. Главной целью было — получить деньги и личные данные доверчивых пользователей.

*Олег Тиньков выполняет функции иноагента.

Скандал с дипфейковым видео Тейлор Свифт

В январе этого года X, ранее Twitter, заполонило созданное при помощи ИИ порно с певицей Тейлор Свифт. Один из постов с фейками даже набрал 45 миллионов просмотров, прежде чем его удалили модераторы.

В X пообещали активно блокировать запрещённый контент, а для начала просто отключили поиск по запроcу “Taylor Swift”.

Фейковая тусовка Папы Римского

Впервые понтифика с помощью всё той же нейросетки Midjorney переодели в прошлом году. СМИ и пользователей не смутило, что фотографии были выложены в сабреддите Midjourney. Но и без этого полно доказательств того, что фото — фейк.

К примеру, на одной из фотографий у Папы Римского четыре пальца вместо пяти, а на другой картинке дужка очков заканчивается на уровне ушей, совсем не огибая их, да и крест выглядит не очень правдоподобно.

Статьи с громкими заголовками опубликовали американские New York Post, Forbes и другие, а также российские «Газета.ру», «Афиша Daily» и РБК. Затем пользователи и вовсе ушли в пляс, когда переодели епископа в разноцветные наряды и не ограничились пуховиком Balenciaga.

Как на дипфейки отреагировало государство и заменят ли они реальных людей?

Скандал дошёл и до американского Белого дома. Пресс-секретарь Карин Жан-Пьер выступила с заявлением и призвала Конгресс разработать закон, который защитит людей от дипфейкового порно.

А недавно, 8 февраля, Американская Федеральная комиссия по связи уже запретила компаниям использовать в звонках роботов голоса, которые созданы ИИ. В США пока нет федерального закона, который запрещает дипфейки. Но в некоторых штатах приняты законы о дипфейковой порнографии.

Однако пока какие-то дипфейки стремятся запретить, другие хотят легализовать. Так, Universal Music Group и Google ведут переговоры о том, чтобы лицензировать голоса и мелодии артистов для контента, который создаёт ИИ. Компании рассматривают возможность разработать дипфейк с голосами популярных исполнителей.

Некоторые артисты поддержали развитие музыки, которую генерируют нейросети. В их числе певица Граймс. Она рассказала журналу Rolling Stone, что любой может использовать её голос для создания песен «без каких-либо штрафов» — при условии, что она получит половину гонораров.

Как нам жить в мире дипфейков

Есть опасения, что дипфейки со временем станут настолько убедительными, что будет невозможно отличить их от реальности. Только представьте: мошенники делают фальшивые видео с представителями власти, главами компаний и даже вашими близкими. От последнего мурашки по коже.

Обычным потребителям информации и пользователям сервисов остаётся только надеяться, что с развитием искусственного интеллекта будут развиваться не только законы, но и технологии, которые ограничат распространение фейков. Мир уже делает первые шаги в эту сторону.

Появилось несколько стартапов, которые разрабатывают технологии обнаружения фейковых видео. Один из таких — Sensity AI из Нидерландов и Sentinel из Эстонии. А популярная корпорация Intel выпустила продукт FakeCatcher, который может обнаруживать фальшивое видео с точностью 96%, наблюдая за тонкими изменениями цвета на коже. А некоторые компании обязались вставлять цифровые водяные знаки в изображения, которые сделаны с помощью ИИ.

Но не стоит надеяться только на технологические решения. Вы и сами можете позаботиться о своей защите от дипфейков уже сейчас.

Проверяйте источники информации. Не верьте сразу сенсационным новостям, даже если их все пересылают, сверяйте факты с надёжными источниками.

Будьте осторожны в социальных сетях. Это основной канал распространения дипфейков, поэтому не распространяйте сомнительный контент, проверяйте его достоверность перед публикацией.

Учитесь распознавать дипфейки. Даже если у вас нет специальных инструментов, можно замечать странные детали на фото и видео.

Предупредите близких. Чтобы вынудить человека сообщить личные данные или перевести деньги, мошенники могут звонить ему от имени знакомых или родных имитируя их голоса с помощью специальных программ. Стоит придумать кодовое слово для родственников на случай, если кто-то позвонит им вашим голосом.

Попробуйте Chad AI — сервис, в котором мы собрали и адаптировали для пользователей из России самые популярные нейросети в новейших версиях. Пользуйтесь сервисом и забудьте о неудобном интерфейсе, зарубежной sim и VPN.

0
5 комментариев
Павел Приказнов

Нам всем п.......а

Ответить
Развернуть ветку
Надя

ждем и в chad обновление с дипфейками

Ответить
Развернуть ветку
Артур Кольцов

Маша, я знаю ты это видишь, крутая статья (написал случайно не в ту ветку)

Ответить
Развернуть ветку
Александр Иванов

Классная статья!!! Круто что есть нейросеть которая различает дипфейки

Ответить
Развернуть ветку
marta krutaya

С кодовым словом прикольный ллайфхак, пошла звонить родным 🤙

Ответить
Развернуть ветку
2 комментария
Раскрывать всегда