Неологизмы Эры Искусственного Интеллекта: N1 - Дипфейк

Неологизмы Эры Искусственного Интеллекта: N1 - Дипфейк

Что есть дипфейк по определению?

Deepfake ("глубокая подделка") — это термин, обозначающий синтетические медиа, улучшенные или синтезированные ИИ и другими современными технологиями для создания фальсификаций. Одним из лучших примеров дипфейков - использование обработки изображений для создания видео, на котором знаменитости, политики и другие люди говорят или делают то, чего они на самом деле никогда не говорили и не делали.

Deepfakes — это фото, видео и презентации, которые прошли цифровую обработку для того, чтобы убедительно заменить лицо одного человека на лицо другого, это манипуляция внешним видом лица (и/или голоса) с помощью глубоких генеративных методов.

Технология "Deepfake", которая неуклонно развивается уже почти десять лет, способна создавать говорящие цифровые марионетки.С приходом этой технологии, возникли новые искусства — искусство иллюзии и искусство маскировки.

Искусство Иллюзии

Смайлики и Анекдоты

Моменты, когда дипфейки используются для развлечения и юмора, весьма веселы. Кто будет возражать против своей подружки в образе звезды Голливуда или забавного смайлика? С помощью дипфейков создаются классные мемы и анекдоты, смех — это хорошее лекарство, и дипфейки делают его еще доступнее.

Технология во благо

Технология deepfake может быть использована в самых разных сферах: в образовании для создания интерактивного контента, в киноиндустрии для замены исполнителя главной роли его каскадерским дублером или для выравнивания дубляжа в фильме на иностранном языке, а также в рекламе для улучшения впечатления потенциального покупателя.

Люди, потерявшие способность говорить из-за болезни или недуга, вновь обрели эту возможность с помощью сгенерированных компьютером голосов.

Некоторые “глубокие подделки” используются в галереях или музейных экспозициях, чтобы приукрасить сцену или оживить исторические фигуры.

Неологизмы Эры Искусственного Интеллекта: N1 - Дипфейк

Например, музей Дали в Санкт-Петербурге, штат Флорида, использовал технологию deepfake, чтобы "вернуть к жизни" мэтра сюрреализма.

Неологизмы Эры Искусственного Интеллекта: N1 - Дипфейк

Художественный музей совместно с рекламным агентством Goodby Silverstein & Partners создал видеоинсталляцию Dalí Lives, которая выглядит так, будто в ней снялся настоящий Сальвадор Дали, но на самом деле является “deepfake” ("глубокой подделкой").

Фальшивый усатый Дали, живущий внутри нескольких экранов, приветствует посетителей и вступает с ними в короткое взаимодействие.

Неологизмы Эры Искусственного Интеллекта: N1 - Дипфейк

Он говорит на смеси подлинных цитат Дали и выдуманных современных комментариев, на английском с сильным испанским акцентом, а в конце поворачивается, достает смартфон и делает групповое селфи со своей аудиторией (а потом еще и высылает это селфи на e-mail). О-ля-ля!

Неологизмы Эры Искусственного Интеллекта: N1 - Дипфейк

Музей Дали создал эту инсталляцию, чтобы, как они утверждают, вернуть художника, умершего 30 лет назад, к жизни и помочь посетителям по-новому взглянуть на его творчество. Так или иначе - это персонализированное шоу оказалось гениальным методом привлечения публики и подогрело интерес к музею и личности великого художника. “The show must go on!”

Технология во вред

Несмотря на множество полезных применений, технология deepfake имеет пагубные последствия, включая дискредитацию политических противников, создание порнографии, а также мошеннические бизнес-схемы.

На самом деле, с тех пор как эта технология стала более доступной для масс, 90-95 % поддельных видео - это порнографические ролики, снятые без согласия жертвы, и в 90 % из них объектом искусственной манипуляции с лицом становятся женщины. Например, одна популярная на Западе интернет-блогерша, известная под псевдонимом QT Cinderella, стала жертвой сотен порнографических deepfake-видео. Однако, попытавшись добиться хотя бы какой-то минимальной защиты и справедливости, QTCinderella обнаружила, что ей не удастся подать судебный иск против мошенников, укравших ее лицо, из-за элементарного отсутствия действующего законодательства на этот счет.

В настоящее время отсутствие регулирования технологии deepfake представляет угрозу не только для знаменитостей, но и для любого человека, чье изображение размещено в Интернете, частным или публичным образом, и способно (без последствий для самих воров личности) разрушить личную и профессиональную жизнь многих людей.

Страдают актрисы дубляжа, чьим украденным голосом озвучивают порнографические ролики - это такой удар по репутации, после которого продолжение профессиональной карьеры попадает под большой вопрос, и не только актрисы.

Не так давно генеральный директор одной из британских энергетических компаний стал жертвой мошенничества, использующего звуковую форму технологии deepfake. Полагая, что руководитель его материнской компании по телефону попросил его перевести 200 000 евро в Венгрию, он так и сделал, однако голос его босса с немецким акцентом на самом деле принадлежал мошеннику, использовавшему технологию deepfake для имитации. Хотя мошенничество было вскоре распознано, компания не смогла получить какую-либо компенсацию или привлечь виновных к ответственности, так как отследить источник обмана оказалось невозможным.

Когда Реальность Исчезает

Что происходит, когда граница между реальностью и фикцией стирается? Создатели дипфейков могут делать это с невероятным мастерством, и вот тут как раз начинаются серьезные вопросы и суровые последствия. Если звезды Голливуда могут стать жертвами deepfake, что остановит политических злодеев? Угрозы, связанные с технологией, настолько серьезны, что даже Джеймс Бонд потерял бы свою «лицензию на убийство» в этой новой реальности.

Барак Обама говорит вещи, которых он никогда не говорил и не мог сказать в силу склада своей личности, Марк Цукерберг похвастался тем, что у него есть "полный контроль над миллиардами украденных данных людей", Джон Сноу трогательно извинился за удручающую концовку "Игры престолов"? Если вы видели эти видео - вы видели дипфейки.

Больше информации здесь: https://www.creativebloq.com/features/deepfake-examples

На ТикТок существуют дипфейковые пародийные каналы:

Кто создает “глубокие подделки”?

Все - от академических и промышленных исследователей до энтузиастов-любителей, студий визуальных эффектов и производителей порнографии. Правительства тоже могут использовать эту технологию, например, в рамках своих онлайн-стратегий по дискредитации и подрыву экстремистских групп или установлению контактов с целевыми лицами.

Например, Synthesia, британская компания искусственного интеллекта, расположенная в Лондоне, производит программное обеспечение для создания фейковых аватаров. Клиенту нужно просто загрузить текстовый сценарий, который затем читает один из цифровых актеров, созданных с помощью инструментов Synthesia. Аватары - это "цифровые двойники", которые основаны на внешности нанятых актеров и могут говорить на 120 языках и с разными акцентами. На выбор предлагается более 85 персонажей, отличающихся полом, возрастом, этнической принадлежностью, тоном голоса и стилем одежды.

Программное обеспечение компании в основном используется клиентами для создания видеороликов для отдела кадров и обучения, оно за считанные минуты создает видеоролики, которые в противном случае заняли бы несколько дней и потребовали бы найма съемочной группы и людей-актеров. Весь процесс "так же прост, как написание электронного письма", - говорится на сайте Synthesia.

Компания Graphika, занимающаяся изучением дезинформации, в конце 2022 года обнаружила прокитайскую кампанию, которая, судя по всему, была направлена на продвижение интересов китайской коммунистической партии и ущемление интересов Соединенных Штатов среди англоязычных зрителей. Там фигурировали 2 видео, опубликованные в нескольких социальных медиа с фальшивым же лого “Wolf News”: В одном из роликов правительство США обвиняется в том, что оно пытается бороться с насилием с помощью "лицемерного повторения пустой риторики". В другом подчеркивается важность сотрудничества Китая и США для восстановления мировой экономики.

Неологизмы Эры Искусственного Интеллекта: N1 - Дипфейк
Неологизмы Эры Искусственного Интеллекта: N1 - Дипфейк

Graphika связала Synthesia с прокитайской дезинформационной кампанией, отследив два аватара Wolf News до других безобидных учебных видео в Интернете с теми же персонажами: https://graphika.com/reports/deepfake-it-till-you-make-it

Как распознать дипфейк?

По мере совершенствования технологии это становится все сложнее. В 2018 году американские исследователи обнаружили, что поддельные лица не моргают нормально. В этом нет ничего удивительного: на большинстве изображений люди изображены с открытыми глазами, поэтому алгоритмы не научились моргать.

Поначалу казалось, что это серебряная пуля для решения проблемы распознавания. Но не успело исследование быть опубликовано, как появились дипфейки с морганием. Такова природа соревнования технологий: как только обнаруживается слабое место, его тут же исправляют.

Некачественные подделки обнаружить легче: может быть плохая синхронизация губ или неровный тон кожи. По краям перемещенных лиц может быть мерцание, а мелкие детали, такие как волосы, особенно трудно хорошо отрисовать. Плохо прорисованные ювелирные украшения и зубы также могут выдать подделку, как и странные эффекты освещения, такие как отражения на радужной оболочке глаза.

Правительства, университеты и технологические компании финансируют исследования по выявлению глубоких подделок. Microsoft, Facebook и Amazon спонсировали конкурс “Deepfake Detection Challenge”, в котором исследовательские команды со всего мира борются за первенство в игре по обнаружению фальшивок.

Могут ли дипфейки посеять хаос в обществе?

Мы можем ожидать появления новых фейков, которые будут преследовать, запугивать, унижать конкретных людей, дестабилизировать общество. Но вызовут ли они крупные международные инциденты? Здесь ситуация не столь однозначна. Дипфейк мирового лидера, нажимающего на большую красную кнопку, не должен привести к армагеддону. Не вызовут больших проблем и поддельные спутниковые снимки войск, скопившихся на границе: у большинства стран есть свои надежные системы визуализации.

Более коварное воздействие deepfakes, наряду с другими синтетическими медиа и фальшивыми новостями, заключается в создании общества с нулевым уровнем доверия, в котором люди не могут или уже не хотят отличать правду от лжи.

А когда доверие подорвано, легче вызвать сомнения в конкретных событиях.

Министр связи Камеруна назвал фальшивыми новостями видео, на котором, по мнению Amnesty International, солдаты Камеруна казнят мирных жителей;

Дональд Трамп, который признался, что хвастался тем, что хватал женщин за гениталии в записанном разговоре, позже предположил, что запись была ненастоящей.

В интервью, которое принц Эндрю дал Эмили Мейтлис на Би-би-си, он усомнился в подлинности фотографии, сделанной с Вирджинией Джуффре, на подлинности которой настаивает ее адвокат.

"Проблема может заключаться не столько в подделке реальности, сколько в том, что можно вполне правдоподобно отрицать реальную действительность, - говорит профессор Лилиан Эдвардс, ведущий эксперт по интернет-праву в Университете Ньюкасла.

По мере того как технология становится все более доступной, глубокие подделки могут создать проблемы в судах, где поддельные события могут быть представлены в качестве доказательства.

Но они также представляют риск для личной безопасности: фальшивки могут имитировать биометрические данные и потенциально могут обмануть системы, основанные на распознавании лица, голоса, походки. Потенциал для мошенничества очевиден: позвоните кому-нибудь неожиданно, и он вряд ли станет переводить деньги на неизвестный банковский счет. Но что, если ваша "мама" или "сестра" позвонит вам в WhatsApp из отпуска за границей и обратится с той же просьбой?

Последствия

Как мы можем отличить правду от фейка, если дипфейки так невероятно реалистичны? Этические проблемы становятся более острыми, когда технологии ставят под угрозу доверие и правдивость. Как определить, когда шутка переходит границы этики? Где начинается эта граница? Этот вопрос не имеет однозначного ответа, и каждый случай требует особого внимания. Один из аспектов этики дипфейков — это согласие. Чтобы использовать чье-то изображение или голос для создания публичного контента необходимо, как минимум письменное согласие того, кому изображение или голос принадлежат. К сожалению, разработка законодательной базы не поспевает за семимильными шагами развития возможностей ИИ и их почти всеобщей доступности.

Важность честности

Важной этической проблемой является вопрос о честности. Когда дипфейк применяется для искажения реальности, это может навредить как частным лицам, так и обществу в целом. Сохранение честности и четкого различия между реальностью и фикцией сейчас — самый актуальный вопрос, для решения которого также с успехом используется ИИ.

Искусственный интеллект уже помогает выявлять поддельные видео, но у многих существующих систем обнаружения есть серьезный недостаток: они лучше всего работают на знаменитостях, поскольку могут тренироваться на часах видеозаписей, находящихся в свободном доступе. Сейчас технологические компании работают над системами обнаружения, которые будут выявлять подделки при каждом их появлении. Что не под силу различить человеческому глазу — с тем хорошо справляется специально обученный ИИ, и обмануть его практически невозможно. Так что есть свет в конце тоннеля.

Другая стратегия направлена на проверку происхождения носителей. Цифровые водяные знаки не являются надежной защитой, но система онлайн-бухгалтерии могла бы хранить защищенные от взлома записи видео, фотографий и аудио, чтобы всегда можно было проверить их происхождение и любые манипуляции.

Что дальше?

Обсуждение и проработка принципов использования дипфейков становятся неотъемлемой частью нашей цифровой реальности. Соответствие этическим нормам и соблюдение правил честности исключительно важно для того, чтобы дипфейки не стали угрозой для общества.

Deepfake остается двусмысленной технологией, но будущее неизбежно, и наша роль заключается в том, чтобы определить, каким оно будет. Как всегда: «Тут дьявол с Богом борется, а поле битвы – сердца людей».

22
реклама
разместить
Начать дискуссию