Алгоритмы нейросетей против дипфейков

Как искусственный интеллект поможет борьбе с фальшивыми фото и видео?

Дипфейки (Deepfakes) — фальшивые фото и видео, созданные с помощью инструментов машинного обучения.

Это не самая честная технология, позитивное применение которой придумать довольно сложно. Обычно её используют для незаконных целей: кто-то хочет повлиять на выборы, собрав фейковый компромат на политика, кто-то помешать правосудию, запутав улики, кто-то очернить мужчину или женщину, создав ненастоящие нюдсы, а кто-то — подставить лицо любимой звезды в порнофильм без её согласия.

После создания дипфейки обычно заливают в сеть, и жертвам приходится тратить много времени и сил, чтобы восстановить репутацию, и доказать, что на видео не они. Женщины так часто подвергаются шантажу и психологическому насилию. Например, с помощью распространения фейкового порно-видео и очерняющей кампании недоброжелатели пытались заставить замолчать индийскую журналистку Рану Айюб, которая занималась расследованиями.

Этот Барак Обама ненастоящий. Он создан с помощью технологий машинного обучения.

Проблемой дипфейков сейчас озабочены даже на государственном уровне. Например, разработкой решений по выявлению и удалению таких фальшивых фото и видео всерьез занимается Агентство перспективных оборонных исследовательских проектов (DARPA). Чтобы понимать серьезность проблемы, отметим, что агентство также занимается вопросами кибератак и защиты от нападений с применением ракет.

Почему это стало актуально сейчас?

Манипуляции с фото и видео так же стары, как сами эти технологии. Помните, ещё в 1925 году в «Броненосце “Потёмкине”» Сергея Эйзенштейна появился красный флаг, который кадр за кадром красили в ленте? Позже киностудии создавали все более сложные спецэффекты с помощью работы с пленкой, а затем и с видео. Фотографы таблоидов тоже мастерски научились создавать поддельные снимки.

Раньше эта технология имела высокий порог входа — нужно было профессионально владеть фотографией, видеосъемкой и монтажом или хотя бы уметь делать пластичный грим и правильно выставлять свет. Сейчас дипфейки может создать каждый: программы свободно скачиваются в интернете, туториалы по обучению найти несложно, специального оборудования тоже не нужно. Прямого запрета в сети на них нет — это просто технология, которая может использоваться для разных целей. Хотя, например, Facebook, Twitter и TikTok в частом порядке такую инициативу ввели.

«Подойдет высококлассный игровой компьютер, — заявил руководитель программы DARPA Мэтт Турек участникам коллоквиума DARPA по искусственному интеллекту в Вашингтоне в марте, говоря о том, что необходимо для создания дипфейков. — Скорее всего, на обучение уйдет от нескольких часов до нескольких дней, в зависимости от того, сколько у вас данных, и каковы возможности вашего процессора».

На создание поддельного видео или фото достаточно мощному компьютеру действительно понадобится всего несколько часов. За это время искусственный интеллект проанализирует фотографии и видео жертвы, которые загрузили для обучения нейросети, и сможет естественно отображать, например, повороты головы и правдоподобно копировать мимику.

Как с этим бороться?

Учитывая, что только на YouTube загружают 500 часов видео в минуту, а технологии по созданию дипфейков становятся всё более совершенными, на человеческий ресурс полагаться довольно наивно. Вместо этого для обнаружения подделок используют программное обеспечение и искусственный интеллект. Такая вот война машин.

Существуют три направления развития программного обеспечения и искусственного интеллекта для обнаружения дипфейков:

  1. Определение цифровой целостности. У каждой камеры есть свой характерный почерк. Например, вы сделали снимок на Nikon D780. Во-первых, эту информацию можно посмотреть в метаданных. После вы добавили туда часть фотографии, сделанной на Canon EOS 5D Mark III. Искусственный интеллект способен по фотографии (по особенностям пикселей, артефактам сжатия и т.д.) определить, что две её части сделаны в разное время, а для их объединения использовалась графическая программа, например, Photoshop. Это является признаком манипуляции.
  2. Определение физической целостности. Может показаться, что в изображении, полученном в результате манипуляций, нарушены законы физики. Например, соседние объекты отбрасывают тени от разных источников света или цвет кожи какой-то неестественный.
  3. Определение семантической целостности. Обстоятельства реального видео или изображения должны соответствовать здравому смыслу и проверяемым фактам. Например, летом в Москве на улице не снять видео со снегом, а в 2021 году не получится сделать ролик на фоне СК «Олимпийский» без хромакея, потому что его снесли. Или в новости утверждают про точное место и время съемки, но на видео солнце, а в реальности весь день было пасмурно и лил дождь.

Что по софту?

В DARPA существует программа Media Forensics (MediFor), в рамках которой финансируются исследования по разработке программного обеспечения и искусственного интеллекта, способных автоматически выявлять дипфейки. Такой софт должен уметь определять подделки сразу после того, как их загружают на медиаплатформы, и автоматически удалять их.

Исследователи из Adobe и Калифорнийского университета в Беркли являются теми, кто решает первую задачу — выявление нарушенной цифровой целостности. Пару лет назад Adobe создала систему автоматического обнаружения выражений лица, которые были изменены с помощью популярного продукта компании Photoshop.

В Университете Федерико II в Неаполе (Италия) исследователи, финансируемые DARPA, обучили программное обеспечение распознавать «узоры» из пикселей, создаваемые цифровыми камерами. Они прогоняют подозрительные изображения через ПО, чтобы обнаружить скопления пикселей, которые демонстрируют различные модели шума, что может указывать на нарушение цифровой целостности и манипуляций.

Примерно так увидит программа против дипфейков видео с Бараком Обамой из начала статьи. Источник: https://qz.com/1660737/deepfakes-will-influence-the-2020-election/

В США ученые из Университета Мэриленда вместе с коллегами из Калифорнийского университета в Беркли, вновь при финансировании DARPA, работают над решением второй задачи: проверкой физической целостности изображений и видео. Их сеть Shape-from-Shading Network, или SfSNet, определяет, соответствует ли освещение лиц в данной сцене. Запись любого лица, которое освещено по-другому, скорее всего была сделана в другом месте.

В Microsoft разработали свою программу для определения дипфейков, а также предлагают альтернативное решение: к размещаемому в интернете контенту добавлять специальный код, который позволит установить последующие манипуляции с видео.

Будущее защиты от подделок

Хотя на борьбу с дипфейками брошены большие силы, победить их полностью вряд ли возможно в обозримом будущем. Технологии обнаружения подделок развиваются параллельно с тем, как программы учатся всё более правдоподобно использовать технологию — чем-то это напоминает игру в «кошки-мышки».

Поэтому в DARPA ставят промежуточную цель — добиться такого уровня обнаружения и автоматического отсеивания подделок в коммуникации с ведущими медиаплатформами, чтобы такая «игрушка» перестала быть доступной для людей с посредственными компьютерами без профессиональных навыков в машинном обучении и создании нейросетей. Создание такого порога входа вернет статус-кво ко временам, когда подделка фото и видео была работой нечистых на руку СМИ и пиар-служб.

Что со всем этим делать нам:

  1. Знать о технологии и распространять знание о ней. Далеко не все в курсе, что в несколько кликов можно сделать фейковые фото и видео с чужим лицом. Сформированное у общества знание снижает порог доверия «своим собственным глазам». Значит и фейки разлетаться будут не так быстро, и опровергать их станет проще.
  2. Бизнесу — использовать востребованную нишу по созданию программ, обнаруживающих и удаляющих фейки. Тема будет актуальная ещё достаточно долго и развиваться параллельно с совершенствованием машинного обучения и искусственного интеллекта.
  3. Использовать существующие инструменты по удалению фейков. По ссылке хорошая инструкция, что делать, если кто-то выложил ваши интимные фотографии в сеть. Для дипфейков инструкция также применима. Кроме описанных там положений можно руководствоваться ст.158 УК «О мошенничестве» и ст.152 ГК «О защите чести и достоинства».
  4. Жить дальше, если такое произошло. Как говорят, если не можешь изменить ситуацию, измени своё отношение к ней. От дипфейков, к сожалению, не застрахован никто. Особенно публичные люди, которые активно ведут соцсети.
0
Комментарии

Комментарий удален модератором

Развернуть ветку
-3 комментариев
Раскрывать всегда