Где тут криминал? Чем опасны синтетические медиа и кто с ними борется

С развитием искусственного интеллекта появились и синтетические медиа. Это интернет-ресурсы или отдельные публикации, созданные с помощью AI-технологий. Опасность в том, что для производства таких материалов используют дипфейки и генерируют ложный контент.

Где тут криминал? Чем опасны синтетические медиа и кто с ними борется

Всем привет! На связи команда TEAMLY, платформы для совместной работы и управления знаниями. Мы заметили, что стали свидетелями рождения нового явления — медиакриминалистики.

Как когда-то люди не могли осмыслить серийные преступления и начали изучать образ мысли таких преступников и их почерк. Или, например, преступления из сферы искусства, когда их расследовали по логике обычной кражи, а потом сформировался отдел ФБР (подробнее в книге Роберта Уиттмана и Джона Шиффмана «Операция «Шедевр». Спецагент под прикрытием в мире искусства»).

Сейчас специально обученные люди пристально смотрят в глаза, сравнивают оттенки и пытаются предотвратить появление дипфейков. Кто, как и зачем это делает — читайте в статье.

Не нужно ждать инфоповода, чтобы выпустить новость, которая взорвет интернет. Достаточно дать задание нейросети, и вот уже видеоролик или фото набирают миллионы просмотров. Такие возможности не упустят мошенники и просто недобросовестные СМИ, ведь фейки способны влиять на общественное мнение и действия людей. Как ответ на вызов возникла новая область криминалистики — медиакриминалистика. Вот-вот расскажем, что это и какую пользу несет обществу.

Но сначала напомним, как удобно управлять знаниями и проектами вместе с коллегами, когда у вас TEAMLY. Например, можно:
✅ редактировать статью одновременно с другими пользователями;
✅ упоминать человека через @, как привычно;

✅ комментировать фрагменты текста;
✅ обсуждать детали в чате внутри той же статьи.

Медиакриминалистика: как появилась и чем занимается

Эта область знаний изучает манипуляции и правонарушения с помощью синтетических медиа. Например, помогает выявлять вредоносный контент и бороться с дезинформацией в СМИ. В частности, медиакриминалистика занимается случаями неэтичного или преступного применения технологии дипфейков.

Термин «дипфейк» происходит от слов «deep learning» — глубокое обучение и «fake» — фальшивый. Технология создает реалистичные изображения людей в искусственных обстоятельствах. Например, дипфейк может поместить Роберта Паттинсона на съемочную площадку «Титаника» или показать вашего соседа по подъезду в компании Илона Маска. Конечно, такой контент будет забавным, но есть множество примеров, когда дипфейки в СМИ вызвали серьезные последствия.

«Задержание» Дональда Трампа. В марте 2023 года интернет взорвали фотографии ареста экс-президента США. Через пару дней выяснилось, что изображения сгенерированы нейросетью Midjourney. Но к этому времени они уже успели разлететься по социальным сетям и новостным сайтам.

Журналист Элиот Хиггинс, создавший фейковые фото с помощью нейросети, не ожидал такого интереса аудитории — за два дня пост набрал 5 миллионов просмотров
Журналист Элиот Хиггинс, создавший фейковые фото с помощью нейросети, не ожидал такого интереса аудитории — за два дня пост набрал 5 миллионов просмотров

Фейковые фото Тейлор Свифт. Популярная американская певица пострадала от дипфейков в январе 2024 года. В заблокированной в России социальной сети появились изображения непристойного характера, созданные искусственным интеллектом. Через 17 часов публикацию удалили, но она набрала десятки миллионов просмотров и репостов.

Политические провокации. Эксперты беспокоятся, что дипфейки могут деструктивно влиять на политические процессы в мире. Так, в отчете Всемирного экономического форума говорится, что искусственный контент может воздействовать на избирателей. Эксперты считают, что фейковые аудио- и видеозаписи могут использовать для манипуляций общественным мнением перед выборами, во время агитационных кампаний.

С помощью искусственного интеллекта мошенники совершают и другие преступления. Например, обходят системы аутентификации в банках, обманывают службы безопасности и крадут деньги со счетов. В 2020 году топ-менеджер филиала крупной японской компании перевел мошенникам $35 миллионов. Распоряжение отправить деньги он получил от преступников, которые создали дипфейк с голосом руководителя корпорации.

Представители власти, ученые и разработчики из разных стран ищут способы борьбы с негативным влиянием синтетических медиа и дипфейков. Вот три интересных кейса из этой сферы.

Кейс 1. Лаборатория медиакриминалистики Университета Буффало

Министерство внутренней безопасности США совместно с Google и другими организациями создали исследовательскую лабораторию. Проект существует уже более 20 лет на базе Университета Буффало. Ученые занимаются судебно-медицинской экспертизой цифровых носителей: фотографий, видео и аудиозаписей. В работе используют методы компьютерного зрения, машинного обучения, медицинской визуализации, а также робототехнику.

Лаборатория ежегодно публикует по несколько исследований: например, как ученые искали и нашли способы обнаружения дипфейков. Исследователи понимают, что мошенники тоже не сидят сложа руки, поэтому отдельным направлением работы в лаборатории сделали контркриминалистику. Это область знаний, которая изучает противодействие методам криминалистики. То есть команда не только борется с существующими манипуляциями контентом, но и прогнозирует возможные правонарушения.

Методы выявления дипфейков

  • Отражение в зрачках. Помогает определять портретные дипфейк-фотографии. Алгоритм сравнивает зеркальные блики на роговице глаз. У реального человека узор будет одинаковый, а на фейковых портретах — разный.
  • Контрастные области. Позволяет находить точки «сращивания» участков фотографии и доказывать, что итоговая картинка собрана из отдельных изображений.
  • Несоответствие мимических реакций. Сопоставляет мимику дипфейка с естественным движением мышц лица человека и выявляет несоответствия.
Пример из отчета лаборатории. Иногда разница в зеркальных бликах видна даже без специальных компьютерных программ
Пример из отчета лаборатории. Иногда разница в зеркальных бликах видна даже без специальных компьютерных программ

Кейс 2. Проекты агентства DARPA

Агентство перспективных исследований в области обороны США (DARPA) с 2019 года разрабатывает программы MediFor и SemaFor. Сервисы помогают автоматически и в больших масштабах анализировать контент в СМИ и выявлять манипуляции. Обе программы борются с фальсификациями и массовой дезинформацией. Разработчики стремятся не просто находить и опровергать дипфейки, которые уже оказались в медиапространстве. Главная цель — пресекать генерацию и распространение ложного контента в самом начале.

Платформа MediFor. Распознает сгенерированные видео с помощью сопоставления физиологических данных. Например, алгоритмы видят неестественную мимику или частоту морганий. Также программа выявляет несоответствие контуров лица и тела, что говорит о синтетическом происхождении видео.

Программа SemaFor. Анализирует структуру кадра и определяет дипфейки по несоответствию деталей изображения: фон, оттенки цветов одежды, мелкие аксессуары.

На синтетических изображениях могут отсутствовать особенности мимики, характерные для человека: например, морщины или носогубные складки
На синтетических изображениях могут отсутствовать особенности мимики, характерные для человека: например, морщины или носогубные складки

Кейс 3. Детектор дипфейков FaceForensics++

В проекте участвуют компании Google, Jigsaw и медиакриминалист из Италии Луиза Вердолива. В программу загрузили большой датасет синтетических видео и фотографий, созданных популярными нейросетями. Затем на основе этих данных алгоритм обучился распознавать дипфейки.

Разработчики отмечают, что детектор не дает гарантированного результата. Пока он может определять только контент, созданный некоторыми популярными программными пакетами.

Медиакриминалистика и закон: первые шаги к созданию правовой базы

Методы медиакриминалистики помогают найти правонарушения с использованием синтетического контента. Какие это будет иметь юридические последствия — зависит от действующих законов. И вот здесь пробел: в мире еще не сформировалась правовая база в области применения AI-технологий в медиа.

Быстрое развитие искусственного интеллекта беспокоит глав IT-компаний, инженеров и ученых. В апреле 2023 года Илон Маск, Стив Возняк, Эндрю Янг и тысячи других экспертов опубликовали письмо с призывом приостановить обучение нейросетей мощнее GPT-4. По мнению авторов обращения, пауза необходима, чтобы сформировать стандарты применения ИИ, законодательство и контролирующие органы.

Заметные шаги в разработке законов были сделаны еще в 2022 году:

  • Евросоюз принял Усиленный кодекс по борьбе с дезинформацией в медиа. Документ подписали многие крупные компании, в том числе Google, Microsoft и некоторые соцсети. Они обязуются снижать влияние ложного контента на аудиторию.
  • США разрабатывают законопроект по противодействию дезинформации с помощью дипфейков. Предполагается создание специальной комиссии, которая займется борьбой с синтетическим контентом.

В российских законах понятия «дипфейк» пока не существует, как и отдельной ответственности за распространение синтетического контента. Суд рассматривает только последствия таких действий. Например, если фейковое изображение порочит честь, достоинство или деловую репутацию гражданина, может наступить ответственность за клевету по статье 128.1 УК РФ.

Криминалистика и управление знаниями: как возникают новые методы

Напоследок небольшой экскурс в историю. Криминалистика знает несколько случаев, когда новые области этой науки возникали благодаря развитию технологий. Так что появление медиакриминалистики — событие не уникальное. Например, инструменты управления знаниями дали расследованиям несколько передовых методов.

Профилирование. В 1980-х годах специальный агент ФБР Джон Дуглас начал систематизировать информацию по делам серийных преступников. Собранная база помогала изучать их мотивы и действия. Позже Дуглас возглавил особый отдел ФБР по расследованию серийных убийств.

Базы данных геномной информации. В 1980-х годах был изобретен метод анализа ДНК, который нашел применение в криминалистике. К концу 1990-х во многих странах существовали базы генетических данных. Они собирали образцы ДНК с мест преступлений, у подозреваемых и осужденных. Это помогло быстрее раскрывать дела и даже завершить расследование по нескольким «глухарям», казавшимся безнадежными.

Были ли те базы данных удобными? Загадка. Спустя четверть века предлагаем использовать для работы умные таблицы TEAMLY (вам особенно понравится, если вы привыкли к базе данных в Notion).

В них можно сортировать, фильтровать и анализировать данные, но главное — настраивать свойства таблицы под свои бизнес-процессы. Находка для эффективного управления проектами, документами или персоналом!

База данных по сериям преступлений. С 1970-х журналист-расследователь Томас Харгроув собирал базу отчетов по убийствам. В 2010 году он написал программу, которая находит совпадения в разных делах. Таким образом проект Харгроува помогает полицейским устанавливать связь между преступлениями и объединять их в серии. Подробнее о том, как систематизировали знания о серийных преступлениях для поисков маньяков, читайте
в нашей статье.

Вместо заключения

Любую технологию можно использовать как на благо общества, так и в преступных целях. Бесконтрольное производство синтетического контента может привести к серьезным политическим, экономическим и социальным последствиям. Что вы думаете об этом? Делитесь мнениями в комментариях. Мы уверены, что медиакриминалистика будет активно развиваться в ближайшие годы.

А платформа TEAMLY активно развивается прямо сейчас. К базе знаний, умным таблицам и микролернингу не так давно добавился AI-ассистент, который охотно избавит вас от рутины и найдет нужное именно в вашей БЗ.
💙 Лучше один раз увидеть TEAMLY в деле, чем сто раз прочитать!

Где тут криминал? Чем опасны синтетические медиа и кто с ними борется
3434
88
11
52 комментария

Очень интересно было прочитать, я даже и не знал, что настолько серьезно подходят к разоблачению дипфейков, я бы в такой лаборатории даже поработал😅

4

Где тут в лаборатории дипфейков принимают? Я готов )))

1

Денис, разоблачения вдохновляют: там тоже много эмоций

Серьезную тему вы подняли.. тут не только криминальный вопрос, но и этический, конечно

2

Несомненно. В современности без этики, кажется, уже никуда

1