Поиск признаков ИИ на изображениях и борьба с дипфейками

Отличить изображение и видео, сгенерированное с помощью ИИ от реального фото и видео возможно. Причем с высокой точностью. Это нужно для борьбы с мошенничеством в банковской сфере, социальной инженерии, дипфейками и много где еще в современном мире.

Поиск признаков ИИ на изображениях и борьба с дипфейками

В ближайшие годы сервисы обнаружения ИИ будут предоставляться во всех браузерах и на уровне операционных систем. Иначе пользователи интернета не смогут быть уверенными, что общаясь по видео, на другом конце провода находится именно тот человек, которого мы видим.

Какие картинки ИИ, а какие не ИИ?

Под ИИ-изображениями мы понимаем именно картинки, созданные нейронными сетями. То есть визуализайцию 3DMax не считаем ИИ (если конечно в ней нет людей и предметов, добавленных туда с помощью ИИ-плагинов). Скан старой фотографии, или документа, рисунок в фотошопе, фотомонтаж, скриншот экрана — все это не ИИ. Картинки, сгенерированные StableDiffusion, Midjourney, DALL-E, GigaChat и т.п. - все это безусловно ИИ (говоря языком датасаентиста, это картинки, восстановленные из латентного пространства).

Качество упомянутых нейронок и самописных нейронок, используемых мошенниками, сегодня уже очень высоко. Стало невозможно определить ИИ визуально. Проблемы «пяти пальцев» и несимметричных лиц больше неактуальны. Теперь, если дипфейк изготовлен профессионально, определить признаки ИИ может только другой специально обученный ИИ. Этот вопрос перешел в область борьбы технологий.

С какой уверенностью возможно и необходимо распознавать признаки ИИ?

Это настраивается, т.к. сильно зависит от задачи. Например, если по итогу видеоконференции принимается решение о выдаче кредита, даже малейшие признаки ИИ настораживают, наша нейронка должна быть максимально «подозрительной». И наоборот, в случае верификации фотографий профилей в соцсетях наша нейронка может быть менее «подозрительной», т. к. если дипфейк пройдет проверку, ущерб от ошибки будет значительно ниже. А если фильтр будет очень требовательным, это будет сильно мешать пользователям.

Еще пример. Проще всего распознать ИИ-картинку, если она была сгенерирована целиком. А если на изображении заменено только лицо, которое занимает 5% площади картинки? Как сделать лучше? Относить такое изображение к ИИ полностью, указать подозрительную область изображения с лицом или принять изображение как нормальное, т.к. оно реальное на 95%? То есть в разных случаях решение о принадлежности картинки к ИИ принимается по-разному.

Зачем здесь этот пост?

Наша команда развивает полезную для общества технологию, которую можно интегрировать в разное ПО. Это наш первый пост на VC.RU. Помимо того, что мы решили заявить о себе, хотелось бы получить обратную связь от коллег. Если вас заинтересовала наша работа и обсуждаемый вопрос для вас актуален, посмотреть как работает распознавание цельных картинок можно на deepfakedetect.io . Это демо-страничка с одним из наших классификаторов под капотом. На момент публикации этого поста выставлены средние настройки «подозрительности». То есть вы получаете ответ «скорее да»/ «скорее нет».

Будем рады продолжить общение по проблематике в комментариях!

66
11 комментариев

сейчас можно вообще не вооруженным взглядом все выявить, пока оно еще не так развито чтобы привлекать какие то технические средства

2
Ответить

не согласен, есть некоторые изображения, где комар носа не подточит , очень реалистично выглядит

2
Ответить

Ежемесячный ущерб от действий мошенников, использующих в своих схемах генеративный ИИ, в т.ч. дипфейки, уже сейчас исчисляется десятками миллионами рублей в РФ. И эти показатели будут расти. Мы должны быть к этому готовыми.

1
Ответить

Прикольная тема

2
Ответить

Алгоритм определения очень плохой и спотыкается на самом простом

1
Ответить

Как раз такие эксперименты мы и ждали в качестве обратной связи от читателей поста. Насколько Вы уверены в происхождении этой картинки?

Ответить

"определить признаки ИИ может только специально обученный ИИ"

1
Ответить