Как индустрия искусственного интеллекта борется с фейками

В отчете “Global Risks Report 2024” ИИ-фейки стоят на втором месте, а в ближайшие два года, по мнению экспертов, эта проблема и вовсе выйдет на первое место. Это отражает растущую обеспокоенность всех, начиная с создателей ИИ продуктов и заканчивая политиками. К счастью, над решением проблемы работают с разных сторон, читайте, как именно.

Текущие угрозы в мире согласно<a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww3.weforum.org%2Fdocs%2FWEF_The_Global_Risks_Report_2024.pdf&postId=994689" rel="nofollow noreferrer noopener" target="_blank"> Global Risks Report 2024 </a>от ВЭФ<br />
Текущие угрозы в мире согласно Global Risks Report 2024 от ВЭФ
700000
Столько создается изображений с помощью ИИ в день по оценкам китайского университета Синьхуа.

1) Усилия создателей контента

Nikon, Sony и Canon борются с фейками ИИ с помощью новой технологии. Они внедряют цифровые подписи, которые помогут отличить настоящие фотографии от подделок.

«Фальшивые и манипулируемые изображения являются серьезной проблемой для новостных организаций. Они не только способствуют дезинформации и дезинформации, но в конечном итоге подрывают доверие общественности к реальным и точным изображениям»

Дэвид Эйк, оператор-постановщик AP. Источник

Альянс новостных, технологических компаний и производителей фотоаппаратов уже запустил веб-инструмент Verify для бесплатной проверки изображений. Если изображение имеет цифровую подпись, на сайте отображается дата, местоположение и другие учетные данные. Если изображение было создано с помощью ИИ или было изменено, инструмент проверки пометит его как «Нет учетных данных контента».

Кроме того, Canon выпускает приложение для управления изображениями, позволяющее узнать, сделаны ли изображения людьми.

Приложение Canon позволяет пользователям увидеть, как изображение менялось с течением времени. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.google.com%2Furl%3Fq%3Dhttps%3A%2F%2Fasia.nikkei.com%2FBusiness%2FTechnology%2FNikon-Sony-and-Canon-fight-AI-fakes-with-new-camera-tech%26amp%3Bsa%3DD%26amp%3Bsource%3Ddocs%26amp%3Bust%3D1705844604598017%26amp%3Busg%3DAOvVaw2LNBAUjXu1W1dtWLphePpw&postId=994689" rel="nofollow noreferrer noopener" target="_blank">Источник</a><br />
Приложение Canon позволяет пользователям увидеть, как изображение менялось с течением времени. Источник

Также производители внедряют цифровые подписи, которые соответствуют глобальному стандарту, используемому Nikon, Sony и Canon. Sony разработала встроенную в камеру цифровую подпись совместно с Associated Press и начнет производить такие камеры весной 2024 года. Еще Sony внедрит C2PA аутентификацию (см. информацию о ней ниже). Canon также обещает внедрить цифровую подпись в этом году.

Технология аутентификации Sony обеспечивает цифровую подпись, исключая возможность незамеченных манипуляций на начальном этапе. Она создается внутри камеры в момент снимка и предназначена для профессионалов, желающих защитить подлинность своего контента.

Японские компании контролируют около 90% мирового рынка цифровых фотоаппаратов.

2) Усилия разработчиков ИИ инструментов

Работа идет как минимум в трех направлениях. Подробнее об усилиях разработчиков тут.

В августе 2023 г. Google выпустила инструмент, который встраивает невидимые цифровые водяные знаки в изображения, созданные искусственным интеллектом. В 2022 году Intel разработала технологию, позволяющую определять подлинность изображения путем анализа цвета кожи, указывающих на кровоток под кожей субъектов. Hitachi разрабатывает технологию защиты от подделок для онлайн аутентификации личности.

В конце 2023 года OpеnAI совместно с Коалицией за подлинность контента (C2PA) представила новый «знак прозрачности» Content Credentials, который будет служить создателям, маркетологам и потребителям во всем мире знаком доверия к цифровому контенту.

«Знак прозрачности» <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fc2pa.org%2Fpost%2Fcontentcredentials%2F&postId=994689" rel="nofollow noreferrer noopener" target="_blank">C2PA</a>
«Знак прозрачности» C2PA

Также в OpenAI идут эксперименты с классификатором происхождения — новым инструментом для обнаружения изображений, созданных DALL·E. Внутреннее тестирование показало многообещающие первые результаты, даже если изображения подвергались модификации. Планируют вскоре предоставить его первой группе тестировщиков, включая журналистов, медиа и расследователей для получения обратной связи.

В начале февраля 2024 года OpenAI начала маркировать изображения, созданные ChatGPT и DALL·E 3. В изображениях будут закодированы сведения о происхождении контента.

3) Усилия государств

Недавно прошла новость, что Федеральная торговая комиссия (FTC) США запустила свой первый в истории конкурс и выплатит $35 тыс. на борьбу с клонированием голоса. Аналитики из Deloitte на CES 2024 рассказали, что мошенники в этом году смогут заработать до полутриллиона долларов на клонировании голосов при помощи ИИ.

Пожалуйста, поддержите меня, поставьте лайк!

44
1 комментарий

Так же существуют российский аналоги по защите от дипфейков - например проект No Copy - скрытый водяной знак