Как создатели ChatGPT борются с дипфейками и дезинформацией

Влияние продуктов на базе ИИ на нашу жизнь усиливается с умопомрачительной скоростью. Разработчики ChatGPT осознают это и работают над тем, чтобы предотвратить злоупотребления и обеспечить достоверность создаваемого ИИ контента. А нам важно понимать, какие есть возможности, чтобы не нарваться на фейковый контент.

Например, недавно фейковое фото горящей Эйфелевой башни в соцсети собрало 87 млн просмотров за три дня.

Фейковое фото собрало 87 млн. просмотров за 3 дня <br />
Фейковое фото собрало 87 млн. просмотров за 3 дня

Вот основные инициативы от OpenAI.

1. Предотвращение злоупотреблений

1) В DALL·E отклоняются запросы на создание изображений реальных людей, включая кандидатов для предотвращения создания дипфейков.

2) Регулярное обновление политики использования ChatGPT и API по мере того, как появляется больше сведений о том, как люди используют или пытаются злоупотреблять технологией.

3) Запрет на создание приложений для политических кампаний и лоббирования, по крайней мере, до тех пор, пока не поймут, насколько эффективными могут быть инструменты для личного убеждения.

Буквально 21 января в Washington Post появилась информация,что OpenAI впервые забанил разработчика политического чат-бота.

The Washington Post сообщила, что стартап Delphi не может использовать платформу OpenAI после того, как он создал Dean.Bot, чат-бот, имитирующий представителя Дина Филлипса (демократ от Миннесоты).

2. Прозрачность контента, созданного ИИ

Идет работа над несколькими проектами по обеспечению прозрачности происхождения изображения и возможности определить, какие инструменты использовались для создания изображения.

1) В начале 2024 г. обещают внедрить «знак прозрачности» для изображений, созданных с помощью DALL·E 3. В значке будут закодированы сведения о происхождении контента с помощью криптографии. Специальный значок разрабатывается в рамках Коалиции за подлинность контента (C2PA).

Так, вероятно, будет выглядеть знак прозрачности контента от коалиции. Источник <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fc2pa.org%2Fpost%2Fcontentcredentials%2F&postId=994306" rel="nofollow noreferrer noopener" target="_blank">C2PA</a>
Так, вероятно, будет выглядеть знак прозрачности контента от коалиции. Источник C2PA

В начале февраля 2024 г. OpenAI начали маркировать все изображения, которые создаются в ChatGPT и их API. Теперь продукты содержат метаданные с использованием спецификаций C2PA.

2) Эксперименты с классификатором происхождения — новым инструментом для обнаружения изображений, созданных DALL·E. Внутреннее тестирование показало многообещающие первые результаты, даже если изображения подвергались модификации. Планируют вскоре предоставить его первой группе тестировщиков, включая журналистов, медиа и расследователей для получения обратной связи.

3) ChatGPT интегрируется с источниками информации. Пользователи начнут получать доступ к новостям в реальном времени по всему миру, включая данные об источниках информации и ссылки. Это поможет избирателям лучше оценить информацию и решить для себя, чему они могут доверять.

3. Упрощение доступа к заслуживающей доверия информации о выборах

Компания понимает всю важность и свою ответственность за то, чтобы технология не использовалась для подрыва демократического процесса.

Например, в США OpenAI работает с Национальной ассоциацией государственных секретарей (NASS), старейшей беспартийной организацией государственных служащих. ChatGPT будет направлять пользователей на CanIVote.org, авторитетный веб-сайт с информацией о голосовании в США, когда ему задаются вопросы, связанные с процедурой выборов, например, где голосовать. Эта работа станет основой для работы в других странах и регионах.

Пожалуйста, поддержите меня, поставьте лайк!

1313
реклама
разместить
Начать дискуссию