Бороться с фейками, генерируемыми нейросетью — реально

Привет, на связи Агентство Искусственного Интеллекта! В сегодняшней статье генеральный директор АИИ Д. А. Онацик, С. Фадеева и Т. А. Чисталёва раскроют концепцию правовых аспектов использования контента, сгенерированного нейросетями.

Бороться с фейками, генерируемыми нейросетью — реально

Что такое нейронные сети и зачем они нужны?

Нейронные сети (нейросети) – это алгоритмы машинного обучения, которые используются для решения различных задач и широко используются в различных областях, таких как медицина, промышленность, финансы, транспорт и т.д.

Современное развитие нейросетей связано с развитием технологий искусственного интеллекта (ИИ) и машинного обучения. Для улучшения точности ответов нейронные сети циклично перерабатывают входные и выходные данные, изменяя свои веса и связи между нейронами. Это позволяет сети адаптироваться к изменяющейся информации и улучшать свои результаты при работе с новыми данными.

Наиболее значимый прорыв для нейросетей в общественном сознании произошел в 2022 г., когда поочерёдно произошёл релиз гиперреалистичной нейросети для генерации изображений Midjourney и нейросети по генерации текстов GhatGPT.

Для чего используются нейросети?

В настоящее время нейросети используются в создании виртуальных помощников, таких как Siri (Apple), Alexa (Amazon), Алиса (Яндекс), где требуется распознавать речь, обрабатывать естественный язык, распознавать изображения и многое другое.

В настоящее время нейросети стали также широко использоваться для генерации различного контента – и справляются с этим не хуже человека. Ряд исследований показали, что человеку крайне сложно отличить контент, созданный нейросетью, от контента, созданного человеком.

Нейросети могут генерировать контент в различных областях, таких как: создание текстов, изображений, музыки и видео. Однако искусственный интеллект генерирует контент, обучаясь на огромном массиве общедоступных данных в сети Интернет, где информация далеко не всегда бывает истинной. В результате данный контент может являться ложной информацией (фейком), которая может повлечь за собой негативные последствия, включая нарушение закона и прав граждан.

Проблема распространения ложной информации в современных условиях развития Интернета.

Генерация фейков с помощью нейросетей – это процесс создания ложной или искаженной информации, которая может вводить в заблуждение или манипулировать общественным мнением, что может привести к различным последствиям, включая социальные волнения, политические конфликты и экономические кризисы.

Современная медиасреда характеризуется:

  • Развитием Интернет-технологий, прежде всего, социальных сетей, в которых любой пользователь может трансформировать оригинальную информацию, представленную другим лицом, иногда кардинально меняя изначальный смысл или посыл
  • Высокой скоростью распространения информации среди глобальной аудитории
  • Острой конкуренцией за аудиторию, которая напрямую определяет стоимость рекламы в СМИ
  • Появлением новой бизнес-модели – ориентации на «сенсацию», созданной для привлечения и расширения аудитории
  • «Информационными пузырями», которыми называют стремление пользователей потреблять ту информацию, которая соответствует их взглядам
  • «Информационными каскадами», действие которых заключается в активном распространении юзерами понравившихся им сведений

Таким образом, современная медиасреда делает возможным распространение фейков, ведь искажению с помощью нейросетей может поддаваться совершенно любая информация.

Такие случаи уже были!

Одним из примеров использования нейросетей для генерации фейкового контента является технология «deepfake», с помощью которой GAN способен создавать высокореалистичные изображения людей на фото или видео либо встраивать изображения других людей в существующие видеозаписи. Так, например, работает приложении DeepNude, которое использует нейросеть для удаления одежды с изображений женщин.

Первые образцы сгенерированных нейросетями видео начали распространяться в 2017 году на платформах Reddit и Vice News. В видеороликах было рассказано о созданных с помощью искусственного интеллекта фейковых эротических видео с известной голливудской актрисой Галь Гадот и другими известными селебрити.

Одним из наиболее известных примеров дипфейков является ролик под названием «Вы не захотите поверить тому, что Обама скажет в этом видео!» , размещенный на ресурсе BuzzFeed в апреле 2018 г. В первой части видео фейковое изображение Барака Обама произносит речь, оскорбляющую Дональда Трампа. Во второй части видео был показан настоящий человек, который на самом деле говорил эти слова.

Благодаря возможностям нейросетей, получили распространение также и новые формы мошенничества с использованием новых технологий. В 2019 г. генеральный директор одной из фирм немецкой энергетической компании в Великобритании перевел телефонным мошенникам 220 000 евро. Киберпреступники использовали нейросеть, чтобы сымитировать голос его начальника в телефонном разговоре и потребовать перевести указанную сумму якобы на счёт венгерского поставщика.

В 2023 году на платформе Reddit стали распространяться кадры разрушений после сильного землетрясения и цунами в США и Канаде в 2001 г. Все эти реалистичные кадры существенно впечатлили аудиторию. Однако подобного землетрясения на побережьях США и Канады в 2001 г. не было – кадры были сгенерированы нейросетью Midjourney.

Исходя из примеров распространения фейков, созданных нейросетями, следует, что они могут быть использованы для распространения ложной информации, пропаганды ненависти, обмана избирателей на выборах, вымогательства денег, клеветы и т.д., что может приводить к неправильным решениям в политике, экономике и других областях, а также к потере доверия к государственным институтам и организациям.

Опыт борьбы с ложной информацией, сгенерированной нейросетями.

В 2019 г. в Государственной Думе Российской Федерации был принят пакет законопроектов, направленный на борьбу с недостоверной информацией, согласно которому, недостоверная информация и/или её источник подлежит блокировке, а штраф за публикацию такой информации может составлять до 500 000 рублей при первичном нарушении, до 1 млн руб. – при повторном нарушении и до 1,5 млн руб. – в случае, если фейк повлек за собой тяжёлые последствия, включая смерть или причинение тяжкого вреда здоровью.

В период пандемии COVID-19 в апреле 2020 г. были приняты поправки уже в Уголовный кодекс Российской Федерации (УК РФ), регулирующие распространение ложных материалов. Согласно УК РФ, распространение фейков может наказываться: по ст. 207.1 – штрафом до 700 000 руб., либо ограничением свободы на срок до 3 лет; по ст. 207.2 – штрафом до 1,5 млн руб., либо ограничением свободы на срок до 3 лет.

Проблема существования фейков успела затронуть все континенты и страны мира. Разные государства по-разному оценивают опасность, исходящую от фейковой информации и по-разному стараются регулировать медиапространство, чтобы предотвратить её распространение.

Какие юридические меры могут быть приняты для защиты граждан от последствий распространения фейков, сгенерированных нейросетями?

Одним из основных вопросов правового регулирования фейкового контента является определение универсальных критериев, по которым можно определить, что является фейковой информацией.

Кроме того, необходимо развивать технологические методы, способные выявлять фейковый контент. В настоящий момент уже есть ряд программ и чат-ботов, которые могут определить, был ли контент, в том числе визуальный, создан или отредактирован нейросетью. Но для того, чтобы внедрять такие технологические методы в правоприменение, необходимо создать универсальную программу, которой будут пользоваться ответственные органы для определения недостоверности информации.

Также остаётся актуальным вопрос о том, кто должен нести ответственность за появление фейкового контента. Самым логичным выглядит наказание создателя фейка, поскольку он/она, скорее всего, создавали его намеренно. В связи с различным характером влияния фейков на общество важно выделить различные уровни ответственности за создание и распространение дезинформации. В качестве отдельной сферы ответственности следует выделить намеренное обучение нейросетей с использованием ложной информации и её последующее распространение.

Исходя из того, что практически из любой точки можно получить доступ к любому контенту, в борьбе с распространением фейков следует разработать механизмы сотрудничества между странами для обмена информацией, разработки общих стандартов и координации действий.

Но наиболее эффективным способом защиты от фейковой информации является развитие у граждан навыков компьютерной грамотности и критического мышления. Этот метод борьбы является долгосрочным, однако практика показывает, что он приносит явные результаты.

Подведем итоги.

Использование фейкового контента сгенерированного с помощью нейросетей может приводить к разнообразным последствия, включая обман людей, распространение ложной информации, поощрение общественной паники и т. д. В России использование фейкового контента может быть рассмотрено как нарушение законодательства о распространении информации. Сегодня вызовы и опасности применения ИИ заставляют юридических специалистов по всему миру искать пути наиболее эффективной защиты граждан от негативных последствий.

Правовое регулирование фейкового контента требует комплексного подхода, включающего разработку алгоритмов для выявления фейковой информации, установление ответственности за ее распространение, разработку механизмов контроля за использованием ИИ в чувствительных областях,поощрение международного юридического сотрудничества, а также повсеместное внедрение программ, развивающих критическое мышление у граждан.

44
Начать дискуссию