Правовой вакуум для дипфейков: как ИИ обходит законы о revenge porn
Генеративный ИИ вскрыл уязвимость, о которой юристы говорили теоретически, но с которой бизнес и частные лица уже сталкиваются на практике. Дипфейк-порнография причиняет реальный репутационный и психологический вред, но при этом часто не подпадает под действующие законы о revenge porn. Проблема не в недостатке вреда, а в том, что право по-прежнему защищает «фотографию», а не человека.
Материал Harvard Gazette точно фиксирует корень конфликта. Большинство законов о незаконном распространении интимных изображений писались в 2010-х годах под конкретный технологический сценарий: существовало реальное фото или видео, полученное без согласия, и его дальнейшее распространение. Генеративный ИИ разрушает эту логику, создавая контент, который выглядит достоверно, но формально никогда не существовал.
С точки зрения закона это принципиально меняет квалификацию. Во многих юрисдикциях обязательным элементом состава является «реальное изображение» конкретного лица. Дипфейк, даже полностью копирующий внешность, мимику и голос человека, формально не отвечает этому критерию. В результате авторы и распространители такого контента оказываются вне рамок уголовной и гражданской ответственности.
При этом для жертвы разницы нет. Репутационные потери, давление со стороны окружения, угрозы безопасности и психологические последствия оказываются сопоставимыми, а иногда и более тяжёлыми, чем при утечке реальных фото. Алгоритм позволяет масштабировать вред быстрее и дешевле, чем это было возможно в «аналоговую» эпоху.
Контекст, в котором принимались законы о revenge porn, сегодня выглядит устаревшим. Их философия строилась вокруг защиты контроля над собственным телом и изображением, зафиксированным камерой. Генеративный ИИ создаёт вред без первоисточника, но с тем же эффектом для личности. Право, ориентированное на объект — файл или изображение, — оказывается бессильным, когда вред носит синтетический характер.
Ситуация усугубляется двойственным эффектом таких норм. С одной стороны, высокие стандарты доказывания и формальные критерии действительно защищают свободу выражения и снижают риск чрезмерной цензуры. С другой — они оставляют жертв дипфейков практически без инструментов защиты, особенно на уровне регионального и штатного законодательства, где нормы наиболее консервативны.
Для правовой системы это вопрос не только о морали, но и о конструкции ответственности. Законодателю придётся отвечать на более фундаментальный вопрос: что именно подлежит защите — конкретное изображение или идентичность человека. Пока право выбирает первое, ИИ продолжает обходить запреты, не нарушая их формально.
Отдельная зона риска формируется для цифровых платформ. Они оказываются в серой зоне между принципами свободы контента и ожиданиями общества по предотвращению вреда. Отсутствие чёткой правовой квалификации дипфейков затрудняет выработку единых стандартов модерации и увеличивает регуляторную неопределённость для бизнеса.
В практике команды «Надмитов, Иванов и Партнёры» вопросы ответственности за ИИ-контент всё чаще выходят за рамки классического интеллектуального права и упираются в защиту нематериальных благ и деловой репутации. Дипфейки становятся примером того, как технологический риск не укладывается в существующие правовые категории и требует переосмысления базовых конструкций.
Очевидно, что прецеденты, которые будут сформированы в ближайшие годы, определят регулирование ИИ на десятилетие вперёд. Дипфейки наглядно показывают пределы «аналогового» законодательства: в цифровой среде вред может быть синтетическим, но последствия — абсолютно реальными.