Использование продуктов нейросетей в преступных целях могут признать отягчающим обстоятельством

Зампредседателя комитета Госдумы РФ по информационной политике, информационным технологиям и связи Антон Горелкин заявил о подготовке законопроекта, согласно которому использование продуктов искусственного интеллекта в целях совершения преступлений могут признать отягчающим обстоятельством.

Прежде всего, речь идет о дипфейках – технологии подделки изображений, видео- или аудиоданных. Злоумышленники могут использовать продукт деятельности нейросетей для совершения мошеннических действий. Так, первый такой случай был зарегистрирован в России в 2021 году, когда мошенники, используя образ известного бизнесмена, создали дипфейк-рекламу с призывом переходить по ссылке и инвестировать свои деньги. Данная технология представляет опасность и для банковской сферы из-за широкого распространения онлайн-кредитования.

Примечательно, что ранее Правительство РФ не поддержало законопроект о распространении дипфейков. По его мнению, незаконное распространение персональных данных человека, в том числе сгенерированных нейросетью фото и видео, уже подпадает под действие ст.137 УК РФ и не требует дополнительного регулирования.

«Планируемые поправки – закономерный результат резкого роста числа киберпреступлений. Так, например, по данным МВД, за 5 лет количество преступлений, совершаемых с использованием информационных технологий, увеличилось в 3 раза. Однако маловероятно, что усиление ответственности за использование дипфейков заставит злоумышленников отказаться от использования данной технологии, поскольку раскрываемость подобных преступлений остается на низком уровне. Это связано не только с недостаточной подготовкой сотрудников, но и с тем, что подавляющая часть подобных преступлений совершается из-за рубежа».

0
Комментарии
-3 комментариев
Раскрывать всегда