Именно так ощущает себя человек, столкнувшийся с дипфейком – методикой создания голоса или изображения с помощью ИИ. Говоря простыми словами, убедительной и весьма искусной подделкой, которую очень активно используют в разных сферах. Она весьма эффективна в киноиндустрии, сегментах развлечений, рекламы и даже обучения. И хотя положительный опыт использования этой технологии обширен, больше всего о ней говорят в связи с возможностями, которые она открывает для мошенников.
Теперь на любую свою неприличную фотку можно сказать, что дипфейк. Так что не надо с ними бороться))
Отличная идея)) А то бедных госслужащих затравили за фото в купальниках)) А тут - да это недоброжелатели взломали и дипфейк разместили))
Отличная идея
так что делать-то? не пользоваться нейросетями для создания фотореалистичных изображений — вдруг в живого человека попадёшь?
"Также есть предложения по обязательной маркировке фейковых объектов."
Это как, интересно?
Никому нельзя верить!
А если брать изображение Петра | или Екатерины Великой, то никто же не предъявит использование личности?)) С другой стороны сделать документальный фильм с реальными историческими личностями можно в любом нужном сценарии и особо не просвещенный зритель может увиденные факты принять как истину. Вот это тоже надо регулировать.