{"id":14293,"url":"\/distributions\/14293\/click?bit=1&hash=05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","hash":"05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","title":"\u0421\u043e\u0437\u0434\u0430\u0442\u044c \u043d\u043e\u0432\u044b\u0439 \u0441\u0435\u0440\u0432\u0438\u0441 \u043d\u0435 \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0432 \u043d\u0438 \u043a\u043e\u043f\u0435\u0439\u043a\u0438","buttonText":"","imageUuid":""}

🧬 OpenAI работает над созданием сервиса для распознавания нейросетевых картинок. По результатам первых тестов точность достигает 99%.

По словам представителей OpenAI, с помощью инструмента компания надеется бороться с распространением глубоких подделок и фальшивых новостей, подпитываемых генеративным искусственным интеллектом.

Для распространения ложной информации в социальных сетях многие пользователи Интернета не гнушаются создавать фотомонтажи с помощью искусственного интеллекта. Некоторые из их творений уже поражают своей реалистичностью. В то же время некоторые недобросовестные люди используют ИИ для подделки знаменитостей. Например, Deepfake Тома Хэнкса начал продавать в Интернете стоматологические страховки, а Лео Ди Каприо - украшения. Наконец, совершенствование ИИ сопровождается ростом числа порнографических deepfake, выполняемых без согласия пользователя.

На данный момент инструмент проходит внутренние тестирования и еще не был представлен в общее пользование.

Больше новостей в Телеграм канале:

@neuro_trends8

НЕЙРОСЕТИ | НЕЙРОТРЕНДЫ | CHATGPT | MIDJORNEY | STABLE DIFFUSION

Подпишись в Телеграм и будь в курсе:

0
Комментарии
-3 комментариев
Раскрывать всегда