{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Люди не смогли отличить созданные нейросетью OpenAI Sora видео от настоящих

Несколько недель назад компания Open AI представила новую нейросеть Sora, которая способна генерировать реалистичные видео по текстовому описанию. Продолжительность видео может достигать одной минуты, а разрешение составляет 1920×1080 пикселей.

Теперь компания HarrisX провела опрос, чтобы выяснить, смогут ли взрослые американцы отличить видео, сгенерированное искусственным интеллектом, от настоящего. В результате опроса выяснилось, что большинство респондентов допустили ошибки в 5 из 8 предлагаемых роликов.

В опросе, который проводился с 1 по 4 марта в США, приняли участие более 1000 американцев. Исследователи сгенерировали четыре высококачественных ролика с помощью нейросети Sora, а также выбрали четыре небольших видео, снятых на камеру в реальном мире. Респондентам случайным образом показывали эти видео, и их задачей было определить, был ли ролик снят человеком или сгенерирован искусственным интеллектом. Мнения участников опроса разделились, но при этом в 5 из 8 случаев большинство респондентов дали неверный ответ.

Это исследование показывает, что контент, создаваемый с помощью генеративных нейросетей, становится все более реалистичным, и отличить его от реального становится все сложнее. Именно поэтому в разных странах все чаще звучат призывы к властям о необходимости законодательного регулирования этого сегмента.

В числе прочего предлагается обязать пользователей нейросетей отмечать генерируемый контент таким образом, чтобы он не вводил других в заблуждение и не мог стать источником дезинформации.

Алгоритм Sora еще не доступен широкой публике, но уже вызывает беспокойство в обществе, особенно в индустрии развлечений, где развитие технологий генерации видео может привести к негативным последствиям, например, для киностудий. Более того, все чаще возникает вопрос о том, что подобные алгоритмы могут использоваться для создания фейковых видео с участием политиков и знаменитостей, что может привести к непредсказуемым последствиям.

0
4 комментария
Николай Легостаев

да видно же,что за людям эти видео показывали.Была как то статья на вс с примерами и там у кота тупо две левые лапы были

Ответить
Развернуть ветку
Нина Кравчук

Помню пост с котами. Хз, пока что это реально можно отличать

Ответить
Развернуть ветку
Арчи Гаврин

Чем смотрели эти люди)

Ответить
Развернуть ветку
Алексей Ермолов

Это круто, что нейронки так прогрессируют. Мне это нравится

Ответить
Развернуть ветку
1 комментарий
Раскрывать всегда