Facebook выделит $10 млн на конкурс разработки технологии распознавания deepfake-видео Статьи редакции

Принять участие сможет любой желающий.

Facebook выделит $10 млн на конкурс по разработке технологии, распознающих deepfake-контент. Об этом компания сообщила в своём блоге. Партнёрами инициативы стали Microsoft и несколько университетов.

Программа Deepfake Detection Challenge стартует в конце 2019 года и продлится до марта 2020 года. Принять участие в конкурсе сможет любой желающий. Для участников Facebook создаст набор видео с лицами актёров, которых наймёт специально для создания базы. Компания пообещала не использовать данные пользователей соцсети.

Цель программы — создать решения, которые помогут индустрии «определять и предотвращать» распространение видео, созданных с помощью искусственного интеллекта для введения пользователей в заблуждение. Победителей выберет специальный механизм, который оценит и сравнит друг с другом эффективность алгоритмов разных команд. Авторы лучших решений получат гранты и призы.

0
15 комментариев
Написать комментарий...
Александр Борсук

Наконец-то мы узнаем, кто снимает российский кинотрэш. Я, например, сомневаюсь, что это делают люди

Ответить
Развернуть ветку
Янис Зятьков

Гонка вооружений, которую мы заслужили.

Ответить
Развернуть ветку
Alexey Sokolov

Что-то мне подсказывает, что вливание денег в эту нишу - лишь простимулирует ее на развитие :)
Разработчики deep-fake подобных алгоритмов, первыми же ломануться тренировать сетки, которые будут вычислять фейки, получать за это деньги у Facebook, на вырученные деньги совершенствовать качество deep-fake и далее по кругу :)))
Когда выделенные деньги кончатся, у нас наконец появятся совсем качественные deep-fake, которые на глаз уже не отличить :-D

Ответить
Развернуть ветку
ЯжПрограммист

Один ИИ будет делать видосы, другой ИИ будет их смотреть. А - автоматизация.

Ответить
Развернуть ветку
one you follow

Ну, так GAN-ы и работают более-менее

Ответить
Развернуть ветку
Alexander Kapustin

лучший способ делать видео, которые не возможно распознать, это понять все способы, которыми это можно делать :)))

Ответить
Развернуть ветку
Денис Демидов

Противостояние меча и щита вечно!

Ответить
Развернуть ветку
Alexander Kapustin

ага, если что, можно и щитом врезать!

Ответить
Развернуть ветку
Mr. Burns
Победителей выберет специальный механизм

Бот судит битву ботов. Ну привет, киберпанк.

Ответить
Развернуть ветку
Виталий Черепанов

обмен пакетами между ИИ
1)- зацени видосик
2)-ааа, это ведь deepfake, я там добавил "клеймо"
1)- ну а сам видосик понравился?
2)- прикольно, но все таки deepfake!
2) - deepfake!!
1) - c...ка

Ответить
Развернуть ветку
Ivan Matveev

Эффект кобры — идиоматическое выражение, применяемое для характеристики ситуации, когда принятое для разрешения некоей проблемы решение не разрешает эту проблему, а зачастую ведёт к прямо противоположному целям результату[1][2].

Термин «эффект кобры» возник во времена английского колониального правления в Индии. Англичане обнаружили, что развелось слишком много кобр. Чтобы избавиться от ядовитых змей, губернатор назначил награду за каждую сданную голову змеи. Вначале количество змей быстро снизилось в результате их уничтожения. Однако потом индийцы быстро приспособились, начав разводить кобр, чтобы получать премию. В конце концов, когда премия за убитую кобру была отменена, разводчики выпустили обесценившихся змей на волю, и оказалось, что количество ядовитых кобр не только не уменьшилось, но даже возросло.

https://ru.wikipedia.org/wiki/%D0%AD%D1%84%D1%84%D0%B5%D0%BA%D1%82_%D0%BA%D0%BE%D0%B1%D1%80%D1%8B

Ответить
Развернуть ветку
Олег

Любопытно. Одни боты делают дипфейк-видео. Другие боты определяют ботов, которые делают дипфейк-видео. Третьеи боты выбирают ботов, которые определяют ботов, которые делают дипфейк-видео...

Ответить
Развернуть ветку
Roman Maximov

На текущий момент времени это можно назвать тем, что Facebook решила хайпнуть, на самом деле deepfake-видео сейчас только в стадии зарождения, и сказать что проблема с определением носит массовый характер нельзя, потому что определить такое видео можно и на глаз зрителя, вот если бы технология была бы отработана до того уровня где человек не может различить deepfake-видео, то да, такие разработки были бы интересны.

Ответить
Развернуть ветку
Иван Расторгуев

Участвуем

Ответить
Развернуть ветку
Женя Хо

del, сорри

Ответить
Развернуть ветку
12 комментариев
Раскрывать всегда