{"id":14262,"url":"\/distributions\/14262\/click?bit=1&hash=8ff33b918bfe3f5206b0198c93dd25bdafcdc76b2eaa61d9664863bd76247e56","title":"\u041f\u0440\u0435\u0434\u043b\u043e\u0436\u0438\u0442\u0435 \u041c\u043e\u0441\u043a\u0432\u0435 \u0438\u043d\u043d\u043e\u0432\u0430\u0446\u0438\u044e \u0438 \u043f\u043e\u043b\u0443\u0447\u0438\u0442\u0435 \u0434\u043e 1,5 \u043c\u043b\u043d \u0440\u0443\u0431\u043b\u0435\u0439","buttonText":"\u041f\u043e\u0434\u0440\u043e\u0431\u043d\u0435\u0435","imageUuid":"726c984a-5b07-5c75-81f7-6664571134e6"}

Компьютерная генерация лица становится реальнее

Мы, лаборатория Friendly Design, следим за трендами и исследованиями в области дизайна и около. Хотим поделиться с вами переводом статьи по предстоящим тенденциям искусственного интеллекта в области генерации лиц и реалистичных персонажей.

Они имеют общие черты с настоящим человеком: белые зубы, разнообразные причёски, мимические линии, морщины, атрибуты, как очки, неправильный прикус и так далее. У каждого из них есть свои взгляд и улыбка.

Подсознательно можно принять тот факт, что этих людей просто не существует, но то, что вы видите, — заметный прогресс в технологии машинного обучения. Всё благодаря известной компании Nvidia. Пора каждому избавляться от парадигмы, что люди на фотографиях — это живые люди.

Ещё несколько лет назад большинство снимков, сделанных искусственным интеллектом, выглядели как плохо отрисованные полицейские эскизы, но всё глобально изменилось. Генеративная состязательная сеть Nvidia, называемая Style GUN, использует технику глубокого обучения под названием «передача стиля», которая различает атрибуты высокого уровня (такие как поры, причёску, форму лица, очки) от стохастических вариаций (веснушки, волосы, щетина, поры).

Выражение «живой» кажется уже неадекватным для описания результатов: это полностью созданные люди, часто неотличимые от реальных.

Естественная реакция — благоговейный страх, сопровождаемый быстрым предчувствием катастрофы. Нетрудно представить, как можно злоупотреблять такими технологиями.

Когда Nvidia опубликовала свой документ StyleGAN в конце прошлого года, опасения по поводу его потенциальных приложений были смягчены затратами. Для создания своего лица команде Nvidia понадобилось восемь неоправданно дорогих графических процессоров и целая неделя обучения ИИ.

Однако недавно она опубликовала код StyleGAN на GitHub, а в прошлом месяце разработчик программного обеспечения Филип Ван создал сайт thispersondoesnotexist.com, который использует StyleGAN для отображения (буквально) нового лица при каждом обновлении браузера. Как сказал Ван: «Большинство людей не понимают, насколько хорош ИИ для синтеза изображений в будущем».

Nvidia отказалась от комментариев.

У нас есть, возможно, один или два года, прежде чем реалистичные результаты, порождённые в Nvidia, начнут убедительно двигаться и говорить.

Прошло чуть больше года с тех пор, как текущие результаты ворвались в сознание мейнстрима и повергли в шок специалистов по этике и публицистов. С тех пор эта паника сменилась мрачным смирением: хотя предполагаемые даты смерти различаются, многие эксперты, хотя и не все, согласны с тем, что наше чувство общего, поддающегося проверке реальности, может быть на пути к разрушению.

Хао Ли, директор лаборатории Vision and Graphics в Университете Южной Калифорнии, говорит OneZero, что даёт ему один или два года, прежде чем вариации реалистичных результатов, генерируемых Nvidia, начнут убедительно двигаться и говорить. Он говорит, что эти инструменты будут доступны любому. И кто знает, для какой цели они их будут использовать.

Помимо того, что фотомодельная индустрия может быть объедена, массовое распространение несуществующих, но совершенно убедительных аватаров углубит кризис в онлайн-знакомствах. Мошенники будут пользоваться фейковыми аккаунтами с уникальными фотографиями, вдаваться в доверие пользователям, выманивать деньги и прочие сбережения у доверчивых и неграмотных людей.

Если вы пытаетесь определить, являются ли некоторые учетные записи ботами, одна из распространённых стратегий — поиск аналогичных изображений (их аватары), потому что обычно эти изображения использовались кем-то ранее.

Авив Овадья, основатель проекта Thoughtful Technology, чья работа направлена на понимание и смягчение «экосистемы дезинформации»

Но StyleGAN эффективно исключает такую возможность.

Недавняя микрополемика иллюстрирует некоторые из опасностей. В конце прошлого месяца пользователь Twitter ElleOhHell — известный писатель-шутник — признался, что он был мужчиной, хотя его профиль представлял женщину-пользователя. Последние пять лет он изображал из себя женщину на фотографиях, которая оказалась его женой.

Он говорит, что она участвовала в этом, поэтому он мог использовать её фотографии, не опасаясь вызова или поиска по схожим изображениям — возможно, единственные вещи, которые останавливают людей с гораздо худшими намерениями, чем ElleOhHell, от маскировки их личности или обмана людей с помощью созданных лиц.

Чувствуем ли мы по-другому, когда белый человек создаёт персонажа, который является чёрной женщиной или женщиной-латиноамериканкой?

Кажется, никто не пострадал от обмана ElleOhHell в Twitter. Тем не менее даже шутка с благими намерениями может принести вред. Виктория Шварц, профессор права в Университете Пеппердайна, которая исследует виртуальных влиятельных людей, таких как блогера Instagram Lil’ Mikaela, поднимает печально актуальную проблему блэкфейса.

Чувствуем ли мы по-другому, когда белый человек создаёт персонажа, который является чёрной женщиной или женщиной-латиноамериканкой?

С этической точки зрения у нас начинают возникать некоторые проблемы.

И как отмечает Рамеш Шринивасан, директор Калифорнийского университета в Лос-Анджелесской лаборатории цифровой культуры, эта технология может закрепить культурное узконаправленное представление о том, как должен выглядеть человек. «То, что считается человеческим, всегда будет представляться предубеждениям мира за пределами этой технологии», — отметил Шринивасан.

Однако не каждый критик готов бить тревогу.

Нет никаких сомнений в том, что поддельный контент может быть оружием, и мы видим это на примере других реалистичных результатов. Но в чём разница между реалистичным результатом и вымышленным персонажем в фильме?

Эрик Голдман, директор Института высоких технологий в Университете Санта

На протяжении большей части последнего десятилетия Марк Цукерберг и его компания неустанно работали над дефикционализацией интернета: настаивали на реальных именах, строили интеграцию практически со всеми сайтами и приложениями, поддерживали всё более широкое и точное распознавание лиц.

Силы победили в этой битве. Очень немногие люди сейчас рассматривают свои профили в социальных сетях как что-то другое, кроме расширения их фактического «я».

Простой в использовании спин на StyleGAN может привести к некоторым интересным концептуальным арт-проектам (макетные ежегодники, наполненные людьми, которых не существует, или сложные, взаимосвязанные сети нереальных друзей, семей и домашних животных), но это, вероятно, не относится к среднему пользователю Facebook, чтобы играть с новой идентичностью.

Мир убедительно реалистичных, движущихся и говорящих результатов, которые, по словам Ли из USC, появятся через пару лет, может немного осложнить ситуацию. Может быть, это вернёт какую-то полиморфную, растворяющуюся личность в дух того интернета, где никто не знает, что ты собака.

Это было частью обещания и привлекательности Second Life и виртуальной реальности: шанс быть другим человеком или обществом, чтобы пинговать между персонажами и расширять своё чувство возможного.

В прошлом месяце лидер компании Nvidia по машинному обучению Анима Анандкумар вступила в бурную дискуссию спора об ИИ, это было спровоцировано решением компании Илона Маска OpenAI сдерживать средства на создание и развитие ИИ, ссылаясь на опасения, что недобросовестные лица могут использовать технологии для создания фейковых новостей.

Одна сторона этих споров гласит, что все исследования должны быть опубликованы, потому что это в конечном счёте хорошо для продвижения общего научного достижения. Другая сторона говорит, что давайте возьмём паузу и убедимся, что мы не расширяем возможности злоумышленников или не приближаем цифровой апокалипсис. Анандкумар находится на иной стороне и считает, что это может поставить учёных в невыгодное положение.

Будет ли StyleGAN адаптировать и расширять поставки тысячи стоковых фото моделей для увеличения благосостояния? Способствовать распространению фейковых новостей о детском борделе Хиллари Клинтон? Разбить сердца десяткам доверчивых вдовцов и затворников? Мы не можем знать. Проблема, по словам Овадьи, в том, что Nvidia тоже не знает и, похоже, не собирается это выяснять.

Для предотвращения катастроф должна быть коммуникация между корпорациями, продвигающими новую технологию, и теми, кто может пострадать от таких исследований в будущем. Никто не может знать точно и принять обоснованное решение о том, что выпустить, а где придержаться.

Нам — тем бедным душам, которые не только выглядят реальными, но и, к сожалению, реальным — остаётся смотреть, что будет дальше.

Оригинальная статья на Medium — по ссылке.

Переведено сообществом Friendly Design.

0
4 комментария
Danila Poyarkov
Style GUN
Ответить
Развернуть ветку
Али Алиев

Что делать если влюбился в одну из ?😅

Ответить
Развернуть ветку
Vladimir Ivanov

Так есть же алгоритм который подменяет лица в порно. Можешь взять своё лицо, её лицо ну и того... самого... :)

Ответить
Развернуть ветку
Vladimir Ivanov

А сегодня была новость что люди боятся ИИ потому что работы лишаться, особенно чиновники. Завтра походу компьютеры мощнее калькулятора начнут запрещать

Ответить
Развернуть ветку
1 комментарий
Раскрывать всегда