{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Ernst & Young начала применять дипфейки сотрудников для общения с клиентами вместо личных встреч Статьи редакции

E&Y используют технологию стартапа Synthesia, которая из 40-минутного видео может сделать виртуальную копию человека.

Часть партнёров одной из крупнейших консалтинговых и аудиторских компаний Ernst & Young перешла на общение с клиентами через дипфейки «самих себя». Таким образом в фирме решили разнообразить общение с клиентами, которое теперь проходит только в онлайн-формате, сообщает Wired.

Дипфейк-версии сотрудников начали применять в презентациях для клиентов и переписке по электронной почте. Вместо обычного текста или графиков клиенты получают полноценные виртуальные копии, которые рассказывают о презентации или содержимом письма.

Пример виртуальной копии сотрудника Synthesia

В EY начали тестировать технологию британской компании Synthesia, потому что традиционные для компании способы укрепления деловых отношений стали невозможными.

Переход на дипфейки также помог с языковым барьером: один из партнёров компании не говорил на японском, но встроенная система перевода позволила его виртуальной копии общаться с клиентом из Японии на его языке.

Зачем компания перешла на дипфейки

Вместо термина «дипфейк» Ernst & Young назвала своих двойников ARI — личностями дополненной реальности (artificial reality identity), отметил Джаред Ридер — глава по внедрению технологии в компании. По его словам, ARI оказались эффективным способом оживить привычное общение с клиентами. Сгенерированные ролики честно позиционируют как синтетические — компания утверждает, что они не предназначены для обмана.

Первого виртуального двойника сотрудников EY Ридер и команда создали в марте по просьбе одного из клиентов. Когда ARI помог им выиграть сделку, об этом узнали другие партнёры фирмы, и тоже захотели применить у себя копии виртуальных сотрудников. Теперь Ридер работает над аватарами для восьми других команд — все они отказались от комментариев Wired.

Процесс «клонирования» оказался простым — достаточно было 40 минут находиться перед камерой и зачитывать специальный текст. Видео и аудио передают в Synthesia, алгоритмы которой учатся на данных о мимике и голосе человека, чтобы затем их скопировать. В конце процесса достаточно написать текстом то, что должен сказать человек — система сама всё визуализирует.

В Wired протестировали технологию на себе: Ридер прислал им видеопрезентацию, которую провёл его собственный виртуальный клон. По словам журналистов, копия была похожа на настоящего Ридера, с которым они общались по Zoom, а система «сносно сымитировала его голос». Свою речь виртуальный партнёр EY начал со слов «Привет, я Джаред Ридер. Но на самом деле нет — я его аватар».

Как и у всех клиентов Synthesia, у EY потребовали получать разрешения всех людей, которых они хотят скопировать. В компании утверждают, что доступ к технологии «строго ограничен», чтобы избежать злоупотреблений.

Какие вопросы вызывает применение технологии

В Ernst & Young планируют продолжать эксперименты с технологией, но опрошенные Wired специалисты не разделяют энтузиазма компании.

Когда у вас есть технология, повторяющая внешность человека, существует тонкая грань между комфортом и жутью. Видеозвонки могут усложнить решение проблем, так как изображение может отвлекать от сути разговора.

Анита Вулли, профессор и психолог Университета Карнеги-Меллон

Как отметил Ридер, когда он продвигал использование технологии внутри компании, то тоже сталкивался со скепсисом коллег. Некоторые даже утверждали, что виртуальные двойники обесценивают «человеческий» элемент в их работе.

  • 11 августа 2021 года компания Nvidia заявила, что часть сцен на её апрельской презентации были сгенерированы компьютером, а гендиректора Дженсена Хуанга синтезировали с помощью технологии машинного обучения.
0
89 комментариев
Написать комментарий...
Оксана Гордеева

Грани между комфортом и жутью нет, даже тонкой. В любом случае, это жуть. И серьёзная проблема для будущего, где всё может стать подделкой, даже человеческая личность. Не будет доверия ни к видеозаписям, ни к изображениям, чему тогда верить?
Считаю, что эта технология несёт зло. Но человек никогда не может вовремя остановиться. Весело же: розыгрыши, политические баттлы. Но если раньше дипфейки были топорными, сейчас уже требуются специалисты, чтобы их вычислить. Человек, как всегда, сам себе создаёт проблемы. 

Ответить
Развернуть ветку
Ли Си Цын
Грани между комфортом и жутью нет, даже тонкой. Считаю, что эта технология несёт зло.

А вас кто-то обязал пользоваться технологиями, которые вам не нравятся? 

Не будет доверия ни к видеозаписям, ни к изображениям, чему тогда верить?

А раньше это доверие у вас было? В прикрепленном изображении никаких дипфейков нет. А искажение есть. 

Ответить
Развернуть ветку
Оксана Гордеева

Проблема дипфейков в том, что этим могут воспользоваться без ведома человека. Мошенники, например. Меня никто не обязывает, конечно) Но если технология, в дальнейшем, будет активно развиваться - это затронет жизнь каждого из нас, так или иначе. 

По оценкам экспертов, ущерб от мошеннических афер с дипфейками в 2020 году превысил 250 миллионов долларов США. 
https://club.cnews.ru/blogs/entry/afery_s_dipfejkami_kakie_ugrozy_skryvayutsya_za_iskusstvennymi_litsami

Пока людей, которые в совершенстве владеют данной технологией - единицы. Как и людей с колоссальным терпением, так как качественный ролик требует ювелирной подгонки. Но это только вопрос времени. 
А про доверие. Это слишком глобальный вопрос. Дело уже не в том, что раньше, а в том, что будет дальше. Мне хочется верить тому, что я вижу. А это, всё сложнее. 

Ответить
Развернуть ветку
Ли Си Цын
Проблема дипфейков в том, что этим могут воспользоваться без ведома человека.

Это не проблема технологии, это проблема людей. Все, что угодно может быть использовано без ведома человека и во вред ему. Вас могут без вашего ведома стукнуть молотком в подворотне. Запрещаем молотки? 

Мне хочется верить тому, что я вижу. А это, всё сложнее.

Ну вот пока вам хочется "верить", так и будете видеть в технологиях угрозу. Попробуйте вместо этого "знать" и жизнь заиграет новыми красками.  А так современный мир вообще сложная штука. Откуда вот вы знаете - электричество в розетке от электростанции или там сидит гремлин и доит вам грозовую тучку с частотой движений 50 раз в секунду? 

Ответить
Развернуть ветку
Оксана Гордеева

Про гремлина и тучку - забавно. У вас отлично развито воображение. 

Ответить
Развернуть ветку
86 комментариев
Раскрывать всегда