Ernst & Young начала применять дипфейки сотрудников для общения с клиентами вместо личных встреч Статьи редакции
E&Y используют технологию стартапа Synthesia, которая из 40-минутного видео может сделать виртуальную копию человека.
Часть партнёров одной из крупнейших консалтинговых и аудиторских компаний Ernst & Young перешла на общение с клиентами через дипфейки «самих себя». Таким образом в фирме решили разнообразить общение с клиентами, которое теперь проходит только в онлайн-формате, сообщает Wired.
Дипфейк-версии сотрудников начали применять в презентациях для клиентов и переписке по электронной почте. Вместо обычного текста или графиков клиенты получают полноценные виртуальные копии, которые рассказывают о презентации или содержимом письма.
В EY начали тестировать технологию британской компании Synthesia, потому что традиционные для компании способы укрепления деловых отношений стали невозможными.
Переход на дипфейки также помог с языковым барьером: один из партнёров компании не говорил на японском, но встроенная система перевода позволила его виртуальной копии общаться с клиентом из Японии на его языке.
Зачем компания перешла на дипфейки
Вместо термина «дипфейк» Ernst & Young назвала своих двойников ARI — личностями дополненной реальности (artificial reality identity), отметил Джаред Ридер — глава по внедрению технологии в компании. По его словам, ARI оказались эффективным способом оживить привычное общение с клиентами. Сгенерированные ролики честно позиционируют как синтетические — компания утверждает, что они не предназначены для обмана.
Первого виртуального двойника сотрудников EY Ридер и команда создали в марте по просьбе одного из клиентов. Когда ARI помог им выиграть сделку, об этом узнали другие партнёры фирмы, и тоже захотели применить у себя копии виртуальных сотрудников. Теперь Ридер работает над аватарами для восьми других команд — все они отказались от комментариев Wired.
Процесс «клонирования» оказался простым — достаточно было 40 минут находиться перед камерой и зачитывать специальный текст. Видео и аудио передают в Synthesia, алгоритмы которой учатся на данных о мимике и голосе человека, чтобы затем их скопировать. В конце процесса достаточно написать текстом то, что должен сказать человек — система сама всё визуализирует.
В Wired протестировали технологию на себе: Ридер прислал им видеопрезентацию, которую провёл его собственный виртуальный клон. По словам журналистов, копия была похожа на настоящего Ридера, с которым они общались по Zoom, а система «сносно сымитировала его голос». Свою речь виртуальный партнёр EY начал со слов «Привет, я Джаред Ридер. Но на самом деле нет — я его аватар».
Как и у всех клиентов Synthesia, у EY потребовали получать разрешения всех людей, которых они хотят скопировать. В компании утверждают, что доступ к технологии «строго ограничен», чтобы избежать злоупотреблений.
Какие вопросы вызывает применение технологии
В Ernst & Young планируют продолжать эксперименты с технологией, но опрошенные Wired специалисты не разделяют энтузиазма компании.
Как отметил Ридер, когда он продвигал использование технологии внутри компании, то тоже сталкивался со скепсисом коллег. Некоторые даже утверждали, что виртуальные двойники обесценивают «человеческий» элемент в их работе.
- 11 августа 2021 года компания Nvidia заявила, что часть сцен на её апрельской презентации были сгенерированы компьютером, а гендиректора Дженсена Хуанга синтезировали с помощью технологии машинного обучения.
Увольнять дипфейков будут или реальных сотрудников?
Если дипфейк будет недостаточно вовлеченный.
тебя 🤡
Как бигдата ляжет
Комментарий недоступен
Принимает гражданин видеозвонок а там Олег Тинькофф предлагает ему взять кредит
Скоро и видео перестанут доверять так же, как сейчас не доверяют фото
ждём дипфейки сотрудников службы безопасности зеленого банка)
- Ма, я сбил человека! Срочно переведи 100500р на этот счет или меня посадят!
теоретически, выход из ситуации: алгоритм, распознающий дипфейк. Наподобие антивируса. Конечно, со всеми вытекающими из "надежности" производителей таких антидипфейков, как и сейчас
Хорошо хоть не на дикпики перешли
Комментарий недоступен
так 40 минут видео надо чтобы составить дипфейк дикпика, 11 минут не хватит
И не на бипки
у Пелевина в "Поколении П" политические дипфейки были еще в 1999 году. думаю и к ним придем (если не уже). Зачем рисковать реальным президентом, запуская его в небо или под воду...
У Ленина тоже было, не помню в каком томе. У Ленина вообще было все, а чего не было у Ленина было у Сталина в собрании сочинений
Комментарий недоступен
Чёрное зеркало какое-то..
Комментарий недоступен
Грани между комфортом и жутью нет, даже тонкой. В любом случае, это жуть. И серьёзная проблема для будущего, где всё может стать подделкой, даже человеческая личность. Не будет доверия ни к видеозаписям, ни к изображениям, чему тогда верить?
Считаю, что эта технология несёт зло. Но человек никогда не может вовремя остановиться. Весело же: розыгрыши, политические баттлы. Но если раньше дипфейки были топорными, сейчас уже требуются специалисты, чтобы их вычислить. Человек, как всегда, сам себе создаёт проблемы.
Доверия уже нет. Теперь ждем-с технологию/продукт, которые будут встраивать хотя бы в камеры наблюдения метки, которые позволят убедится в том что запись не исправлена.
Ну сами загнали себя в виртуальный мир, теперь разбирайтесь где правда а где нет.
А вас кто-то обязал пользоваться технологиями, которые вам не нравятся?
Не будет доверия ни к видеозаписям, ни к изображениям, чему тогда верить?А раньше это доверие у вас было? В прикрепленном изображении никаких дипфейков нет. А искажение есть.
Комментарий недоступен
В России как стране где ложь бздеж и обман - базисы и скрепы государственные, э
то приживется точно
Комментарий недоступен
пример виртуальной копии сотрудника
эта бабень никакого отношения к Ernst & Young не имеет, это стандартный бот Synthesia, которой уже сто лет в обедКакая разница?
Точно, у них другая была
Вспоминается видео 1999 года.
https://www.youtube.com/watch?v=i8JBUktSxvQ
По моему это видео точно характеризует сегодняшнее время и людей
Чушь какая-то
Комментарий недоступен
Клиенты начали делать дип-фейк оплаты счетов
Платежные поручения, чеки и расписки подделывали задолго до этого
Не поняла ни одного достоинства этой технологии для бизнеса.
И не поймёшь, просто контракт with дип, дип pleasure заключишь. ))
В голову приходит только самое очевидное - уволить и не платить зп работникам чьи дип фейки уже сделаны... Думаю эт основное преимущество именно для бизнеса
Все эти дипфейки и другие эксперименты с нейронными сетями, на мой взгляд, до добра не доведут.
Иной раз условная организация, внезапно решившая использовать такие технологии, может стать обезьяной с гранатой. Ведь помимо случаев с возможными сбоями нейросетей начнутся массовые сокращения "в целях оптимизации расходов" и другие случаи, которые в конечном счете навряд ли поднимут организацию на Олимп успеуспехза и почета. И также в очередной раз еще больше увеличится дистанция между потребителем и производителем.
И в целом, представьте, раз в мире идет тенденция на всеобщую цифровизацию и замену людей роботами, то кто и на какие шишы будут приобретать те товары и услуги, которые производит полностью цифровая организация? Ведь если тех же рабочих завода ЖБИ заменить роботами, кто будет приобретать ту продукцию, если, к примеру, проектировщиков зданий и архитекторов тоже заменили технологии искусственного интеллекта?
После того как сделают копии, их улучшать, продумают систему диалогов и ИИ, после этого можно уволить всех сотрудников живых. Причем на этапе изготовления "замен" сами сотрудники с энтузиазом делают этих клонов, надеясь, что цифровые копии их разгрузят.. В итоге, разгрузят.. только на все 100%.
Комментарий недоступен
Не жизнь, а фейк 😥
Комментарий недоступен
Многие СЕО и вицики давно используют технологию на митингах с репортами.
Когда денег столько, что хватает ещё и на развлекухи )
Как правильно - дипфейк или дикпик?
Комментарий недоступен
Комментарий недоступен
Ernst & Young начала применять "дикпики" сотрудников для общения с клиентами вместо личных встреч. было бы интереснее
Комментарий удален модератором
Комментарий удален модератором
Комментарий недоступен
Дикфейк
"Видеозвонки могут усложнить решение проблем, так как изображение может отвлекать от сути разговора."
Ахххха, так в этом же суть консалтинга - за красивой и интересной ширмой скрыть абсолютно очевидные вещи, подаваемые как божественная истина :)
Я думаю, для реальных ИТ компаний, которые делают реально полезное дело - нет нужды заниматься "энтертэйментом" клиентов. В конце концов, никто не о менял обычных человеческих созвонов.
Клиенты такие:
— А можно всех посмотреть?
Искусственной реальности, а не дополненной.
Зачем?
Комментарий удален модератором
Укрепление деловых отношений, это когда два дипфейка общаются друг с другом?
Комментарий удален модератором
Комментарий удален модератором
Комментарий недоступен
Буду называть двойников ARI - арийцами.
Комментарий недоступен