Телефонное мошенничество получило новую жизнь благодаря технологиям Voice Cloning и ИИ

Мужчина, звонивший Рут Кард, говорил точно так же, как ее внук Брэндон. Поэтому, когда он сказал, что находится в тюрьме, без кошелька и мобильного телефона, и ему нужны деньги для внесения залога, Кард бросилась делать все возможное, чтобы помочь.

Источник <a href="https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/" rel="nofollow noreferrer noopener" target="_blank">The Washington Post</a>
Источник The Washington Post

Кард, 73 года, и ее муж, Грег Грейс, 75 лет, бросились в свой банк в Реджайне, Саскачеван, и сняли 3000 канадских долларов (2207 долларов США в валюте США), дневной максимум. Они поспешили во второе отделение за дополнительными деньгами. Но управляющий банком затащил их в свой кабинет: другому посетителю звонили по тому же принципу, и он узнал, что устрашающе точный голос был фальшивым, вспоминает Кард слова банкира. Человек по телефону, вероятно, не был их внуком. Именно тогда они поняли, что их обманули.

«Нам было страшно, — сказала Кард в интервью The Washington Post. «Мы были убеждены, что разговариваем с Брэндоном».

По мере того, как мошенничество с выдачей себя за другое лицо в Соединенных Штатах растет, ситуация семьи Кард свидетельствуют о тревожной тенденции. Технологии упрощают и удешевляют для имитации голосов, убеждая людей, часто пожилых, в том, что их близкие находятся в бедственном положении. Согласно данным Федеральной торговой комиссии, в 2022 году мошенничество с самозванцами было вторым по популярности рэкетом в Америке: было зарегистрировано более 36 000 сообщений о том, что люди были обмануты теми, кто выдавал себя за друзей и членов семьи. По словам представителей FTC, более 5100 из этих инцидентов произошли по телефону, что привело к потере людьми более 11 миллионов долларов.

Достижения в области искусственного интеллекта добавили новый пугающий слой, позволяющий злоумышленникам воспроизвести голос с помощью всего лишь аудиосэмпла из нескольких предложений. Множество дешевых онлайн-инструментов на базе искусственного интеллекта могут преобразовать аудиофайл в копию голоса, позволяя мошеннику заставить его «говорить» то, что он набирает.

Эксперты говорят, что федеральные регулирующие органы, правоохранительные органы и суды плохо оснащены, чтобы решить эту проблему. У большинства жертв мало зацепок, позволяющих идентифицировать преступника, и полиции сложно отследить звонки от мошенников, действующих по всему миру. И у судов мало юридических прецедентов, чтобы привлечь компании, которые делают инструменты, к ответственности за их использование.

Технология искусственного голоса делает эту уловку более убедительной. Жертвы сообщают, что реагируют на внутренний ужас, когда слышат, что их близкие в опасности. Это мрачное влияние недавнего роста генеративного искусственного интеллекта, который поддерживает программное обеспечение, создающее тексты, изображения или звуки на основе данных, которые ему передаются. Достижения в области математики и вычислительной мощности улучшили механизмы обучения для такого программного обеспечения, побудив целый ряд компаний выпускать чат-ботов, создателей изображений и голосовых команд, которые выглядят странно реалистичными.

Программное обеспечение для генерации голоса с помощью ИИ анализирует то, что делает голос человека уникальным, включая возраст, пол и акцент, и выполняет поиск в обширной базе данных голосов, чтобы найти похожие и предсказать закономерности. Затем он может воссоздать высоту тона, тембр и отдельные звуки голоса человека, чтобы создать похожий общий эффект.

Два года назад, даже год назад, вам нужно было много аудио, чтобы клонировать голос человека. Теперь если вы записали TikTok и ваш голос присутствует там в течение 30 секунд, люди могут клонировать ваш голос.

Такие компании, как ElevenLabs, стартап по синтезу голоса с помощью ИИ, основанный в 2022 году, преобразуют короткий вокальный образец в синтетически сгенерированный голос с помощью инструмента преобразования текста в речь. Согласно сайту, программное обеспечение ElevenLabs может быть бесплатным или стоить от 5 до 330 долларов в месяц, а более высокие цены позволяют пользователям больше возможностей.

ElevenLabs рассказала в новостях после критики своего инструмента, который использовался для воспроизведения голосов знаменитостей, говорящих то, чего они никогда не делали, например, Эмма Уотсон, ложно декламирующая отрывки из «Майн кампф» Адольфа Гитлера. ElevenLabs не ответила на запрос о комментариях, но в твиттере компания заявила, что включает меры предосторожности для предотвращения неправомерного использования, включая запрет пользователям создавать собственные голоса и запуск инструмента для обнаружения звука, сгенерированного искусственным интеллектом.

Но такие меры безопасности слишком запоздали для таких жертв, как Бенджамин Перкин, чьи пожилые родители потеряли тысячи долларов из-за голосового мошенничества.

Его кошмар с клонированием голоса начался, когда его родителям позвонил предполагаемый адвокат и сообщил, что их сын убил американского дипломата в автокатастрофе. Перкин сидел в тюрьме и нуждался в деньгах на судебные издержки на сумму в 21 000 долларов.

Позже родители Перкина сказали ему, что этот звонок показался ему необычным, но они не могли избавиться от ощущения, что действительно разговаривали со своим сыном.

Голос звучал «достаточно близко, чтобы мои родители действительно поверили, что разговаривали со мной», — сказал он. В состоянии паники они бросились в несколько банков, чтобы получить наличные, и отправили деньги адвокату через биткойн-терминал.

Когда в ту ночь настоящий Перкин позвонил своим родителям, чтобы навестить их, они были сбиты с толку.

Непонятно, откуда мошенники взяли его голос, хотя Перкин разместил на YouTube видеоролики, рассказывающие о его увлечении катанием на снегоходах. По словам Перкина, семья подала заявление в полицию федеральным властям Канады, но это не вернуло деньги.

— Деньги ушли, — сказал он. «Нет никакой страховки. Их больше нет.

Уилл Максон, помощник директора отдела маркетинга FTC, сказал, что отслеживание голосовых мошенников может быть «особенно трудным», потому что они могут использовать телефон, находящийся в любой точке мира, что затрудняет даже определение того, какое агентство обладает юрисдикцией в отношении конкретного лица.

Мэксон призвал к постоянной бдительности. Если любимый человек говорит вам, что ему нужны деньги, отложите этот звонок и попробуйте позвонить члену семьи отдельно, сказал он. Если подозрительный звонок поступает с номера члена семьи, знайте, что его тоже можно подделать. Никогда не платите людям подарочными картами, потому что их трудно отследить, добавил он, и будьте осторожны с любыми просьбами о наличных деньгах.

Ева Веласкес, исполнительный директор Ресурсного центра по краже личных данных, сказала, что правоохранительным органам сложно выследить воров, клонирующих голос. Веласкес, который провел 21 год в окружной прокуратуре Сан-Диего, расследуя мошенничества, сказала, что у полицейских управлений может не хватить денег и персонала для финансирования подразделения, занимающегося отслеживанием мошенничества.

По ее словам, более крупные отделы должны распределять ресурсы по делам, которые можно решить. Жертвы голосового мошенничества могут не располагать достаточной информацией для проведения расследований, из-за чего должностным лицам сложно уделять много времени или сил, особенно в случае небольших убытков.

Суды должны привлекать компании ИИ к ответственности, если продукты, которые они производят, причиняют вред. Юристы, такие как судья Верховного суда Нил Горсуч, заявили в феврале, что правовая защита, защищающая социальные сети от судебных исков, может не применяться к работе, созданной ИИ.

Кард этот опыт сделал ее более бдительной. В прошлом году она поговорила со своей местной газетой Regina Leader-Post , чтобы предупредить людей об этих мошенничествах. Поскольку она не потеряла деньги, но она не сообщила об этом в полицию.

"Это была не очень убедительная история" — сказала она.

4
4 комментария

Класс, займемся этим )))

Ответить

Мда.. Ждём советов, как предостеречь себя от нового вида мошенничества

Ответить

Да по сути легко,просто спросите что-то что знаешь только вы и он. У них же просто подделка голоса плюс ещё могут быть какие-то данные публичные с глаза бога, не более

Ответить

Вот был бы такой инструмент, который позволял бы переводить с английского на читаемый русский...

Ответить