Мошенники с помощью ИИ подделывают голоса ваших родственников

Мошенники с помощью ИИ подделывают голоса ваших родственников

Теперь с помощью ИИ можно подделать голос любого человека, например вашего родственника. Этим стали пользоваться мошенники, чтобы выманить деньги.

Жертвам приходят звонки, в которых синтезированные голоса друзей, внуков и родственников, якобы оказавшихся в беде, просят о помощи. Кто-то попал в тюрьму и нуждается в залоге, другой оказался в долгах и просит помочь, ну и так далее. Для подобной аферы мошенникам достаточно записать пару минут речи человека, чтобы пугающе реалистично воссоздать его голос на записи. Так они обманывают чаще всего пожилых людей, которые даже и не слышали о существовании подобных технологий.

Поэтому если вы получили запись подозрительного звонка с незнакомого номера с голосом вашего друга или родственника — не принимайте его на веру и на всякий случай постарайтесь связаться с якобы звонившим любым удобным способом.

17 комментариев

Таки уже это работает?

Ещё как.

Не очень радостные новости, учитывая, что и так мошенников сейчас ну очень много, причём даже при соблюдении мер предосторожности, можно попасть на очередную мошенническую уловку