Мошенники стали использовать искусственный интеллект для подделки голосовых сообщений в Telegram

Мошенники стали использовать искусственный интеллект для подделки голосовых сообщений в Telegram

Мошенники стали использовать искусственный интеллект для подделки голосовых сообщений в Telegram.

Они получают доступ к аккаунту жертвы, а затем используют ИИ для создания аудиосообщений, которые похожи на голосовые сообщения, отправленные ранее этим же пользователем.

В сообщениях мошенники обычно просят перевести деньги. Отличить поддельные сообщения от настоящих очень сложно.

Самое время напомнить родственникам и друзьям поставить двухфакторную аутентификацию — и включить ее самим.

Подписывай на Telegram-канал и будь в курсе всех самых интересных новостей мира технологий и науки!

1
5 комментариев

берешь и не даешь денег никому никогда ни под каким предлогом, без каментов и прочего нытья и никаких проблем

1
Ответить

польностью согласен. В русском языке есть короткое и понятное слово из трёх букв, и это слово - НЕТ.

Ответить

Мошенники стали очень изощренными

Ответить

Странно, что автор статьи не рассказал о самом действенном способе сохранности своих средств. А именно никоме не верить и делать перевод лишь тогда, когда сам перезвонишь и удостоверишься в том, что разговариваешь с тем, от кого получил звуковое сообщение.

Ответить

Поэтому надо ставить таймер на удаление сообщений, фото и голосовые на одноразовый просмотр.

Ответить