Мошенники стали использовать искусственный интеллект для подделки голосовых сообщений в Telegram
Мошенники стали использовать искусственный интеллект для подделки голосовых сообщений в Telegram.
Они получают доступ к аккаунту жертвы, а затем используют ИИ для создания аудиосообщений, которые похожи на голосовые сообщения, отправленные ранее этим же пользователем.
В сообщениях мошенники обычно просят перевести деньги. Отличить поддельные сообщения от настоящих очень сложно.
Самое время напомнить родственникам и друзьям поставить двухфакторную аутентификацию — и включить ее самим.
Подписывай на Telegram-канал и будь в курсе всех самых интересных новостей мира технологий и науки!
берешь и не даешь денег никому никогда ни под каким предлогом, без каментов и прочего нытья и никаких проблем
польностью согласен. В русском языке есть короткое и понятное слово из трёх букв, и это слово - НЕТ.
Мошенники стали очень изощренными
Странно, что автор статьи не рассказал о самом действенном способе сохранности своих средств. А именно никоме не верить и делать перевод лишь тогда, когда сам перезвонишь и удостоверишься в том, что разговариваешь с тем, от кого получил звуковое сообщение.
Поэтому надо ставить таймер на удаление сообщений, фото и голосовые на одноразовый просмотр.