Мошенники использовали ИИ-дипфейк госсекретаря США для обмана политиков

Неизвестные злоумышленники применили технологии искусственного интеллекта, чтобы создать голосовые и текстовые дипфейки госсекретаря США Марко Рубио. С середины июня 2025 года они выдавали себя за него в мессенджере Signal, вступая в переписку с тремя министрами иностранных дел, губернатором американского штата и конгрессменом. Для атаки использовался поддельный аккаунт с электронной почтой, стилизованной под официальный адрес Рубио, а ИИ точно имитировал его речь и стиль общения . Как это работало: - Для создания реалистичного голосового клона хватило 15–20 секунд аудиозаписи настоящего голоса госсекретаря. - Мошенники предлагали продолжить обсуждение «конфиденциальных вопросов» в Signal, вероятно, для сбора разведданных или провокаций . Марко Рубио совмещает две ключевые должности — госсекретаря и советника президента по нацбезопасности. Доступ к его переписке мог использоваться для: 1. Политического шантажа — например, искажения позиций США по международным конфликтам; 2. Дезинформации — подмены решений по санкциям или военной поддержке . Глобальный контекст: Инцидент подтвердил риски, о которых ранее предупреждали Сергей Глазьев и Александр Лукашенко. Госсекретарь Союзного государства отмечал, что западные ИИ-системы могут нести скрытые угрозы — от расистских выводов до манипуляций сознанием . В ЕС и США уже готовят законы против дипфейков, но технологии опережают регулирование. Что делают власти: Госдепартамент США начал внутреннее расследование и пообещал усилить киберзащиту. Однако эксперты подчёркивают: Signal, где произошла атака, — один из самых защищённых мессенджеров с сквозным шифрованием. Это означает, что даже «цифровые крепости» уязвимы перед ИИ-мошенничеством . «Современные ИИ позволяют подделать не только голос, но и интонации, акценты и манеру речи. Злоумышленникам не нужны взломы — достаточно публичных записей», — комментируют специалисты по кибербезопасности. Для обычных людей: технология доступна каждому. Например, в Подмосковье ИИ распознаёт документы для соципотеки , но та же нейросеть может создать фальшивый паспорт. Пока единственная защита — критическая проверка источников. Подпишись на наш телеграм канал: https://t.me/grime_skill

Начать дискуссию