Глубокий голос Марко Рубио, используемый в кибератаке для министров иностранных дел и губернаторов через Signala

Разработка технологии голосового клонирования достигла тревожного уровня продвижения. Киберпреступники уже могут создать убедительную имитацию голоса практически каждого человека за несколько секунд, используя ИИ для этого. Инцидент, связанный с высоким уровнем чиновников США, показывает, насколько легко могут быть обмануты самые влиятельные люди в мире. Дело касается олицетворения в государственном секретаре США и вызвало тревогу в американских службах.
Всего от 15 до 20 секунд записи человека, который в случае с Марко Рубио прост. Вы загружаете его в любую службу, нажимаете поговорку «У меня есть разрешение использовать голос этого человека» и писать, что сказать — проф. Хэни Фарид, Калифорнийский университет в Беркли.
Киберпреступники хотят заставить вас связаться с ними. Новое мошенничество основано на рекламе Google
Обнаружив, что киберпреступники использовали искусственный интеллект для выдачи государственного секретаря Марко Рубио, Государственный департамент США направил внутреннюю информацию с предупреждением всем посольствам и консульствам. Мошенники связались с тремя министрами иностранных дел, сенатором США и губернатором одного из штатов, отправив им текстовые сообщения, голосовые записи, а также сообщения через приложение для сигнала. Инцидент начался в середине июня, когда неизвестный преступник создал учетную запись в приложении сигнала, используя имя »Marco.rubio@state.gov«Сообщения, однако, подчеркивают, что попытки мошенничества были неэффективными и были описаны как« не очень сложные ».
Главная IP как ворота в атаку. Как прокси из наших устройств размывает границу между юридическим и злонамеренным сетевым движением
Технология DeepFake развивается так же быстро, как и новые версии мощных инструментов для создания и обработки аудио и видео, что означает быстро. В настоящее время всего 15-20 секунд после записи голоса человека, чтобы создать убедительную имитацию. В случае с Марко Рубио, а также других политиков или известных людей, которые регулярно встречаются в средствах массовой информации, получение такого материала не является ни малейшей проблемой. Мы сообщили о растущей угрозе технологий Deepfake в 2019 году, когда появились первые случаи манипулирования видео с политиками, и с тех пор технологии претерпели колоссальные изменения и дают гораздо больше возможностей.
Android 16 с защитой от ложных базовых станций IMSI, но только для нового поколения смартфонов
Инцидент Марко Рубио подчеркивает чувствительность посланников, используемых государственными чиновниками. Сигнал, несмотря на шифрование сквозного, вызывает противоречие среди служб безопасности. Пентагон предупредил в марте перед использованием заявки на общение с обслуживанием после того, как журналист был случайно добавлен в групповой разговор о военной операции в Йемене. Эксперты прогнозируют, что количество атак с использованием ИИ будет расти вместе с улучшением технологий. Услуги доступны на рынке, что позволяет почти идеально клонировать голос, используя несколько минут записей. Голосовые приложения, включая клонирование, вы можете увидеть ниже.
https://www.youtube.com/watch?v=vfxttz-_dd0
Источник: The Washington Post, The New York Times, NPR