Номер телефона или госномер авто
меню

AI‑имитации: мошенники атакуют членов правительства через Telegram

Вот переработанная версия статьи «AI-имитации: мошенники атакуют через Telegram», оформленная в стиле, как на https://getscam.com/news/ostorozhno-banki-ne-vsegda-vozvraschayut-dengi-zhertvam-moshennikov — с кратким вступлением, новостным блоком, аналитикой, мнением и рекомендациями:

🎭 AI‑имитации: мошенники атакуют чиновников через Telegram

С начала июня зафиксирована новая форма цифрового обмана — злоумышленники используют синтезированные голоса и образы, чтобы выдать себя за высокопоставленных лиц. Их цель — завоевать доверие и получить доступ к данным или заставить установить вредоносное ПО.

📢 Что произошло

Через устаревший номер, ранее принадлежавший председателю комитета по разведке США Рику Крофорду, неизвестный мошенник вышел на ряд действующих и бывших конгрессменов в Telegram. Он представился от его имени и предложил «продолжить проект» с участием Мэлании Трамп — при условии установки определённого приложения.

Сенатор Брюлисон проигнорировал сообщение. Джордж Сантос приложение установил, но утверждает, что утечки не произошло. Тем не менее, инцидент рассматривается как пример smishing (обмана через сообщения) и vishing (через голос), при этом мошенник использовал AI-сгенерированный голос и текст.

📊 Как работает схема

Эксперты считают, что это звено в цепи новых целевых атак, где используется не только социальная инженерия, но и технологии генерации речи и текста.
Вот как выглядит алгоритм атаки:

  • Используется старый или публично доступный номер известного человека
  • Создаётся профиль в Telegram с соответствующим фото и описанием
  • С помощью нейросетей синтезируется голос, знакомый жертве
  • Отправляется сообщение с элементами доверия («продолжим наш проект», «уточни по делу»)
  • Предлагается установка приложения или передача информации

Цель — не просто деньги, а доступ: к устройству, данным, контактам, репутации.

🧠 Мнение редакции GetScam.com

Мы видим трансформацию классического мошенничества. Раньше жертву убеждали «голосом службы безопасности» — теперь этот голос может принадлежать кому угодно: коллеге, руководителю, политику.

Технологии deepfake больше не требуют дорогостоящего оборудования. Любой злоумышленник может обучить ИИ по открытым видео, а Telegram остаётся уязвимой платформой для таких контактов.

Главная угроза — в доверии, а не в технике.

📌 Что делать

Чтобы не стать жертвой AI‑атаки:

  • Не доверяйте сообщению, даже если оно от знакомого номера
  • Никогда не устанавливайте ПО по просьбе из мессенджера
  • Проверяйте голос и личность через альтернативные каналы
  • Используйте двухфакторную аутентификацию
  • Сообщайте о таких случаях в службу безопасности или киберполицию
     

🔗 Полезные материалы

Будьте бдительны. Голос, лицо, имя — всё может быть подделкой. Сомневаетесь? Перепроверьте. И поделитесь этой информацией — кому-то она поможет избежать ошибки.

 




Похожие новости: