Вот переработанная версия статьи «AI-имитации: мошенники атакуют через Telegram», оформленная в стиле, как на https://getscam.com/news/ostorozhno-banki-ne-vsegda-vozvraschayut-dengi-zhertvam-moshennikov — с кратким вступлением, новостным блоком, аналитикой, мнением и рекомендациями:
🎭 AI‑имитации: мошенники атакуют чиновников через Telegram
С начала июня зафиксирована новая форма цифрового обмана — злоумышленники используют синтезированные голоса и образы, чтобы выдать себя за высокопоставленных лиц. Их цель — завоевать доверие и получить доступ к данным или заставить установить вредоносное ПО.
📢 Что произошло
Через устаревший номер, ранее принадлежавший председателю комитета по разведке США Рику Крофорду, неизвестный мошенник вышел на ряд действующих и бывших конгрессменов в Telegram. Он представился от его имени и предложил «продолжить проект» с участием Мэлании Трамп — при условии установки определённого приложения.
Сенатор Брюлисон проигнорировал сообщение. Джордж Сантос приложение установил, но утверждает, что утечки не произошло. Тем не менее, инцидент рассматривается как пример smishing (обмана через сообщения) и vishing (через голос), при этом мошенник использовал AI-сгенерированный голос и текст.
📊 Как работает схема
Эксперты считают, что это звено в цепи новых целевых атак, где используется не только социальная инженерия, но и технологии генерации речи и текста.
Вот как выглядит алгоритм атаки:
- Используется старый или публично доступный номер известного человека
- Создаётся профиль в Telegram с соответствующим фото и описанием
- С помощью нейросетей синтезируется голос, знакомый жертве
- Отправляется сообщение с элементами доверия («продолжим наш проект», «уточни по делу»)
- Предлагается установка приложения или передача информации
Цель — не просто деньги, а доступ: к устройству, данным, контактам, репутации.
🧠 Мнение редакции GetScam.com
Мы видим трансформацию классического мошенничества. Раньше жертву убеждали «голосом службы безопасности» — теперь этот голос может принадлежать кому угодно: коллеге, руководителю, политику.
Технологии deepfake больше не требуют дорогостоящего оборудования. Любой злоумышленник может обучить ИИ по открытым видео, а Telegram остаётся уязвимой платформой для таких контактов.
Главная угроза — в доверии, а не в технике.
📌 Что делать
Чтобы не стать жертвой AI‑атаки:
- Не доверяйте сообщению, даже если оно от знакомого номера
- Никогда не устанавливайте ПО по просьбе из мессенджера
- Проверяйте голос и личность через альтернативные каналы
- Используйте двухфакторную аутентификацию
- Сообщайте о таких случаях в службу безопасности или киберполицию
🔗 Полезные материалы
Будьте бдительны. Голос, лицо, имя — всё может быть подделкой. Сомневаетесь? Перепроверьте. И поделитесь этой информацией — кому-то она поможет избежать ошибки.