
Вот переработанная версия статьи «AI-имитации: мошенники атакуют через Telegram», оформленная в стиле, как на https://getscam.com/news/ostorozhno-banki-ne-vsegda-vozvraschayut-dengi-zhertvam-moshennikov — с кратким вступлением, новостным блоком, аналитикой, мнением и рекомендациями:
С начала июня зафиксирована новая форма цифрового обмана — злоумышленники используют синтезированные голоса и образы, чтобы выдать себя за высокопоставленных лиц. Их цель — завоевать доверие и получить доступ к данным или заставить установить вредоносное ПО.
Через устаревший номер, ранее принадлежавший председателю комитета по разведке США Рику Крофорду, неизвестный мошенник вышел на ряд действующих и бывших конгрессменов в Telegram. Он представился от его имени и предложил «продолжить проект» с участием Мэлании Трамп — при условии установки определённого приложения.
Сенатор Брюлисон проигнорировал сообщение. Джордж Сантос приложение установил, но утверждает, что утечки не произошло. Тем не менее, инцидент рассматривается как пример smishing (обмана через сообщения) и vishing (через голос), при этом мошенник использовал AI-сгенерированный голос и текст.
Эксперты считают, что это звено в цепи новых целевых атак, где используется не только социальная инженерия, но и технологии генерации речи и текста.
Вот как выглядит алгоритм атаки:
Цель — не просто деньги, а доступ: к устройству, данным, контактам, репутации.
Мы видим трансформацию классического мошенничества. Раньше жертву убеждали «голосом службы безопасности» — теперь этот голос может принадлежать кому угодно: коллеге, руководителю, политику.
Технологии deepfake больше не требуют дорогостоящего оборудования. Любой злоумышленник может обучить ИИ по открытым видео, а Telegram остаётся уязвимой платформой для таких контактов.
Главная угроза — в доверии, а не в технике.
Чтобы не стать жертвой AI‑атаки:
Будьте бдительны. Голос, лицо, имя — всё может быть подделкой. Сомневаетесь? Перепроверьте. И поделитесь этой информацией — кому-то она поможет избежать ошибки.