Как мошенники используют ИИ для создания голосов и историй
Наш сайт следует политике Trusted- Статья проверена независимым экспертом
Искусственный интеллект (ИИ) сегодня стал мощным инструментом не только для бизнеса, но и для аферистов. Технологии синтеза речи и генерации текста позволяют имитировать знакомые голоса и создавать правдоподобные истории. В результате жертве всё труднее отличить обман от реальности.
📌 Голосовые подделки: как работает deepfake-звонок
Современные нейросети способны обучиться на записи длиной всего 5–10 секунд. После этого система:
- воспроизводит любые фразы голосом жертвы;
- имитирует интонации и особенности речи;
- формирует звонки, неотличимые от настоящего разговора.
Примеры применения:
- классическая схема «Ваш родственник в беде» теперь звучит голосом сына или внука;
- звонки «от начальника» сотрудникам компаний с требованием перевести деньги;
- подделка голоса банковского менеджера — жертва уверена, что общается с реальным сотрудником.
🕵️ Генерация историй и сценариев
ИИ используется не только для подделки голоса, но и для выстраивания легенды:
- Автоматические переписки. Чат-боты с поддержкой GPT ведут диалог, притворяясь техподдержкой или другом.
- Фишинговые письма. Генераторы текста создают письма, не отличимые от официальных уведомлений — как при онлайн-обмане с услугами.
- Сценарии звонков. ИИ адаптирует реплики под реакцию жертвы, усиливая эффект давления — это одна из форм социальной инженерии.
⚠️ Чем это опасно
- Сложность распознавания. Даже внимательный человек может поверить поддельному голосу.
- Массовость. Технологии позволяют запускать тысячи атак одновременно.
- Повышенное доверие. Жертва уверена, что разговаривает с родственником или сотрудником банка — классика вишинга.
🧾 Реальные истории
📍 США, 2023. Родителям позвонили с «голосом дочери», заявив о похищении. Требовали 5 000 $ в криптовалюте. Девочка в это время была в школе.
📍 Германия, 2024. Сотрудник компании перевёл 220 000 € «партнёрам» после звонка «от директора». Голос сгенерировали ИИ по старым записям.
📍 Россия, 2025. Фиксировались звонки от «банковских сотрудников» с поддельным голосом. Жертв убеждали сообщить коды из СМС.
✅ Как защититься
- Перепроверяйте информацию через другой канал связи.
- Задавайте контрольные вопросы, ответы на которые знает только настоящий человек.
- Не доверяйте срочности — «срочно перевести деньги» всегда тревожный сигнал.
- Договоритесь о семейных кодовых словах для проверки звонков.
- Сообщайте о подозрительных случаях оператору и в полицию.
🔗 Полезные материалы на GetScam.com
Какие схемы используют телефонные мошенники в 2025 году
📍 Вывод
ИИ сделал мошеннические схемы опаснее: вместо грубых звонков и неграмотных писем используются голоса родственников, менеджеров банка или коллег, а тексты пишутся без ошибок.
Главная защита — критическое мышление. Проверяйте любую срочную информацию через независимые каналы и помните: никто из близких или официальных структур не будет требовать срочных переводов «без подтверждения».
Об авторе
Денис Фролов — главный редактор портала GetScam и признанный эксперт в области кибербезопасности с более чем 10-летним опытом. В своей профессиональной деятельности он специализируется на выявлении интернет-мошенничества, анализе цифровых угроз и разработке эффективных стратегий защиты пользователей в онлайн-среде.
Он регулярно публикует аналитические материалы, основанные на проверенных источниках и актуальных исследованиях в сфере информационной безопасности. Цель работы Дениса и команды GetScam — повышение цифровой грамотности и обеспечение прозрачности в вопросах киберугроз. Мы стремимся сделать интернет-пространство безопаснее, предоставляя читателям достоверную информацию, рекомендации по защите личных данных и инструменты для распознавания мошенников.



