Мошенничество и безопасность

Как мошенники используют ИИ для создания голосов и историй

Искусственный интеллект (ИИ) сегодня стал мощным инструментом не только для бизнеса, но и для аферистов. Технологии синтеза речи и генерации текста позволяют имитировать знакомые голоса и создавать правдоподобные истории. В результате жертве всё труднее отличить обман от реальности.

📌 Голосовые подделки: как работает deepfake-звонок

Современные нейросети способны обучиться на записи длиной всего 5–10 секунд. После этого система:

  • воспроизводит любые фразы голосом жертвы;
  • имитирует интонации и особенности речи;
  • формирует звонки, неотличимые от настоящего разговора.

Примеры применения:

  • классическая схема «Ваш родственник в беде» теперь звучит голосом сына или внука;
  • звонки «от начальника» сотрудникам компаний с требованием перевести деньги;
  • подделка голоса банковского менеджера — жертва уверена, что общается с реальным сотрудником.

🕵️ Генерация историй и сценариев

ИИ используется не только для подделки голоса, но и для выстраивания легенды:

  • Автоматические переписки. Чат-боты с поддержкой GPT ведут диалог, притворяясь техподдержкой или другом.
  • Фишинговые письма. Генераторы текста создают письма, не отличимые от официальных уведомлений — как при онлайн-обмане с услугами.
  • Сценарии звонков. ИИ адаптирует реплики под реакцию жертвы, усиливая эффект давления — это одна из форм социальной инженерии.

⚠️ Чем это опасно

  • Сложность распознавания. Даже внимательный человек может поверить поддельному голосу.
  • Массовость. Технологии позволяют запускать тысячи атак одновременно.
  • Повышенное доверие. Жертва уверена, что разговаривает с родственником или сотрудником банка — классика вишинга.

🧾 Реальные истории

📍 США, 2023. Родителям позвонили с «голосом дочери», заявив о похищении. Требовали 5 000 $ в криптовалюте. Девочка в это время была в школе.

📍 Германия, 2024. Сотрудник компании перевёл 220 000 € «партнёрам» после звонка «от директора». Голос сгенерировали ИИ по старым записям.

📍 Россия, 2025. Фиксировались звонки от «банковских сотрудников» с поддельным голосом. Жертв убеждали сообщить коды из СМС.

Как защититься

  1. Перепроверяйте информацию через другой канал связи.
  2. Задавайте контрольные вопросы, ответы на которые знает только настоящий человек.
  3. Не доверяйте срочности — «срочно перевести деньги» всегда тревожный сигнал.
  4. Договоритесь о семейных кодовых словах для проверки звонков.
  5. Сообщайте о подозрительных случаях оператору и в полицию.

🔗 Полезные материалы на GetScam.com

Какие схемы используют телефонные мошенники в 2025 году

📍 Вывод

ИИ сделал мошеннические схемы опаснее: вместо грубых звонков и неграмотных писем используются голоса родственников, менеджеров банка или коллег, а тексты пишутся без ошибок.

Главная защита — критическое мышление. Проверяйте любую срочную информацию через независимые каналы и помните: никто из близких или официальных структур не будет требовать срочных переводов «без подтверждения».

Об авторе

Денис Фролов — главный редактор портала GetScam и признанный эксперт в области кибербезопасности с более чем 10-летним опытом. В своей профессиональной деятельности он специализируется на выявлении интернет-мошенничества, анализе цифровых угроз и разработке эффективных стратегий защиты пользователей в онлайн-среде.
Он регулярно публикует аналитические материалы, основанные на проверенных источниках и актуальных исследованиях в сфере информационной безопасности. Цель работы Дениса и команды GetScam — повышение цифровой грамотности и обеспечение прозрачности в вопросах киберугроз. Мы стремимся сделать интернет-пространство безопаснее, предоставляя читателям достоверную информацию, рекомендации по защите личных данных и инструменты для распознавания мошенников.

denis.frolov@getscam.com