Еще недавно в расследованиях дистанционных мошенничеств можно было полагаться на интуицию. Люди слышали неестественность, чувствовали давление, замечали логические разрывы. Сегодня это работает все хуже.
ИИ позволяет синтезировать голос с узнаваемой интонацией, паузами, дыханием. И если раньше злоумышленнику требовался навык убеждения, то теперь достаточно короткого аудиофрагмента и доступа к модели синтеза. По данным МВД РФ, преступления с использованием информационно-телекоммуникационных технологий продолжают занимать значительную долю в структуре преступности. Официальная статистика публикуется на сайте МВД России. Банк России в регулярных обзорах операций без добровольного согласия клиента фиксирует устойчиво высокий уровень ущерба от дистанционных хищений.
ИИ не создал мошенничество. Он усилил его. Искусственный интеллект (ИИ) сегодня стал мощным инструментом не только для бизнеса, но и для аферистов. Технологии синтеза речи и генерации текста позволяют имитировать знакомые голоса и создавать правдоподобные истории. В результате жертве всё труднее отличить обман от реальности.
Как работает ИИ-схема
Источник для изображения: gettyimages
Любая современная ИИ-атака строится по похожей логике. Сначала собирается цифровой след. Это могут быть публичные видео, интервью, голосовые сообщения в открытых каналах. Большинство людей не воспринимают свой голос как персональные данные. Но для нейросети это обучающий материал. Далее запускается клонирование. Международная аналитика в сфере голосового мошенничества фиксирует резкий рост подобных атак. Например, отчеты Pindrop по голосовому фроду. Следующий этап — генерация сценария. ИИ не работает по жесткому скрипту. Он адаптирует диалог в зависимости от реакции жертвы. Это принципиально отличает его от классических колл-центров.
Голосовые подделки: как работает deepfake-звонок
Источник для изображения: gettyimages
Современные нейросети способны обучиться на записи длиной всего 5–10 секунд. После этого система:
воспроизводит любые фразы голосом жертвы;
имитирует интонации и особенности речи;
формирует звонки, неотличимые от настоящего разговора.
Примеры применения:
классическая схема «Ваш родственник в беде» теперь звучит голосом сына или внука;
звонки «от начальника» сотрудникам компаний с требованием перевести деньги;
подделка голоса банковского менеджера — жертва уверена, что общается с реальным сотрудником.
Генерация историй и сценариев
ИИ используется не только для подделки голоса, но и для выстраивания легенды:
Автоматические переписки. Чат-боты с поддержкой GPT ведут диалог, притворяясь техподдержкой или другом.
Фишинговые письма. Генераторы текста создают письма, не отличимые от официальных уведомлений — как при онлайн-обмане с услугами.
Сценарии звонков. ИИ адаптирует реплики под реакцию жертвы, усиливая эффект давления — это одна из форм социальной инженерии.
Аналитическая таблица: ущерб от дистанционных хищений
Год
Оценка объема ущерба от операций без согласия (по данным ЦБ РФ)
Тенденция
2022
десятки млрд рублей
Рост
2023
увеличение по сравнению с 2022
Сохраняющийся рост
2024
дальнейшее увеличение объемов
Усложнение схем
2025
стабильно высокий уровень ущерба
Технологическое усиление
Важно: официальная статистика не выделяет “ИИ-мошенничество” отдельно. Однако качественный анализ инцидентов и комментарии представителей банков указывают на усложнение атак и повышение их технологичности.
Реальные кейсы из практики анализа обращений
Источник для изображения: gettyimages
Кейс 1. “Срочно на операцию”
Женщина 58 лет получает звонок. Голос полностью совпадает с голосом сына. Срочный перевод средств “на операцию”.
После анализа цифрового следа выяснилось, что злоумышленники использовали короткие публичные видео для создания голосовой модели.
Ключевой фактор успеха — эмоциональный триггер. Не технология сама по себе, а давление срочности.
Кейс 2. Корпоративный перевод
Финансовый сотрудник получает голосовое сообщение якобы от генерального директора с требованием срочного платежа.
Голос узнаваем. Манера речи совпадает.
Компания избежала ущерба только благодаря регламенту двойного подтверждения операций.
Этот случай показал: процедура важнее правдоподобия.
Кейс 3. Попытка изоляции
В нескольких инцидентах злоумышленники просили “не перезванивать”. Это характерный элемент ИИ-сценариев. Он снижает вероятность перепроверки через альтернативный канал.
Экспертная позиция
Источник для изображения: gettyimages
Я работаю с анализом дистанционных хищений и цифровых рисков более десяти лет. За последние два года характер обращений изменился. Если раньше доминировали примитивные сценарии, сегодня атаки становятся сценарными и технологически подкрепленными. Я не рассматриваю ИИ как угрозу сам по себе. Это инструмент. Но в руках злоумышленника он повышает коэффициент успешности атаки.
В практике анализа инцидентов я вижу:
рост комбинированных атак (голос + сообщение + документ);
попытки изолировать жертву от перепроверки;
усиление давления через имитацию близких людей.
Моя позиция проста: голос больше не может считаться фактором доверия. Защита должна строиться на процедуре, а не на интуиции. ИИ сделал мошеннические схемы опаснее: вместо грубых звонков и неграмотных писем используются голоса родственников, менеджеров банка или коллег, а тексты пишутся без ошибок. Главная защита — критическое мышление. Проверяйте любую срочную информацию через независимые каналы и помните: никто из близких или официальных структур не будет требовать срочных переводов «без подтверждения».
Я говорю всегда, что для частных лиц ключевой элемент — перепроверка через альтернативный канал. Любая просьба “не перезванивать” должна восприниматься как маркер риска. Кодовое слово внутри семьи — простой и рабочий механизм аутентификации. Для бизнеса минимальный стандарт — многофакторная аутентификация и двойное согласование платежей. Голос не должен быть единственным подтверждением.
❗️ Материал носит исключительно информационный характер и не является юридической консультацией.
Частые вопросы
Можно ли отличить ИИ-голос от настоящего по слуху?
В большинстве случаев — нет. Современные модели синтеза речи воспроизводят тембр, паузы, дыхание и эмоциональную окраску. Человеческий слух не предназначен для выявления синтетического аудио. Даже специалисты не всегда способны определить подмену без инструментального анализа.
Именно поэтому голос больше не может считаться самостоятельным фактором доверия.
Достаточно ли нескольких секунд записи для клонирования голоса?
Да. Для базовой имитации часто достаточно короткого аудиофрагмента. Качество зависит от модели, но для мошеннической атаки в стрессовой ситуации этого вполне достаточно. Особенно если звонок сопровождается эмоциональным давлением.
Законно ли клонировать голос человека?
Без согласия — нет. Использование голоса без разрешения может нарушать законодательство о персональных данных и подпадать под статьи о мошенничестве и незаконном использовании биометрической информации.
Признанный эксперт в области кибербезопасности с более чем 10-летним опытом. В своей профессиональной деятельности он специализируется на выявлении интернет-мошенничества, анализе цифровых угроз и разработке эффективных стратегий защиты пользователей в онлайн-среде. Он регулярно публикует аналитические материалы, основанные на проверенных источниках и актуальных исследованиях в сфере информационной безопасности. Цель работы Дениса и команды GetScam — повышение цифровой грамотности и обеспечение прозрачности в вопросах киберугроз. Мы стремимся сделать интернет-пространство безопаснее, предоставляя читателям достоверную информацию, рекомендации по защите личных данных и инструменты для распознавания мошенников.