Мошенничество и безопасность

Как мошенники используют нейросеть в 2026: дипфейки, подделка голосов и фальшивые видео

Данные статьи
Опубликовано:
22 октября 2025 г. в 18:25
Обновлено:
26 декабря 2025 г. в 16:12
Доверие
Trusted Project
Наш сайт следует политике Trusted
Статья проверена независимым экспертом

Искусственный интеллект перестал быть лишь инструментом программистов и перешёл в арсенал преступников. В 2026 году ИИ помогает не только создавать музыку и тексты, но и масштабировать обман, делая его убедительным и почти неотличимым от реальности. Дипфейки, синтез речи и генерация видео — уже не футуризм, а работающие схемы в руках мошенников. Интернет больше не просто место обмана. Это поле боя, где сложный ИИ становится оружием против вас. Сегодня мошенники не просто звонят «вашему сыну» с чужого номера. Они клонируют его голос, лицо, мимику, эмоции и используют это, чтобы выкачать из вас деньги, данные и контроль над вашей жизнью. Это уже не «будущее», это текущее состояние угрозы. kaspersky.ru

 

 

Что именно происходит

 

stockillustraties, clipart, cartoons en iconen met chatbot with graphic elements vector illustration - fake voice

Источник для изображения: gettyimages.com

 

Голос, который звучит как ваш близкий

Серьезно: даже 3 секунды записи вашего голоса достаточно, чтобы ИИ создал его клона, который может сказать что угодно — от «переведи деньги на счет адвоката» до «мы застряли в аварии, помоги». The Guardian Мошенники могут снять эту самую короткую выборку с видео в социальных сетях, звонка или публичной записи. После этого ИИ делает голос, который звучит почти идентично. Сценарии самые разные:

  • «Это я, мама/папа/сын, срочно нужна помощь».
  • «Мы заблокировали твою учетную запись, дай нам код для разблокировки».
  • «У нас проблема с доставкой, переведи деньги сейчас».

Результат Миллиарды долларов потерь и сотни тысяч жертв по всему миру. 

 

Видео и лицо — это тоже инструмент обмана

Видео-дипфейк уже не только про мемы и шутки. Он используется для создания фальшивых роликов, где «известный эксперт» рекомендует вам вложиться в проект, где ваши деньги будут «гарантировано умножены». kaspersky.ru Печально, но реальные случаи уже были: компании теряли десятки миллионов после видеоконференций, где собеседники были полностью поддельными, а сотрудника убедили провести крупный перевод. adaptivesecurity.com. Фейковые лица и документы используются для прохождения KYC в банках, криптобиржах и сервисах. Фото и видео сгенерированы нейросетями. ИИ создаёт видео, где «известный эксперт» якобы рекомендует вложиться в криптовалюту или отправить средства на благотворительность. Часто такие ролики распространяются в Telegram, TikTok и YouTube Shorts. 

 

«ИИ-дружелюбные» интерфейсы помогают мошенникам

Генеративный ИИ используется не только для подделки голоса и видео. Он может автоматически вести диалог, адаптироваться к ответам жертвы и даже «имитировать эмоции». Эти механизмы сильно увеличивают убеждаемость обмана, потому что жертва получает не тупой текст, а диалог, похожий на настоящего человека. kaspersky.ru

 

 Почему старые советы больше не работают?

 

СоветПочему он устарел
«Слушай голос»Голос подделывается идеально
«Смотри видео»Видео генерируется в реальном времени
«Проверь номер»Номер подменяется
«Он знает личные детали»Они собраны из соцсетей

 

 

Почему это стало проблемой №1

 

stockillustraties, clipart, cartoons en iconen met robot creating audiowave vector illustration - fake voice

Источник для изображения: gettyimages.com

 

Когда мошенник может выглядеть, говорить и вести себя как ваш друг, начальник или родной, то старые способы распознавания обмана перестают работать. 

📍 В США CEO компании перевёл $240 000 после видеозвонка с «директором из головного офиса». Позже выяснилось: это был дипфейк с голосом и внешностью начальника.


📍 В Подмосковье женщина перевела 35 000 ₽ «сыну», попавшему в аварию. Звонил голос, полностью идентичный настоящему — применён AI-спуфинг.


📍 В TikTok распространялись видео с «Рогозиным», «Собяниным» и «Маском», призывающими вложиться в проект с гарантированной прибылью. Всё — дипфейки, созданные нейросетями.

 

Номер телефона, фото профиля или даже известная фотография человека — это теперь не доказательство личности. Статистика показывает:

  • Подделка голосов и сoздaние дипфейков выросли на сотни процентов за последние несколько лет.
  • Потери от голосового фишинга (vishing) составляют десятки миллиардов долларов.
  • Почти половина компаний уже сталкивалась с deepfake-мошенничеством. 

Это эпидемия, а не эксперимент хакеров по выходным.

 

 

Как распознать и обезопасить себя

 

human type ai robot and data - fake voice stockfoto's en -beelden

Источник для изображения: gettyimages.com

 

Пока ИИ не начнет заботиться о нас сильнее, чем о самих мошенниках, единственный способ выжить — это жесткая валидация реальности.

  • Никогда не переводите деньги по первому звонку или видео. Этот шаг должен быть вне обсуждения.
  • Перезвоните напрямую на тот номер, который вам точно принадлежит или известен.
  • Спросите код, о котором знаете только вы и близкий человек.
  • Спрашивайте детали, которые человек должен знать, но не рассказывал в социальных сетях.
  • Если что-то вызывает сомнение, то это не «может быть», а «определенно да» проблема.
  • Мошенники могут подделать номер телефона и фотографию профиля проще, чем вы скажете «ИИ». Номер не подтверждает личность.

 

 

Куда бежать и что делать

 

ai technology, artificial intelligence. man using technology smart robot ai, artificial intelligence by enter command prompt for generates something, futuristic technology transformation. chat with ai - fake voice stockfoto's en -beelden

Источник для изображения: gettyimages.com

 

Чем больше ваших данных доступно онлайн, тем проще мошеннику собрать материал для подделки. Это значит меньше открытых видеороликов, меньше записей с вашим голосом на профилях, меньше информации о ваших близких. Если вы почувствовали угрозу:

  • Блокируйте подозрительные контакты и соберите все доказательства.
  • Обратитесь в службу поддержки банка и сообщите о возможной атаке.
  • Подайте заявление в полицию, особенно если угрозы доходят до вымогательства.
  • Расскажите о проблеме своим близким и делайте это громко.
  • Мошенники ориентированы на эмоции и спешку. Ваша лучшая защита — это замедление и проверка.

 

 

Итог: это не тренд, это новая реальность

 

ИИ стал новым оружием мошенников. Голос, видео и даже поведение могут быть полностью сгенерированы. Больше нельзя верить даже «живому» звонку или видео — проверка теперь обязательна. Реальность начинается там, где вы подтверждаете информацию самостоятельно. Дипфейки и подделанные голоса уже ворвались в повседневную жизнь, и это не временное явление. Они меняют правила игры в мошенничестве. Играть по старым правилам — значит проиграть. В 2026–2027 году вы должны воспринимать любой голос и видео как потенциально поддельные, пока не подтвердите их достоверность самостоятельно. Реальность начинается там, где вы проверили информацию лично.

 

 

❗️ Материал носит исключительно информационный характер и не является юридической консультацией.

  

 

Частые вопросы

 

Как отличить дипфейк?
Почти никак. Всегда проверяй через другой канал. Давят и торопят — мошенники.

 

Можно ли украсть голос?
Да. Хватает 3–10 секунд любого видео/аудио.

 

Просят деньги «родные/начальник»?
Не переводи. Перезвони сам. Если есть сомнения — это обман.

Об Авторе

Признанный эксперт в области кибербезопасности с более чем 10-летним опытом. В своей профессиональной деятельности он специализируется на выявлении интернет-мошенничества, анализе цифровых угроз и разработке эффективных стратегий защиты пользователей в онлайн-среде. Он регулярно публикует аналитические материалы, основанные на проверенных источниках и актуальных исследованиях в сфере информационной безопасности. Цель работы Дениса и команды GetScam — повышение цифровой грамотности и обеспечение прозрачности в вопросах киберугроз. Мы стремимся сделать интернет-пространство безопаснее, предоставляя читателям достоверную информацию, рекомендации по защите личных данных и инструменты для распознавания мошенников.