Искусственный интеллект перестал быть лишь инструментом программистов и перешёл в арсенал преступников. В 2026 году ИИ помогает не только создавать музыку и тексты, но и масштабировать обман, делая его убедительным и почти неотличимым от реальности. Дипфейки, синтез речи и генерация видео — уже не футуризм, а работающие схемы в руках мошенников. Интернет больше не просто место обмана. Это поле боя, где сложный ИИ становится оружием против вас. Сегодня мошенники не просто звонят «вашему сыну» с чужого номера. Они клонируют его голос, лицо, мимику, эмоции и используют это, чтобы выкачать из вас деньги, данные и контроль над вашей жизнью. Это уже не «будущее», это текущее состояние угрозы. kaspersky.ru
Что именно происходит
Источник для изображения: gettyimages.com
Голос, который звучит как ваш близкий
Серьезно: даже 3 секунды записи вашего голоса достаточно, чтобы ИИ создал его клона, который может сказать что угодно — от «переведи деньги на счет адвоката» до «мы застряли в аварии, помоги». The Guardian Мошенники могут снять эту самую короткую выборку с видео в социальных сетях, звонка или публичной записи. После этого ИИ делает голос, который звучит почти идентично. Сценарии самые разные:
«Это я, мама/папа/сын, срочно нужна помощь».
«Мы заблокировали твою учетную запись, дай нам код для разблокировки».
«У нас проблема с доставкой, переведи деньги сейчас».
Результат Миллиарды долларов потерь и сотни тысяч жертв по всему миру.
Видео и лицо — это тоже инструмент обмана
Видео-дипфейк уже не только про мемы и шутки. Он используется для создания фальшивых роликов, где «известный эксперт» рекомендует вам вложиться в проект, где ваши деньги будут «гарантировано умножены». kaspersky.ru Печально, но реальные случаи уже были: компании теряли десятки миллионов после видеоконференций, где собеседники были полностью поддельными, а сотрудника убедили провести крупный перевод. adaptivesecurity.com. Фейковые лица и документы используются для прохождения KYC в банках, криптобиржах и сервисах. Фото и видео сгенерированы нейросетями. ИИ создаёт видео, где «известный эксперт» якобы рекомендует вложиться в криптовалюту или отправить средства на благотворительность. Часто такие ролики распространяются в Telegram, TikTok и YouTube Shorts.
«ИИ-дружелюбные» интерфейсы помогают мошенникам
Генеративный ИИ используется не только для подделки голоса и видео. Он может автоматически вести диалог, адаптироваться к ответам жертвы и даже «имитировать эмоции». Эти механизмы сильно увеличивают убеждаемость обмана, потому что жертва получает не тупой текст, а диалог, похожий на настоящего человека. kaspersky.ru
Почему старые советы больше не работают?
Совет
Почему он устарел
«Слушай голос»
Голос подделывается идеально
«Смотри видео»
Видео генерируется в реальном времени
«Проверь номер»
Номер подменяется
«Он знает личные детали»
Они собраны из соцсетей
Почему это стало проблемой №1
Источник для изображения: gettyimages.com
Когда мошенник может выглядеть, говорить и вести себя как ваш друг, начальник или родной, то старые способы распознавания обмана перестают работать.
📍 В США CEO компании перевёл $240 000 после видеозвонка с «директором из головного офиса». Позже выяснилось: это был дипфейк с голосом и внешностью начальника.
📍 В Подмосковье женщина перевела 35 000 ₽ «сыну», попавшему в аварию. Звонил голос, полностью идентичный настоящему — применён AI-спуфинг.
📍 В TikTok распространялись видео с «Рогозиным», «Собяниным» и «Маском», призывающими вложиться в проект с гарантированной прибылью. Всё — дипфейки, созданные нейросетями.
Номер телефона, фото профиля или даже известная фотография человека — это теперь не доказательство личности. Статистика показывает:
Подделка голосов и сoздaние дипфейков выросли на сотни процентов за последние несколько лет.
Потери от голосового фишинга (vishing) составляют десятки миллиардов долларов.
Почти половина компаний уже сталкивалась с deepfake-мошенничеством.
Это эпидемия, а не эксперимент хакеров по выходным.
Как распознать и обезопасить себя
Источник для изображения: gettyimages.com
Пока ИИ не начнет заботиться о нас сильнее, чем о самих мошенниках, единственный способ выжить — это жесткая валидация реальности.
Никогда не переводите деньги по первому звонку или видео. Этот шаг должен быть вне обсуждения.
Перезвоните напрямую на тот номер, который вам точно принадлежит или известен.
Спросите код, о котором знаете только вы и близкий человек.
Спрашивайте детали, которые человек должен знать, но не рассказывал в социальных сетях.
Если что-то вызывает сомнение, то это не «может быть», а «определенно да» проблема.
Мошенники могут подделать номер телефона и фотографию профиля проще, чем вы скажете «ИИ». Номер не подтверждает личность.
Куда бежать и что делать
Источник для изображения: gettyimages.com
Чем больше ваших данных доступно онлайн, тем проще мошеннику собрать материал для подделки. Это значит меньше открытых видеороликов, меньше записей с вашим голосом на профилях, меньше информации о ваших близких. Если вы почувствовали угрозу:
Блокируйте подозрительные контакты и соберите все доказательства.
Обратитесь в службу поддержки банка и сообщите о возможной атаке.
Подайте заявление в полицию, особенно если угрозы доходят до вымогательства.
Расскажите о проблеме своим близким и делайте это громко.
Мошенники ориентированы на эмоции и спешку. Ваша лучшая защита — это замедление и проверка.
Итог: это не тренд, это новая реальность
ИИ стал новым оружием мошенников. Голос, видео и даже поведение могут быть полностью сгенерированы. Больше нельзя верить даже «живому» звонку или видео — проверка теперь обязательна. Реальность начинается там, где вы подтверждаете информацию самостоятельно. Дипфейки и подделанные голоса уже ворвались в повседневную жизнь, и это не временное явление. Они меняют правила игры в мошенничестве. Играть по старым правилам — значит проиграть. В 2026–2027 году вы должны воспринимать любой голос и видео как потенциально поддельные, пока не подтвердите их достоверность самостоятельно. Реальность начинается там, где вы проверили информацию лично.
❗️ Материал носит исключительно информационный характер и не является юридической консультацией.
Частые вопросы
Как отличить дипфейк? Почти никак. Всегда проверяй через другой канал. Давят и торопят — мошенники.
Можно ли украсть голос? Да. Хватает 3–10 секунд любого видео/аудио.
Просят деньги «родные/начальник»? Не переводи. Перезвони сам. Если есть сомнения — это обман.
Признанный эксперт в области кибербезопасности с более чем 10-летним опытом. В своей профессиональной деятельности он специализируется на выявлении интернет-мошенничества, анализе цифровых угроз и разработке эффективных стратегий защиты пользователей в онлайн-среде. Он регулярно публикует аналитические материалы, основанные на проверенных источниках и актуальных исследованиях в сфере информационной безопасности. Цель работы Дениса и команды GetScam — повышение цифровой грамотности и обеспечение прозрачности в вопросах киберугроз. Мы стремимся сделать интернет-пространство безопаснее, предоставляя читателям достоверную информацию, рекомендации по защите личных данных и инструменты для распознавания мошенников.