
Фейк под микроскопом: на что смотреть, чтобы распознать подделку, созданную искусственным интеллектом?
Структура обмана: как создают иллюзию
По данным экспертов, количество случаев мошенничества с использованием дипфейков в России выросло в 2,3 раза за последние полгода, а ущерб от них превысил 120 млрд рублей. Мировой ущерб за 2025 год оценивается уже в миллиарды долларов.
Дипфейк (от англ. deep learning — «глубинное обучение» — и fake — «подделка») — это технология, позволяющая подменять лицо, голос или даже поведение человека на видео или аудио. При этом правдоподобность часто достигает такой степени, что фейк почти невозможно отличить от оригинала.
Важно понимать, что технология сама по себе не является «злом» — она становится опасной лишь в руках тех, кто использует её во вред. Те же алгоритмы без проблем используются в киноиндустрии для омоложения актёров (например, так поступили в финальном сезоне сериала «Очень странные дела» и десятках других картин только за этот год) и в архивных проектах для восстановления исторических записей — контекст определяет результат.
Технология развивается стремительно. Если несколько лет назад для создания качественного дипфейк-видео требовались тысячи изображений человека, то сегодня появились решения, которые позволяют создавать убедительные подделки, используя всего одно-два фото. И если для максимально реалистичного дипфейка «1:1» — с естественным поворотом головы, мимикой и движениями — по-прежнему нужен большой объём данных, то для клонирования голоса уже достаточно пары секунд аудиозаписи из ваших же видео в социальных сетях.
Ландшафт AI-инструментов постоянно меняется. Сегодня доступно около 2 тысяч инструментов для создания ИИ-переноса лица, синхронизации губ и генерации аватаров, около 10 тысяч — для генерации изображений и около тысячи — для клонирования и синтеза голоса. Ожидается, что их число удвоится уже в первой половине 2026 года. Среди лидеров по созданию синтетического контента — платформы для генерации видео (Runway, Kling AI, Sora 2), клонирования голоса (ElevenLabs, Murf AI) и генерации изображений (Midjourney, Stable Diffusion). Практически под каждую задачу сегодня найдётся натренированный искусственный интеллект.
Зачем всё это мошенникам
Современные злоумышленники используют дипфейки как высокоточное оружие для достижения своих целей, делая ставку на масштаб и психологическое воздействие. Мошенники освоили несколько ключевых направлений использования дипфейков:
Дезинформация. Создание поддельных новостей или компрометирующих материалов с целью манипуляции общественным мнением. Более 60 уникальных дипфейков и 2,3 тысячи их копий было выявлено только за первый квартал 2025 года в России. Это уже 67 % от объёма, найденного за весь 2024 год.
Шантаж. Мошенники создают компрометирующие изображения и видео с лицом жертвы, чтобы затем требовать деньги за нераспространение информации в интернете и в прессе. Это особенно опасно для владельцев открытых аккаунтов: сегодня даже пары фото из соцсетей может хватить для создания дипфейка, а большой объём публичного контента делает атаки проще и убедительнее.
Фишинг и социальная инженерия. Дипфейки придают беспрецедентную убедительность классическим схемам обмана. Например, сотрудник компании может получить видеоприказ от «директора» с требованием срочно перевести крупную сумму или раскрыть конфиденциальные данные.
Финансовое мошенничество. Клонирование голоса или внешнего облика человека часто используется и для выманивания денег, для оформления кредитов или прохождения верификации на чужое имя. Жертвами могут стать не только обычные граждане, но и целые корпорации. Так, каждая пятая российская компания уже столкнулась с угрозой дипфейков. Мошенники атакуют процессы онбординга, удалённого подтверждения транзакций, платежей и операций с криптовалютой. К примеру, сотрудник гонконгского офиса компании Arup в 2024 году перевёл $25,6 млн мошенникам после видеозвонка с дипфейком, изображающим CFO и других руководителей. В ОАЭ клонирование голоса CEO привело к убытку в $35 млн.
Ключевой угрозой в ближайшие годы станет массовое микромошенничество — звонки с «голосом родственника», поддельные обращения руководителей и персонализированные атаки, рассчитанные на конкретного человека или компанию.
Цель — манипуляция. Доверие к видео — глубоко укоренившийся психологический механизм. Десятилетиями действовал простой принцип: «вижу и слышу — значит, правда», и этот инстинкт ломается гораздо медленнее, чем развиваются нейросети. Когда контент вызывает шок, возмущение или сильное сочувствие, критическое мышление отключается — и это идеальные условия для манипуляции.
Мошенники играют на самых сильных человеческих чувствах и эмоциях: страхе («Ваша карта заблокирована»), жалости («Помогите больному ребёнку»), жадности («Вы выиграли приз») и доверии к авторитетам — будь то голос мнимого «начальника» или «полицейского». Доверие эксплуатируется в схеме «Fake Boss», широко распространённой в России, когда мошенники с помощью клонированного голоса «губернатора» или «руководителя» отдают подчинённым незаконные распоряжения. Теперь у мошенников есть инструмент, который позволяет сделать эту манипуляцию неотличимой от реальности: например, в одном из тестов 78 % респондентов приняли реальное фото за фейк.
Кроме того, работает эффект подтверждения — мы охотнее верим информации, которая совпадает с нашей картиной мира, взглядами и ожиданиями. В условиях скоростного информационного потока у большинства просто нет времени и привычки проверять первоисточник.
Как распознать подделку: практический чек-лист
Для своевременного распознавания дипфейков стоит обращать внимание на некоторые характерные признаки:
- Смотрите в глаза — «стеклянный» взгляд, неестественное моргание или его отсутствие, странные блики.
- Следите за губами и ртом — несовпадение движения губ со звуками, как в фильме с плохой озвучкой.
- Изучите кожу — слишком идеальная, «пластиковая» кожа без пор, размытые контуры лица.
- Проверьте волосы и руки — волосы выглядят как однородная масса, неестественное количество пальцев.
- Вслушайтесь в звук — роботизированный голос без эмоций, неестественные обрывы фоновых шумов.
Технологии проверки
Помимо визуального анализа, существуют специализированные сервисы для проверки подлинности контента.
Для выявления дипфейков на видео и фото есть решение Deepfake Detection. Оно анализирует изображения, видео и видеозвонки в реальном времени, предоставляя вердикт и оценку вероятности подделки. Похожую технологию предлагает компания Intel — FakeCatcher. По утверждениям разработчиков, точность распознавания дипфейков достигает 96 %.
Для проверки текстов, написанных ИИ, широко используются детекторы, например, GigaCheck и GPTZero. Эти инструменты анализируют текст на «перплексию» (предсказуемость) и «вариативность» (разнообразие длины и структуры предложений), чтобы определить вероятность его генерации нейросетью.
Для защиты от голосовых дипфейков (спуфинга) такие компании, как MWS AI, предлагают модули антиспуфинга, встроенные в платформы вроде Audiogram. Они детектируют синтезированный, клонированный или заранее записанный голос с точностью до 98,78 % и могут выдавать предупреждение оператору в реальном времени.
Точность детекторов, по заявлениям разработчиков, составляет от 95 % до 99 %, что означает возможность ошибок. Они могут ложно пометить человеческий текст как сгенерированный ИИ или, наоборот, не распознать качественно сделанный фейк.
Ключевым маркером помимо технических артефактов остаётся психологический контекст. Мошенники искусственно создают дефицит времени, используют шокирующие или слишком выгодные предложения. Насторожить должна любая просьба, требующая немедленных действий, особенно связанных с финансами или личными данными.
Линия обороны: цифровая гигиена в эпоху ИИ
Главный защитный механизм сегодня — не конкретный сервис или технология, а смена парадигмы мышления: от принципа «видео — это доказательство» к принципу «любое видео — потенциальная подделка, пока не доказано обратное». Проактивные меры защиты часто эффективнее попыток распознать уже созданный фейк:
- Договоритесь с близкими о «кодовом слове» для экстренных ситуаций или задайте вопрос, ответ на который может знать только собеседник.
- При подозрительных просьбах о переводах или других необычных действиях — сразу перезванивайте на известный номер или связывайтесь через альтернативный, но проверенный источник.
- Настройте приватность в соцсетях — ограничьте доступ к вашим фото и видео.
- Не выкладывайте много личного контента, особенно с голосом (длинные рассказы, поздравления). Это «кирпичики» для дипфейка.
- Воспитывайте в себе критичное потребление информации — любой эмоционально заряженный контент, особенно с призывом к немедленным действиям, должен насторожить.
В эпоху дипфейков работает принцип нулевого доверия: любой звонок, видео или сообщение может быть подделкой, а доверять можно лишь человеку при личной встрече. Полностью защититься невозможно, но можно значительно усложнить жизнь преступникам — минимизируйте цифровой след, удалите старые фото и видео из открытого доступа, а при столкновении с фейком сохраняйте доказательства (скриншоты, записи звонков), сообщайте о нём платформам и обращайтесь в правоохранительные органы, особенно при шантаже или причинённом финансовом и ином ущербе.
Что в итоге
Технологический прогресс не остановить. Дипфейк — это инструмент, который могут использовать как во благо, так и во зло. Мы находимся на пороге полной демократизации технологий: в ближайшие годы создавать убедительные подделки сможет практически любой человек с помощью доступных генеративных моделей. Реалистичность будет расти за счет идеальной синхронизации мимики, интонаций и поведенческих мелочей.
Параллельно будут развиваться детекторы, модерация платформ и правовое регулирование, однако это классическая гонка вооружений, в которой детекция почти всегда отстаёт от генерации. Единственный вариант защиты — постоянное обучение и развитие цифровой грамотности на уровне всего общества.
Следование этим советам не требует глубоких технических знаний, но помогает защитить ваши деньги, репутацию и спокойствие в новом цифровом мире. Ваша внимательность и осознанность — самый надёжный щит.