Мошенники начали подделывать голоса россиян с помощью искусственного интеллекта. Об этом сообщает РИА Новости со ссылкой на данные Центробанка.

Новая комбинированная схема мошенничества начинается с поиска личной информации. Злоумышленники находят в соцсетях образцы голосов родных и знакомых потенциальной жертвы. Затем создаются голосовые дипфейки.

Эксперты ЦБ предупреждают, что не следует совершать денежные операции по просьбе лиц, звонящих по телефону или контактирующих в мессенджерах, даже если голос кажется знакомым. При возникновении сомнений следует позвонить человеку, от имени которого с вами разговаривают.

Ранее в январе издание РБК сообщало об использовании ИИ для подделки голосовых сообщений в Telegram. Преступники получают доступ к аккаунту, затем имитируют голос и начинают отправлять аудио с просьбами о переводе денег. Такие обращения получают потенциальные жертвы из списка контактов.