Искусственный интеллект научился говорить за наших родственников

Мошенники начали использовать технологии искусственного интеллекта для создания поддельных голосов, имитирующих близких людей или доверенных лиц. Эти аудиозаписи настолько убедительны, что жертвы часто не замечают подвоха и доверяют злоумышленникам свои деньги и личные данные, сообщает Lada.kz со ссылкой на ТАСС.

Как работает схема

По словам официального представителя МВД РФ Ирины Волк, основой таких афер являются генеративные модели ИИ, способные создавать правдоподобный текстовый, аудиовизуальный и визуальный контент.

«Такие технологии позволяют злоумышленникам подделывать личности, что воспринимается потерпевшими как настоящее», — отметила Волк.

Кого подделывают мошенники

Чаще всего жертвами становятся люди, которым звонят, представляясь родственниками. Однако, по информации МВД, аферисты также используют поддельные голоса сотрудников банков, представителей государственных органов и даже известных публичных фигур.

Цель мошенников

Главная задача мошенников — вызвать доверие у жертвы. Используя синтезированные голоса или видеозаписи, они побуждают людей переводить деньги или раскрывать конфиденциальную информацию. Волк подчеркнула, что именно эта психологическая манипуляция делает такие схемы особенно опасными, поскольку жертвы действуют, не сомневаясь в подлинности услышанного.

Почему это становится угрозой

Развитие генеративного ИИ делает подобные мошеннические схемы более доступными и сложными для распознавания. Любой пользователь смартфона или компьютера может столкнуться с угрозой подделки голоса близкого человека, что требует повышенной бдительности при получении неожиданных звонков или сообщений.