Мошенники начали использовать технологии искусственного интеллекта (ИИ) для создания дипфейков родственников своих жертв и вымогательства денег. О новой схеме сообщили российские СМИ, а эксперты предупреждают, что подобная угроза может коснуться и жителей Казахстана, передает Lada.kz со ссылкой на NUR.KZ.
Современные технологии позволяют создавать реалистичные видео и аудиозаписи, имитирующие реальные лица и голоса. Преступники используют нейросети, чтобы из одной фотографии сделать видео, воспроизводящее мимику, жесты, голос и эмоции человека.
На таких "аватарах" родственники или знакомые жертвы якобы обращаются с просьбой занять деньги. После этого мошенники рассылают созданные материалы другим членам семьи или знакомым, рассчитывая на их доверчивость.
Ранее мошенники использовали дипфейки в основном для оформления кредитов на имя жертв. Теперь же цель – напрямую воздействовать на простых людей через эмоциональные манипуляции.
Главная угроза заключается в том, что аферисты обходят банковские системы безопасности и атакуют обычных людей. В таких случаях жертва может перевести деньги, даже не усомнившись в подлинности просьбы.
Специалисты дают простые, но эффективные рекомендации:
Не переводите деньги сразу после получения сообщения с просьбой о займе.
Свяжитесь напрямую с родственником или знакомым, чтобы подтвердить, действительно ли он нуждается в помощи.
Не ищите ошибки в видео — достаточно живого разговора для проверки.
Будьте бдительны в интернете и не доверяйте слепо сообщениям, даже если они выглядят убедительно.
Хотя случаи фиксируются в основном в России, эксперты предупреждают: мошенники могут адаптировать схему и для казахстанских пользователей. Важно соблюдать осторожность и не поддаваться эмоциональному давлению, исходящему из непроверенных источников.
Комментарии
0 комментарий(ев)