Мошенники используют нейросети в новогодние праздники, предупредили россиян.
В России под Новый год активизируются мошенники, используя передовые технологии нейросетей, рассказал "Газете.Ru" Родион Кадымов, директор по продукту FABULA AI .
Все чаще злоумышленники прибегают к использованию дипфейк-технологий для кражи денежных средств. Мошенники с помощью нейросетей создают убедительные видеоизображения человека и отправляют этот созданный образ его друзьям или родственникам через мессенджеры и соцсети.
Так, если, например, взломали аккаунт, или родственник переслал кому-то голосовые сообщения, то можно сделать "слепок" голоса отправителя по отрезку в 15 секунд. Мошенники могут также общаться с вами или отправлять голосовые сообщения, схожие с голосом ваших близких и знакомых.
Мошенники, имея в доступе изображение с лицом вашего родственника, могут представляться его именем и отправлять видеосообщения, это зачастую выглядит убедительно.
Мошенники применяют активно приемы социальной инженерии. Данный метод чрезвычайно эффективен и основан на эксплуатации человеческих слабостей. Часто аферисты представляются сотрудниками, например, банка и звонят клиентам и их родственникам от имени службы поддержки. Наибольшему риску подвержены люди старшего поколения и те, кто плохо знаком с современными технологиями.
Технологии совершенствуются с развитием ИИ, и мошенники осознают их потенциал, применяя нейросети на профессиональном уровне: используют передовые визуальные и голосовые генеративные сети, цифровых двойников, технологии замены лиц, накладывают на аудиосообщения нужные звуковые фрагменты.
Если пришел видеокружок, стоит обратить внимание на движения его головы. При резких поворотах лица может заметить эффект "слетания" технологии Face Swap, что говорит о подделке. Это может стать индикатором для выявления обмана. Также стоит обратить внимание на голос, созданный с помощью ИИ, - часто он будет монотонным и лишенным естественных интонаций. Также можно попробовать вывести собеседника на эмоции, задавая вопросы, которые могут вызвать реакцию. Обычно настоящие люди реагируют эмоционально, в то время как ИИ не покажет такой же уровень вовлеченности.
При подозрении на дипфейк нужно сразу сообщить об этом в службу поддержки компании, имя которой использовали мошенниками. Важно для повышения уровня безопасности всегда учиться и быть в курсе новых угроз.
Фото ТЕЛЕПОРТ.РФ