Россиян предупредили, на что будут способны мошенники в перспективе

Kaspersky: мошенники смогут атаковать россиян через видеосвязь в мессенджерах

Читать на сайте 1prime.ru
МОСКВА, 24 янв — ПРАЙМ. Мошенники в перспективе могут подделывать не только голосовые сообщения, но и атаковать россиян в соцсетях в реальном времени через видеосвязь при помощи технологии дипфейков, заявил РИА Новости главный эксперт "Лаборатории Касперского" Сергей Голованов. 
Россиян предупредили об обмане мошенников через фейковые аккаунты
"Мошенники будут просто брать картинку с экрана, и это будет, собственно говоря, твое лицо. Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет… Злоумышленники доберутся до этого через несколько лет", — поделился Голованов, добавив, что схема будет распространяться в мессенджерах.
Он отметил, что злоумышленники будут копировать аккаунты в мессенджерах и при звонке жертве не только генерировать голос, но и видеоизображение звонящего. Поскольку общение будет происходить в режиме реального времени, подозрений у жертвы может не возникнуть. Однако это перспективы не 2024 года, успокоил эксперт.
Голованов напомнил, что на текущий момент мошенники отправляют жертве голосовые сообщение в мессенджере от якобы знакомого или руководителя с просьбой перевести деньги, однако у этой схемы есть проблема — сгенерированные искусственным интеллектом сообщения "не адаптивные".
По его словам, жертва, которая слушает сообщения, понимает, что это сгенерированный голос. "Интонация, с которой идут все голосовые сообщения, роботизированна: перепад голоса, отсутствие разговорных частиц и фонового шума. Это все очень настораживает человека, несмотря на то, что тембр голоса действительно похож на тембр реального человека", — пояснил Голованов.
В свою очередь, будущий мошеннический тренд будет сложно вычислить: "Старые схемы, например, "мама, переведи деньги, я в тюрьме", играют феерическими красками, и распознать, что это не тот человек, становится очень сложно". Эксперт считает, что единственный способ, благодаря которому это можно сделать — проверка аккаунта. На слух же у жертвы распознать ИИ не получится.
Обсудить
Рекомендуем