Рейтинг@Mail.ru
Россиян начали обманывать при помощи искусственного интеллекта - 04.07.2023, ПРАЙМ
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Россиян начали обманывать при помощи искусственного интеллекта

Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян

© РИА Новости . Наталья Селиверстова | Перейти в медиабанкСтрочки с цифрами на экранах компьютера и ноутбука. Хакер
Строчки с цифрами на экранах компьютера и ноутбука. Хакер - ПРАЙМ, 1920, 04.07.2023
Читать Прайм в
Дзен Telegram

МОСКВА, 4 июл — ПРАЙМ. Мошенники научились использовать искусственный интеллект для обмана граждан в телефонных разговорах. Какие схемы используют кибераферисты, рассказал агентству "Прайм" эксперт направления информационной безопасности Центра цифровой экспертизы Роскачества Сергей Кузьменко. 

Криптовалюта - ПРАЙМ, 1920, 01.06.2023
Мошенники повторно обманывают россиян, пострадавших от фейковых криптобирж

Клонирование голоса

По словам специалиста, в данном случае речь идет не столько об искусственном интеллекте, сколько о нейросети с машинным обучением на основе искусственного интеллекта.

"Благодаря имеющимся технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота", — сказал эксперт.

Схема обмана та же: ИИ звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП. Кузьменко посоветовал сразу перезвонить своим родным и знакомым, от которых и была получена просьба. Еще лучше придумать кодовое слово, для своих, чтобы можно было понять: звонят родные, а не мошенники. 

Логотип Тинькофф Банка - ПРАЙМ, 1920, 23.06.2023
"Тинькофф банк" выяснил, кто доверяет мошенникам чаще всего

Имитация образа

Подделать можно не только голос, но и образ. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные. Технология называется "дипфейк" (от англ. deepfake — "подделка". — Прим. ред.).

За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями.

Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. Волна дипфейков уже захлестнула Юго-Восточную Азию и Африку. До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков от "родственников", например, пожилым людям, предупредил эксперт Роскачества.

Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей.

Как распознать дипфейк:

 

  • Неестественная мимика — движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций.
  • Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой — брови, уголки рта.
  • Звук опережает картинку или не успевает за движениями персонажа.

 

Распознавать подделки помогают и сами нейросети. Технологии создания и обнаружения дипфейков будут усиленно развиваться в будущем. По словам Кузьменко, для обычного пользователя лучший способ защититься от дипфейков — быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.

 
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Чаты
Заголовок открываемого материала