МОСКВА, 13 мая — ПРАЙМ. Мошенники в попытке украсть деньги идут на все — иногда они притворяются близким человеком абонента и звонят ему с просьбой перевести средства на срочные цели или просто занять в долг. Для этого вскоре могут использовать нейросети — обман станет еще достовернее, рассказал агентству "Прайм" начальник отдела интеллектуальных систем защиты информации Института кибербезопасности и цифровых технологий РТУ МИРЭА Шамиль Магомедов.
Обычно для этого используются нехитрые приемы создания якобы помех на линии, чтобы определить личность звонившего было сложнее.
"Однако весьма вероятно, что с развитием нейросетей скоро преступникам станут доступны технологии искусственного интеллекта, имитирующие голос", — предположил эксперт.
В России о таких преступлениях данных пока нет. Но, например, в конце февраля появилась информация о том, как англоговорящий пользователь с помощью нейросети пообщался с автоматическими системами банка. Искусственный интеллект сымитировал голос владельца счета, и системы открыли доступ к денежным средствам.
"Значит, таким же образом — в обозримой или отдаленной перспективе — могут поступить и мошенники", — считает Магомедов.
Поэтому не стоит преуменьшать возможные опасности: ChatGPT и другие подобные сервисы генерации текста стремительно развиваются.
Специалист не исключил, что в ближайшее время появится нейросеть, которая будет обучена на большом массиве данных и сможет генерировать любой голос.
Если возникли сомнения в подлинности личности звонящего, то стоит задать несколько вопросов, касающихся личной информации, неизвестной посторонним. Или сбросить звонок, перезвонить абоненту самостоятельно, заключил специалист.