МОСКВА, 7 окт — ПРАЙМ. Мошенникам доступен целый арсенал средств, с помощью которых они могут подделать биометрические данные человека, однако современные технологии позволяют успешно предотвращать незаконное использование таких данных, рассказал РИА Новости генеральный директор группы компаний ЦРТ Дмитрий Дырмовский.
"Для взлома лицевой биометрии могут использоваться фото, видео, бумажные маски с отверстиями для глаз, объемные, силиконовые, 3D-маски. Для защиты лицевой биометрии используется liveness detection – механизм детектирования живого пользователя. Liveness бывает разный: активный (кооперативный), когда мы просим пользователя что-то сделать и смотрим, как он с этим справляется, и пассивный (некооперативный), когда мы в фоновом режиме анализируем набор параметров, которые убеждают нас в их подлинности", — сообщил эксперт.
В качестве активной проверки пользователя можно попросить улыбнуться или подмигнуть, при этом система будет следить за его реакцией, за тем, что движения соответствуют "заданию", пояснил он. Если человек в кадре надолго застынет, система заподозрит неладное.
"Некооперативный сценарий зачастую предпочтительнее — так мы не раздражаем пользователя "лишними" заданиями, биометрическая система использует пассивные методы проверки: анализирует текстуры, перемещение бликов в кадре, цветовую палитру, микродвижения и мимику. Кроме того, алгоритмы следят за тем, что лицо соответствует шаблону на всем протяжении сессии, в статике и в движении — это помогает обнаружить, например, атаку с помощью разного вида масок", — пояснил эксперт.
Для взлома голосовой биометрии мошенники могут воспроизвести запись голоса человека или пойти технологически более сложным путем — подделать нужный голос. Для детектирования таких действий применяется технология Antispoofing — защита от взлома.
При этом существуют разные типы атак. Например, на основе повторного воспроизведения. При атаке такого типа мошенник каким-либо способом получает запись голоса пользователя, а затем воспроизводит эту запись при попытке взлома. Еще мошенники могут использовать произвольные образцы речи пользователя (например, из доступных в интернете аудиофайлов) и с помощью системы клонирования или преобразования голоса получить синтезированную речь для взлома биометрической системы. Однако самые современные технологии помогают противостоять подобным атакам, подчеркнул эксперт.