Общество

Эксперт рассказал об опасности биометрии

Эксперт рассказал об опасности биометрии

Мошенники с помощью целого арсенала средств могут подделывать биометрические данные человека, однако современные технологии способны распознавать обман и предотвращать незаконное использование биометрии. Об этом рассказал РИА "Новости" генеральный директор группы компаний ЦРТ Дмитрий Дырмовский.

Для взлома лицевой биометрии злоумышленники могут использовать фото, видео, бумажные маски с отверстиями для глаз, объемные, силиконовые, 3D-маски, объясняет эксперт. Подделку помогает раскрыть механизм определения живого пользователя liveness detection.

"Liveness бывает разный: активный (кооперативный), когда мы просим пользователя что-то сделать и смотрим, как он с этим справляется, и пассивный (некооперативный), когда мы в фоновом режиме анализируем набор параметров, которые убеждают нас в их подлинности", — говорит Дырмовский.

В ходе активной проверки пользователя могут попросить улыбнуться или подмигнуть, после чего система анализирует его поведение и может заподозрить неладное, если человек в кадре надолго застынет. В то же время пассивный сценарий эксперт считает предпочтительным.

"Биометрическая система использует пассивные методы проверки: анализирует текстуры, перемещение бликов в кадре, цветовую палитру, микродвижения и мимику. Кроме того, алгоритмы следят за тем, что лицо соответствует шаблону на всем протяжении сессии, в статике и в движении, — это помогает обнаружить, например, атаку с помощью разного вида масок", — продолжает эксперт.

Голосовую биометрию мошенники могут попытаться взломать с помощью записи голоса или его подделки, что считается более технически сложным способом. Существуют разные типы атак, например на основе повторного воспроизведения: мошенник каким-либо способом получает запись голоса пользователя, а затем воспроизводит эту запись при попытке взлома. Другой вариант — использовать произвольные образцы речи пользователя, например взятые из аудиофайлов, доступных в интернете, и с помощью системы клонирования или преобразования голоса получить синтезированную речь для взлома биометрической системы. Распознать такие попытки взлома, по словам Дырмовского, помогает технология Antispoofing.

Подписывайтесь на нас в Instagram:
https://www.instagram.com/ruposters_ru/

Поделиться / Share