Русская Википедия:Мультимодальные биометрические системы аутентификации
Мультимодальные биометрические системы аутентификации — один из способов улучшения точности распознавания в биометрии. Основная идея заключается в комбинировании нескольких методов унимодальной аутентификации для уменьшения количества ошибок.
Введение
Биометрия является одним из способов распознавания людей по физическим или поведенческим особенностям[1]. Данная область нашла своё применение в системах аутентификации и поиска людей (например, преступника по отпечаткам пальцев). В данной статье будет рассматриваться только первая область использования. Преимущество данного подхода по сравнению с классическими ключами и паролям состоит в том, что эти особенности нельзя потерять или забыть. А также их достаточно сложно подделать.
Различают два вида биометрических систем аутентификации: унимодальные — те, которые используют только одну особенность человека, и мультимодальные — использующие комбинацию унимодальных. В ходе различных исследований[2] [3] было показано, что использование мультимодальных методов аутентификации позволяет увеличить точность работы биометрических систем аутентификации[4] [5] [6].
Общая постановка задачи мультимодальной аутентификации
Задача мультимодальной аутентификации состоит из нескольких этапов:
- Получить результаты из отдельных систем.
- Произвести нормализацию этих результатов.
- Осуществить процедуру слияния[6] нормированных составляющих.
Таким образом, получается результат, который имеет такой же вид, как если бы производилась унимодальная аутентификация. При этом он содержит в себе информацию от всех составных частей мультимодальной модели.
Первым этап не является сложным в реализации, так как аутентификацию по отдельным системам можно производить одновременно. Например, можно просить пользователя одновременно зафиксировать палец на сканере отпечатков и произвести сканирование сетчатки глаза. Дальнейшие шаги же выполняются внутри общей системы.
Данный подход позволяет значительно увеличить уровень безопасности систем аутентификации[7]. В нем используется уже не одна характеристика человека, а несколько, что усложняет задачу подделки биометрических данных. Также существенным является то, что такие системы не только с большей точностью выявляют злоумышленников, но и имеют меньшее количество отказов для зарегистрированных пользователей (то есть более высокий True Positive Rate). Данное качество позволяет в значительной степени повысить качество решений в сфере аутентификации.
Способы нормализации
Необходимость этой части обусловлена тем, что при слиянии обычно происходит суммирование (часто с весами) результатов работы унимодальных методов аутентификации. Они представляют собой числа, которые при нормировке в шкалу [0, 1] интерпретируются как вероятность того, что пользователь имеет запрашиваемый им доступ. Таким образом, необходимо стандартизировать их перед слиянием, чтобы эффективно произвести процедуру слияния[8].
Min-Max
Данный метод позволяет отобразить сырые оценки на отрезок <math>[0, 1]</math>. При этом преобразование сохраняет форму исходного распределения. <math>min(S)</math> и <math>max(S)</math> являются граничными значениями для модели <math>S</math>, должны поставляться поставщиком соответствующей унимодальной системы. Формула имеет вид:
<math>n = \dfrac{s - min(S)}{max(S) - min(S)}</math>, <math>n \in [0, 1]</math>.
Z-score
Данный метод приводит значения к распределению со средним равным нулю и среднеквадратичным отклонением равным единице. Если значения исходного распределения известны, то это позволяет без каких-либо проблем использовать данный метод. Однако если этой информации нет, то можно посчитать их с помощью обучающей выборки, которую мы используем для обучения нашей модели. Данное решение может быть не оптимальным, если в выборке присутствуют выбросы, так как получается смещённая оценка[8]. Метод описывается следующим выражением:
<math>n = \dfrac{s - mean(S)}{std(S)}</math>, где <math>mean(n) = 0</math>, <math>std(n) = 1</math>.
Tanh
Данный метод относят к так называемым надёжным статистическим методам[9][10]. В отличие от описанного выше подхода устойчив к выбросам и большим хвостам распределения, что делает его более сильным и надёжным инструментом нормализации. Формула имеет вид:<math>n = \dfrac{1}{2}*(tanh(0.01*\dfrac{s - mean(S)}{std(S)}) + 1)</math>
Адаптивная нормализация
Шаблон:Внешние медиафайлыОшибки аутентификации обусловлены тем, что истинное распределения и распределения самозванца перекрываются[11]. Данная область перекрытия описывается двумя характеристиками: центром <math>c</math> и шириной <math>w</math>. Основная идея данного подхода нормализации — увеличить различия между двумя этими распределениями путём уменьшения этого перекрытия, что позволит уменьшить вероятность ошибок.
Общий вид всех методов адаптивной нормализации:
<math>n_{AD} = f(n_{MM}) </math>, где <math>n_{MM}</math> − результат нормализации методом Min-Max, а <math>f</math> функиция отображения.
Существует несколько видов функций отображения для адаптивной нормализации, которые будут описаны ниже.
Two-Quadrics[12]
Представляет собой функцию, вторая производная которой меняет знак в точке <math>c</math>.
<math> n_{AD}= \begin{cases}
\dfrac{1}{c}*n_{MM}^2,\quad n_{MM}<c\\ c+\sqrt{(1-c)(n_{MM}-c)},\quad n_{MM}>c
\end{cases} </math>
Logistic
По форме график функции схож с графиком функции Two-Quadrics.
<math>n_{AD} = \dfrac{1}{1 + A*e^{-B*n_{MM}}}</math>, где <math>A = \dfrac{1}{d} - 1</math>, <math>B = \dfrac{ln(A)}{c} - 1</math>.В выражениях для <math>A</math> и <math>B</math> символ <math>d</math> обозначает константу, которая выбирается чаще всего малым числом (часто значением 0.01). При этом легко видеть, что <math>f(0) = d</math>.
Quadric-Line-Quadric[13]
В данном случае зона перекрытия остаётся неизменной (на графике это видно по линейному участку в центре). За её пределами используется Two-Quadrics функция отображения.
<math> n_{AD}= \begin{cases}
\dfrac{1}{c-\dfrac{w}{2}}*n_{MM}^2,\quad n_{MM}<(c-\dfrac{w}{2})\\ n_{MM},\quad (c-\dfrac{w}{2})<n_{MM}<(c+\dfrac{w}{2})\\ (c+\dfrac{w}{2}) + \sqrt{(1-c-\dfrac{w}{2})(n_{MM}-c-\dfrac{w}{2})},\quad n_{MM}>(c+\dfrac{w}{2})
\end{cases} </math>
Способы слияния (fusion)
После того, как результаты работы отдельных алгоритмов аутентификации прошли через процесс нормировки, необходимо объединить их[14]. Для этого существует ряд способов слияния. Первые три из перечисленных далее являются классическими. Последние два более сложные за счёт того, что они используют логику того, что какие-то методы аутентификации являются более важными, а какие-то менее важными.
Введём обозначения для дальнейших определений. Пусть <math>n_{i}^m</math> — нормализованный выход метода <math>m</math> (<math>m = 1, 2, ..., M</math>) для пользователя <math>i</math> (<math>i = 1, 2, ..., I</math>). В данном случае <math>M</math> — число унимодальных методов, используемых в мультиимодальном, а <math>I</math> — число пользователей в базе данных.
Simple Sum[15]
Простое суммирование для пользователя нормализованных результатов всех аутентификаторов.
<math>f_{i} = \sum_{m \mathop =1}^{M}n_{i}^m</math>
Min Score[16]
Выбирает минимум среди всех нормализованных результатов аутентификатора для данного пользователя.
<math>f_{i} = min(n_{i}^1, n_{i}^2, ..., n_{i}^M)</math>
Max Score[16]
Выбирает максимум среди всех нормализованных результатов аутентификатора для данного пользователя.
<math>f_{i} = max(n_{i}^1, n_{i}^2, ..., n_{i}^M)</math>
Matcher Weighting[17]
Данный метод слияния основан на использовании Equal Error Rate[18] (EER). Эта функция ошибки делает оценку ROC-кривой. Обозначим EER для метода <math>m</math> как <math>e^m</math> <math>(m = 1, 2, ..., M)</math>. Тогда весом для метода <math>m</math> будет <math>w^m</math>.
<math>w_{m} = \dfrac{1}{\sum_{m \mathop =1}^{M}{\dfrac{1}{e^m}}}*\dfrac{1}{e^m}</math>
При этом из формулы ясно, что для всех <math>m</math> верно <math>0</math> ≤ <math>w^m</math> ≤ <math>1</math>, а также, что <math>\sum_{m \mathop =1}^{M}w^m = 1</math>. Важным моментом является ещё и то, что чем выше значение ошибки <math>e^m</math>, тем ниже соответствующий весовой коэффициент <math>w^m</math>. Таким образом, более точные методы, будут вносить больший вклад в финальную оценку.
Финальная формула имеет вид:
<math>f_{i} = \sum_{m \mathop =1}^{M}{w^m*n_{i}^m}</math>
User Weighting[17]
Данный метод отличается от предыдущего тем, что мы производим взвешивание методов для каждого пользователя индивидуально. Изначально этот способ слияния был более сложным с точки зрения вычислений[19]. Позднее на его основе была предложена схема, уменьшающая число операций, которая и будет описана в этом разделе.
Обозначим вес для метода <math>m</math> для пользователя <math>i</math> как <math>w_{i}^m</math>.
Рассмотри более детально, как вычислить искомы вес <math>w_{i}^m</math>. Данный способ слияния берёт за основу концепцию волка-овцы[20]. Обозначим за овец пользователей, данные которых могут быть легко подделаны. Волками напротив обозначим пользователей, которые легко имитируют других клиентов. Как волки, так и овцы уменьшают эффективность работы процесса аутентификации, так как обе эти группы приводят к ложным срабатываниям.
Для того, чтобы использовать данный подход для мультимодального случая, необходимо ввести метрику lambness для каждой пары <math>(i, m)</math>. Она показывает, насколько пользователь <math>i</math> является овцой в рамках метода <math>m</math> При её подсчёте предполагается, что параметры среднего и стандартного отклонения для подлинного распределения и распределения самозванцев известны. Для получения lambness происходит вычисление d-prime метрики[21], которая показывает, насколько различимы два распределения (в нашем случае истинное и поддельное). Обозначим для пары пользователь-метод <math>(i, m)</math> среднее и стандартное отклонения подлинного распределения как <math>\mu_{i, gen}^m, \sigma_{i, gen}^m</math>, для поддельного <math>\mu_{i, n}^m, \sigma_{i, n}^m</math> соответственно. В данном случае индексы gen и imp обозначают genuine и impostor соответственно. <math>d_{i}^m = \dfrac{\mu_{i, p}^m - \mu_{i, n}^m}{\sqrt{\sigma_{i, p}^m - \sigma_{i, n}^m}}</math>.
При этом легко видеть, что чем меньше значение <math>d_{i}^m</math>, тем в большей степени пользователь является овцой для некоторых волков. Это обусловленно тем, что в данном случае наблюдается сильное перекрытие распределений.
И, наконец, все готово для подсчёта весов для пользователя <math>i</math>:
<math>w_{i}^m = \dfrac{1}{\sum_{m \mathop =1}^{M}d_{i}^m} * d_{i}^m</math>.
Формула слияния с полученными весами имеет вид:
<math>f_{i} = \sum_{m \mathop =1}^{M}w_{i}^m*n_{i}^m</math>
Комбинирование методов
В ходе исследований[22][23] мультимодальных систем аутентификации было показано, что использование комбинации нескольких методов превосходят по качеству работы унимодальные системы. Причем прирост достигается даже при комбинировании с топовыми унимодальными системами. В некоторых случаях это может помочь снизить стоимость итоговой архитектуры за счет использования простых методов.
Также было показано[17], что в приложениях, где происходит постоянный приток новых людей (например, аэропорты), наиболее подходящая комбинация — это нормализация Min-Max и слияние Simple Sum. Если же работа происходит с ограниченным кругом лиц (например, лаборатория или офис), то наилучшая комбинация — это адаптивная нормализация Quadric-Line-Quadric и слияние User Weighting. Основная причина разницы результатов для двух случаев в том, что при работе с одними и теми же пользователями происходит постоянное повторение съёмов биометрических данных, что позволяет собирать их и аккумулировать в алгоритмы. Аналогичные результаты были получены также и в других исследованиях[24][25]. Описанные случаи являются исчерпывающими и описывают все возможные примеры использования систем аутентификации.
При решении прикладных задач стоит стоит пробовать различные комбинации методов создания мультимодалных систем. Это обусловленно тем, что из-за различий в том, какие унимодальные методы используются, какая аппаратура осуществляет аутентификацию и каких образом происходил сбор данных для обучения мультимодальной системы, результаты могут сильно отличаться от представленных в различных исследованиях. Однако в качестве базового решения стоит в первую очередь пробовать именно описанные выше.
Примечания
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ 6,0 6,1 Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ 8,0 8,1 Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ 16,0 16,1 Шаблон:Статья
- ↑ 17,0 17,1 17,2 Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья
- ↑ Шаблон:Статья