Диссертация (1091153), страница 10
Текст из файла (страница 10)
3.2.Интенсивность пикселя на изображениях тем выше, чем выше амплитудноезначение функции (3.6) в соответствующей точке.Для учета информации о расположении тех или иных локальныхособенностей каждое из полученных габоровских изображений разбиваетсяна P подобластей. В работе использовалось разбиение на P =9х15=135подобластей.Рис. 3.2. Свертка изображения лица и фильтров Габора703.1.2. Локальные квантованные шаблоныКак было отмечено в п. 1.5.3, при составлении стандартного 8-битногоЛБШ некоторой точки на изображении используется информация оперепадах интенсивности между центральным пикселем и только восьмьюсоседними пикселями (рис.
3.3). Почему нельзя использовать более широкуюокрестность для увеличения точности описания изменений яркости вокруграссматриваемого пикселя?Рис. 3.3. Формирование 8-битного локального бинарного шаблона центрального пикселяИспользование большей окрестности приводит к резкому увеличениючисла возможных признаков. Например, для окрестности из 20 пикселей эточисло возрастает с 256 (28) до более миллиона (220).
При этом большинствопризнаков не встретится на отдельно взятом изображении вообще, а другиемогут появиться лишь однажды. В связи с этим сравнивать изображения,описанные большим количеством признаков, практически невозможно.Для решения возникшей проблемы предлагается использовать подход,описанный в работах [38, 39].
Он заключается в разделении всего множествавозможных бинарных кодов на некоторое относительно небольшое числогрупп, после чего эти группы считаются в качестве новых признаков. Такаяпроцедура осуществляется при помощи алгоритмов кластеризации [83].Локальные бинарные шаблоны, подвергаемые процедуре кластеризации дляуменьшенияразмерностипространствапризнаков,будемназыватьлокальными квантованными шаблонами (ЛКШ) [102, 108].Для примера рассмотрим 24-пиксельную окрестность некоторой точкина обучающем изображении. Вид окрестности может быть различным и71подбираться эмпирически, основываясь на анализе результатов работыалгоритма, построенного на базе конкретного вида ЛКШ.
Используястандартную процедуру сравнения каждого пикселя из рассматриваемойокрестности с центральным, сформируем 24-разрядный бинарный код(рис. 3.4). Порядок записи битов особого значения не имеет. Но при этом онне должен меняться при составлении ЛКШ для всех остальных пикселейизображения.Рис. 3.4. Формирование 24-битного локального квантованного шаблонаПроведем вычисление ЛКШ для каждого пикселя интересующейподобласти каждого изображения из обучающей базы. В результате получимбольшой массив 24-битных чисел.
Например, для обучающей базы из 100изображенийиподобластиразрешением20х16пикселейполучим20х16х100 = 32 000 значений. Значительная часть из этих значений не будетуникальной, и для ускорения последующей процедуры кластеризации всеповторяющиеся значения можно отбросить. Для еще большего ускорениявыбирается порог, отбрасывающий все значения с числом повторенийменьше заданной величины. Все эти значения требуется разделить на kгрупп, называемых кластерами.
Число k подбирается эмпирически иявляется одним из настраиваемых параметров.72Вначале запишем все найденные ЛКШ в виде векторов с бинарнымикоординатами b j = (b1 ,, b24 ) . Для формирования кластеров воспользуемсяметодом k-средних или методом главных точек [83]. Действие алгоритматаково, что он стремится создать набор кластеров Q = {Q1 , , Qk } так, чтобыминимизировать суммарное квадратичное отклонение элементов кластеровот центров масс μ i этих кластеров:karg min ∑QПослезавершения∑bi =1 b j ∈Qiработы2j− μi .методакаждое(3.7)значение24-битноголокального квантованного шаблона, возникшее в обучающей выборке,оказывается отнесенным к одному из k кластеров. Возможные, но ненаблюдаемые в данной обучающей выборке значения ЛКШ относятся кближайшему кластеру в смысле минимума расстояния до центра масс.Итогом становится формирование словаря, переводящего каждый из24-битных кодов в число от 1 до k .
Пример словаря при разделениибинарных кодов на k =100 кластеров приведен в табл. 3.1.Таблица 3.1Пример словаря для перевода 24-битного ЛКШ в номер кластера24-битный локальный квантованный шаблонНомер кластера0000 0000 0000 0000 0000 0000530000 0000 0000 0000 0000 000153.... …. …. …. …. ….…0110 0011 0100 1000 0110 000110110 0011 0100 1000 0110 0010270110 0011 0100 1000 0110 00111.... ….
…. …. …. ….…1010 0001 0110 1011 0111 0011781010 0001 0110 1011 0111 01001001010 0001 0110 1011 0111 0101100.... …. …. …. …. ….…1111 1111 1111 1111 1111 111191733.2. Модифицированная процедура составления словаряУ процедуры перевода ЛКШ в номера кластеров есть существенныйнедостаток. Если устанавливать соответствие между одним ЛКШ и толькоодним номером кластера, могут возникнуть граничные эффекты, когда двакода, отличающихся только одним битом, относятся к разным кластерам. Вработе предлагается использовать мягкое разделение на кластеры изаписывать в словарь для каждого возможного ЛКШ вместо номераближайшего кластера вероятность принадлежности конкретного ЛКШp j (Qi ) к кластеру Qi .
Вероятность предлагается определять с помощьюбайесовского подхода [68]:p(Qi | b1 ,..., b L ) = p (Qi | b) =p (Qi ) p (b1 ,..., b L | Qi ) 1= p (Qi ) p (b | Qi ),p (b1 ,..., b L )Z(3.8)где b1 ,..., bL – значения битов в ЛКШ, представленном в виде вектора b ;p (Qi ) – априорная вероятность принадлежности к кластеру Qi , вычисляемаяисходя из относительного количества локальных квантованных шаблонов,отнесенных к кластеру Qi алгоритмом k-средних на обучающей выборке; Z –масштабный множитель, не играющий роли при дальнейших вычислениях.Функцииправдоподобияp (Qi | b), i = {1,..., k}определеныввиденормального распределения:p (b | Qi ) =1 1−1Texp− (b − μ i ) K i (b − μ i ),1/2L/2(2π ) det K i 2(3.9)где μ i – центр кластера Qi , определенный методом k-средних; K i –ковариационнаяматрицаслучайноговектораbприрассмотрениикластера Qi .В работе предлагается использовать метод регуляризации[93] дляоценки ковариационной матрицы K i путем добавления к выборочнойковариационной матрице масштабируемой единичной матрицы:74~K i = K i + λE ,гдеλ(3.10)– коэффициент регуляризации, который является небольшимположительным числом, создавая эффект «расширяющегося» распределения.Регуляризация выполняется для обобщения выборки через добавлениешумовой составляющей с дисперсией λ .
Обучение с шумом является хорошозарекомендовавшей себя техникой в машинном обучении [67, 70].Выборочная ковариационная матрица вычисляется по формуле:~Ki =1 Mi(b m − μ i )(b m − μ i ) T ,∑M i − 1 m=1(3.11)где M i – количество ЛКШ, отнесенных к кластеру Qi в обучающей выборке,b m – значения ЛКШ, отнесенные к кластеру Qi и наблюдаемые в обучающейвыборке.После того как составлены все функции правдоподобия p(b | Qi ) ,начинается составление словаря. Для каждого возможного значениялокального квантованного шаблона b по формуле (3.8) вычисляютсяp (Qi | b), i = {1,..., k} .
На основе вычисленных значений формируется набор из Dкластеров {Qˆ 1 , , Qˆ D } , к которым с наибольшей вероятностью можетпринадлежать рассматриваемый локальный квантованный шаблонСформированный набор упорядочен по убыванию значенийb.p (Qˆ i | b) .В словарь заносятся номера отобранных кластеров и относительныевероятности принадлежности к каждому из отобранных кластеров:p (Qˆ i | b) =p (Qˆ i | b)D∑ p(Qˆ d | b).(3.12)d =1Пример словаря, составленного с помощью предлагаемой процедурыперевода ЛКШ в вероятности принадлежности к кластеру, приведен втабл. 3.2.75Таблица 3.2Пример словаря для перевода 24-битного ЛКШв вероятности принадлежности к кластерам24-битный локальныйквантованный шаблон№0000 0000 0000 0000 0000 0000530,9280,07950,010000 0000 0000 0000 0000 0001530,7580,21140,04....
…. …. …. …. ….………………0110 0011 0100 1000 0110 000110,57270,21160,220110 0011 0100 1000 0110 0010270,4510,33100,220110 0011 0100 1000 0110 001110,43270,37550,20.... …. …. …. …. ….………………1010 0001 0110 1011 0111 0011780,51310,391000,101010 0001 0110 1011 0111 01001000,62690,23780,151010 0001 0110 1011 0111 01011000,48780,41790,11.... …. …. …. ….
….………………1111 1111 1111 1111 1111 1111910,87140,110,060,02p (Qˆ 1 )Q̂1№p (Qˆ 2 )Q̂2№p (Qˆ 3 )Q̂33.3. Результаты моделирования алгоритма распознавания лиц на основелокальных квантованных шаблоновРассмотрим процедуру распознавания алгоритмом с предложенноймодификацией ЛКШ. Изображение лица, поступающее в качестве эталонаили для распознавания, обрабатывается набором фильтров Габора. Каждоеполученное габоровское изображение разбивается на P подобластей, длякаждой из которых ранее составлен словарь, на подобии приведенного втабл. 3.2. Каждой подобласти на габоровском изображении ставится всоответствие гистограмма с k столбцами-признаками с изначально нулевойвысотой L.
Для каждого пикселя подобласти вычисляется значение ЛКШ.Найденному значению ЛКШ пикселя согласно словарю соответствуюткластеры, к которым с наибольшей вероятностью относится данный шаблон.Вероятности отношения к данным кластерам прибавляются к столбцам сномерами этих кластеров. Гистограммы для каждой подобласти каждого76габоровского изображения присоединяются друг к другу, формируяитоговую гистограмму признаков изображения (рис. 3.5).Рис. 3.5. Процесс конкатенации гистограмм подобластейДля решения задачи идентификации лица общая гистограмма признаковдолжна сравниваться с гистограммами признаков эталонов лиц, хранящихсяв базе. На данном этапе встает вопрос о метрике сравнения гистограмм.С точки зрения статистических характеристик, нельзя сказать, что какая-либоиз метрик превосходит остальные с большой (>0,95) вероятностью.
Метрикапересечения гистограмм и метрика хи-квадрат показывают более высокиерезультаты, чем метрика логарифмического правдоподобия при небольшомчисле записей на столбец. При увеличении числа записей метрикалогарифмического правдоподобия превосходит другие метрики [31, 34]. Темне менее, низкая скорость вычисления данной метрики делает еенепригодной для применения в рассматриваемом алгоритме. В работевыбрана метрика хи-квадрат, так как при сопоставимой производительностиее точность выше, чем у более простой метрики пересечения.Итоговаяблок-схемаалгоритмараспознавания,совмещенногоалгоритмами детектирования лиц и локализации глаз, приведена на рис.