Диссертация (1091153), страница 14
Текст из файла (страница 14)
Затем вычислялся уровень верного распознавания на наборахизображений с этими же людьми, но разным положением источника света.Пример изображений из базы CMU Multi-PIE приведен на рис. 4.22.а)б)Рис. 4.22. Изображения субъекта из базы CMU Multi-PIE с источником света:а) f01 под углом –90°; б) f12 под углом +75°106Результатытестированиясуказаниемнаименованийисточникаосвещения и угла, под которым он находится к объекту наблюдения,приведены в табл. 4.2 и табл.
4.3.Таблица 4.2Результаты тестирования системы распознавания лицдля источников света на уровне головыНомер источника светаУгол источника светаУровень верного распознаванияf01-9077,1f02-7579,1f03-6080,0f04-4578,3f05-3090,7f06-1594,8f07094,8f081590,4f093089,6f104585,9f116080,7f127574,7f139075,5Результаты тестирования системы распознавания лицТаблица 4.3для источников света выше уровня головыНомер источника светаУгол источника светаУровень верного распознаванияf14-3090,76f15-1591,57f16093,57f171592,37f183091,16Исходя из результатов эксперимента, можно сделать вывод, чтоалгоритм распознавания, используемый в программе Faces.Video.Lab [118],107чувствителен к неравномерности освещения, несмотря на применениефильтров Габора (в тестах на поднаборе fc из базы FERET не нарушаласьравномерность освещения, а изменялась, преимущественно, только общаяяркость изображения).
Уровень верного распознавания оказался схож приисточниках света, находящихся на уровне головы и на два метра вышеуровня головы. Выбрав за одну из осей угол между источником света ивзглядом человека, можно представить данные из табл. 4.2 и табл. 4.3 в болееудобном виде на графике (рис. 4.23).10090P, %807060на уровене головывыше уровня головы50-90-60-300306090α, градРис. 4.23. Уровень верного распознавания системы распознавания лицв зависимости от угла, под которым находится источник светаДляполученияуровняверногораспознаваниявыше90%нафронтальных лицах при использовании программы Faces.Video.Lab и базыданных, состоящей из порядка 300 классов, источник света долженнаходиться к объектам наблюдения под углом, не большим 30°.1084.7.
Краткие выводыРезультаты проведенных исследований позволяют сделать следующиеосновные выводы.1.Проведено тестирование предложенных алгоритмов распознаванияна основе локальных квантованных шаблонов (с фильтрами Габора и безних) для 11 типов искажений и помех, характерных для систем охранноготелевидения. Показано, что применение фильтров Габора позволяетповысить робастность алгоритма для всех рассмотренных типов искажений.2.Использование фильтров Габора позволяет сохранить уровеньверного распознавания алгоритма на основе локальных квантованныхшаблонов выше 90% при размытии с R ≤ 4 ; аддитивном белом гауссовскомшуме с σ г2 < 0,15 ; спекл-шуме с σ с2 < 0,02 ; 20-кратном сжатии изображенияалгоритмом JPEG и 30-кратном сжатии алгоритмом JPEG2000.3.Использование фильтров Габора позволяет повысить робастностьалгоритма на основе локальных квантованных шаблонов к изменениямусловий освещения.
Уровень верного распознавания на стандартном тесте fcбазы FERET при использовании фильтров Габора возрастает с 45,4%до 96,4%.При анализе возрастных изменений использование фильтровГабора повышает устойчивость на 12–21%.4.Из проведенных исследований на базе Robotics следует, что уровеньверного распознавания системы распознавания лиц, построенной на базеалгоритма на основе локальных квантованных шаблонов с использованиемфильтра Габора, при работе с 90 классами падает до значения 80% при углеповорота головы в 30°.5.Проведенные тесты на базе CMU Multi-PIE помогли сформироватьтребования к равномерности освещения лица.
Для получения уровня верногораспознавания выше 90% на фронтальных лицах при использованииалгоритма на основе локальных квантованных шаблонов с фильтрами Габораи базы данных, состоящей из около 300 классов, источник света долженнаходиться к объектам наблюдения под углом, не большим 30°.109ЗАКЛЮЧЕНИЕОсновные выводы и результаты диссертационной работы можносформулировать в следующем виде.1.Разработан итерационный алгоритм локализации центров глаз наизображениях лиц, использующий мультиблочные локальные бинарныешаблоны.Предложенныйалгоритмпрактическинапорядокпревосходит по скорости работы известные алгоритмы локализации глаз(байесовский, градиентный), позволяя производить поиск положенияглаз в видеопотоке в режиме реального времени.
Показано, чторазработанныйалгоритмявляетсяробастнымквоздействиюаддитивного белого гауссовского шума и JPEG-сжатию изображения.2.Предложенный алгоритм локализации глаз допускает грубые ошибкилокализации (err > 0,15) только для 1% изображений из тестовой базыFERET и для 4% из базы BioID.
Число грубых ошибок практически неувеличиваетсяприснижениикачестваизображениялицадоPSNR = 25 дБ при искажении аддитивным белым гауссовским шумом иPSNR = 30 дБ в случае JPEG-сжатия.3.Разработаналгоритмраспознаваниялицнаосновелокальныхквантованных шаблонов и фильтров Габора. Проведено сравнениепредложенного алгоритма с открытыми реализациями алгоритмовраспознавания лиц из библиотеки OpenCV на стандартном тесте fb базыFERET, показывающее превосходство по уровню верного распознаваниянового алгоритма на 20% при сопоставимой вычислительной сложности.Применение фильтров Габора дополнительно увеличивает уровеньверного распознавания с 97,6% до 98,6%.1104.Показано, что применение фильтров Габора позволяет повыситьробастность алгоритма на основе локальных квантованных шаблонов квоздействию 11 типов искажений и помех, характерных для системохранного телевидения. Так, например, уровень верного распознаванияна стандартном тесте fc базы FERET при использовании фильтровГабора возрастает с 45,4% до 96,4%.
При анализе возрастных измененийна тестах dup-I и dup-II базы FERET применение фильтров Габораповышает робастность на 12–21%.5.Использование фильтров Габора позволяет сохранить уровень верногораспознавания алгоритма на основе локальных квантованных шаблоноввыше 90% для 1196 классов при размытии сR≤4;аддитивном беломгауссовском шуме с σ г2 < 0,15 ; мультипликативном шуме с σ с2 < 0,02 ;20-кратном сжатии изображения алгоритмом JPEG и 30-кратном сжатииалгоритмом JPEG2000.6.ПроведенныеэкспериментыCMU Multi-PIEпозволилинатестовыхполучитьбазахоценкиRoboticsуровняиверногораспознавания (при 100–300 классах) для разных углов поворота головыи различном расположении источников освещения.7.Цельизадачидиссертационнойработыуспешновыполнены.Разработанные алгоритмы локализации центров глаз и распознаваниялиц интегрированы в программу для слежения за лицами навидеопоследовательностях Faces.Video.Lab, которая протестирована наряде тестовых видеоданных, характерных для систем охранноготелевидения.
Получено свидетельство о государственной регистрациипрограммы для ЭВМ.111СПИСОК ЛИТЕРАТУРЫ1.Кругль Г. Профессиональное видеонаблюдение. Практика и технологиианалогового и цифрового CCTV. – М.: Секьюрити Фокус, 2010. – 640 с.2.Дамьяновски В. CCTV. Библия видеонаблюдения. Цифровые и сетевыетехнологии. – М.: Ай-Эс-Эс Пресс, 2006. – 480 с.3.Концепция построения и развития аппаратно-программного комплекса«Безопасный город» // Распоряжение Правительства РоссийскойФедерации от 3.12.2014 № 2446-р.4.Ko T. A Survey on behavior analysis in video surveillance for homelandsecurity application // 37th IEEE Applied Imagery Pattern RecognitionWorkshop. AIPR, 2008.
P. 1–8.5.Zhao W., Chellappa R., Phillips P., Rosenfeld A. Face recognition: Aliterature survey // ACM Computing Surveys (CSUR). 2003. V. 35, № 4.P. 399–458.6.Форсайт Д.А., Понс Д. Компьютерное зрение. Современный подход. –М.: Вильямс, 2004. – 928 с.7.Woodward J.D., Orlans N.M., Higgins P.T. Biometrics: Identity Assurance inthe Information Age. – McGraw-Hill Osborne Media, 2002. – 416 p.8.Brey P. Ethical Aspects of Face Recognition Systems in Public Places //Journal of Information, Communication & Ethics in Society. 2004.P. 97–109.9.Гонсалес Р.,Вудс Р.Цифроваяобработкаизображений.–М.: Техносфера, 2005. – 621 с.10. Методыкомпьютернойобработкиизображений/Подред.В.А.
Сойфера. – М.: Физматлит, 2001. – 784 с.11. Прэтт У. Цифровая обработка изображений. – М.: Мир, 1982. –311 + 479 с.11212. Журавлев Ю.И.,Рязанов В.В.,Математическиеметоды.Сенько О.В.Программнаясистема.Распознавание.Практическиеприменения. – М.: Фазис, 2005. – 159 с.13. Вапник В.Н.,Червоненкис А.Я.Теорияраспознаванияобразов(статистические проблемы обучения). – М.: Наука, 1974.
– 416 с.14. Мерков А.Б.Распознаваниеобразов.Введениевметодыстатистического обучения. – М.: Едиториал УРСС, 2011. – 256 с.15. Sagonas C., Tzimiropoulos G., Zafeiriou S., Pantic M. 300 Faces in-the-WildChallenge: The first facial landmark localization Challenge // Proc.International Conference on Computer Vision workshop on 300 Faces in-theWild Challenge, 2013. P. 397–403.16. Viola P., Jones M. Rapid object detection using a boosted cascade of simplefeatures // Proc. International Conference on Computer Vision and PatternRecognition.