Анисимов Б.В., Курганов В.Д., Злобин В.К. - Распознование и цифровая обработка изображений (1033973), страница 21
Текст из файла (страница 21)
( Рэ )е «гр =«а =ее3г ' ( 1 Гспиа (3. 13) г) (Х, ))г)=гг,(Х, зг,) — 3а(Х, П'а). Рк 11) Последний наиболее общий вид формулы для 33 справедлив для случаев, когда отрезок ]Т„Тг+г] не пересекается радиусами р; и рьиг. В противном случае этот отрезок разбивается точками пересечения на интервалы и значения Я) вычисляются по частям. Э т а п 7. На этом этапе алгоритма находят площадь 5,игн и нормирующий множитель $: Э т а и 8.
На данном этапе алгоритма определяются значения прнзнаков: где Гг — порядковый номер признака. % 3.5. ЭФФЕКТИВНОСТЬ ПРИЗНАКОВ ПРИ РАСПОЗНАВАНИИ ДВУХ КЛАССОВ ОБЪЕКТОВ При статистической постановке и решении задач распознавания приходится сталкиваться с огромными трудностями, связанными с оценкой многомерных плотностей вероятностей исходных признаков распознавания. Эти трудности можно преодолеть, если вместо многомерных распределений исходных признаков рассматривать некоторые функционально связанные с ними одномерные распределения. В качестве таких распределений могут быть использованы, например, распределения скалярных дискриминантных функций юг (Х, ])У), реализующих принятое решающее правило и количественно определяющих меру принадлежности распознаваемой реализации Х = (х„х„..., ха,..., х„) (где ха — й-й признак распознавания) к классу А, (г =- 1, т) по известным параметрам дискриминантной функции ])у= (ш„цг„..., цг„).
При этом в силу центральной предельной теоремы допущение нормальности распределения дискриминантной функции оправдывается в значительно большей степени, чем обычно делающееся допущение о нормальности распределения исходных признаков. Это допущение легко проверяется экспериментально, так как распределение дискриминантной функции одномерно. Рассмотрим случай распознавания объектов, относящихся к классам А, и А,.
Поверхность, разделяющая в пространстве признаков эти классы, полностью определяется одной дискриминантной функцией ггг а (Х, ]]г") (см. 110]); В общем случае параметры ]]У = (])кг, ]к„..., ])Уг) дискриминантной функции неизвестны. Для оценки величины этих параметров используют обучающее множество объектов, относительно которых предполагается известной проводимая классификация (обучение с учителем). Процедура определения дискриминантной функции может быть разбита на три этапа: Эт а п 1. Заданием решающего правила или метрики близости описаний к классу, устанавливается вид зависимости дискриминант, ной функции от неизвестных параметров. Э т а п 2. По обучающему множеству объектов оценивается вели' чина этих параметров. Э т а и 3.
Полученные оценки подставляются в выражение дискри- минантной функции в предположении, что они являются истинными . значениями параметров, Определение дискриминантной функции г(ге (Х, ])г) эквивалентно , разделению а-мерного пространства признаков на две непересекающиеся области бг и Ое. Если данный конкретный объект попадает в область 6„ Гггаг~М , то принимается решение о его принад; лежности к классу Аг, т. е. Х = (х„х„ ..., ха,..., х„) Е бг — ~ А, и, аналогично, Х (хг~ ха ' ха~'' «и) Е бе ~ Ае' Обучающая выборка, использовавшаяся при определении параметров дискриминантной функции, может быть вторично применена для нахождения ус- г ам ловных распределений этой функции рис, 3 12 Графики распределе- Обозначимчерез р(г(гаГАг) и р(с(га!Аа) иик р(гггеГАг) и РФы~де) дисплотности распределения вероятностей крииниаитиоя функции даа дискриминантной функции ггга (Х, ](У) ' при условии предъявления обучающего множества объектов, принадлежащих классам А, и А, соответственно.
Эти распределения могут быть аппроксимированы нормальными законами На рис. 3,12 показаны возможные распределения р (с(гаГАг) и р (г(г«ГАе) дискриминантной функции, полученные по обучающему множеству обьектов соответственно для классов Ад и А,. При равенстве плат за ошибки первого и второго рода (рис. 3.12) полная вероятность ошибки распознавания с Рош =Рг ) Р(3геГАг)'Ыге+Ре) Р(гггеГАе)Ы~е с где Рг и Р, — априорные вероятности появления классов А, и А,; С вЂ” выбранный порог принятия решения.
В случае нормальных распределений р (г(гаГАг) и р (с(геГАа) выражение (3.12) может быть переписано в виде р ( ) ~ е — гчес(à — функция Лапласа; лгга шм 1 р'Б матические ожидания и оге, ам — среднеквадратичные отклоне ия дискриминантной функции соответственно для классов А„и А,. 91 п олезность некоторого признака исходной совокупности и признаков в соответствии с (3.1) будем определять по изменению полной вероятности ошибки распознавания при его исключении из этой сово- купности, Исключение Ьго признака из исходной совокупности признаков приводит к изменению математических ожиданий и среднеквадратич- ных отклонений дискримннантной функции на величины Л»т„и Л»огг для класса А, н величины Л»т,! и Л»ог! для класса А,.
При этом полйая вероятность ошибки распознавания становится равной ( С вЂ” (т„— Л» т,г) 11 ( С вЂ” (т„— Л» т,г) 1 аы — Л агг ~) ~ а„— Л»а,! При равенстве ошибок первого и второго рода можно получить весь- ма простое выражение для оценки полезности признаков. Действитель- но при сс = р значение порога принятия решения С просто выражает- ся через математические ожидания и среднеквадратичные отклонения условных распределений дискрнминантных функций: С = (т! а»!+те! огг)7(ода+о»!).
(3.15) Вообще говоря, задаваемое этим выражением значение порога С не оптимально с точки зрения минимума полной вероятности ошибки распознавания. Оптимальная разделяющая граница между классами А, и А, определится уравнением р! р (Етг) Ад — р, р (йгг/Аг) =О. (3. 1б При равенстве о„= о„значение порога С совпадает с оптималь- ным значением порога, а при близких значениях о), и о,! отклонение значения порога С от оптимального незначительно.
При использовании нормированных эталонных описаний классов условные распределения дискриминантной функции имеют практически равные друг другу среднеквадратичные отклонения. В этих условиях, фактически не отступая от выбора оптимального порога принятия ре- шения, появляется возможность значительно упростить выражение для полной вероятности ошибки распознавания. При значении порога принятия решения С, найденному по (3.15), выражения (3.13) и (3.14) запишутся соответственно так: ош + 1 — Р~ (ам+о„) — (Л огг+Л а„) (т,г — т„) — (Л" гн,г — Л» т„) 1 (3,13) (о!»+пад — (Л а»г+Л ог!) Из (3.17) и (3.18) непосредственно следует, что Ьй признак полезен, если выполняется неравенство тгг — ты') ~ (тгг — тг!) — (Л ты — Л тг!) о»г оы/ ( (огг-!-о' ) — (Л» а! +Л» о !) 92 рое после ряда преобразований может быть звписано в более удобом виде: »» Л ты Л ты глы — !пг! (3.
И) Л' агг 4- Л' а„от+ам Назовем стоящую в левой части этого неравенства величину услоемым расстоянием между распределениями дискриминантной функции ' о Ьму признаку. Из неравенства (3.19) следует, что Ьй признак поезен лишь в случае, если условное расстояние между распределения- и дискриминантной функции по этому признаку больше расстояния 'ежду распределениями дискрнминантной функции по совокупности сех признаков исходного описания. П р и и е ч а н и е. Этот вывод качественно согласуется с результатами, полученными в работах, в которых рассматривалось асимптотическое поведение ве,роятности ошибки классификации двух нормальных совокупностей при увеличеии числа признаков. Обозначая оценку полезности Ьго признака исходного описания прн различении произвольной пары классов А, н А; через е)1, в соотй) ветствнн с (3.19) можно записать; е!.") =(Л" тм — Л» т)!) — Ы Н (Л»ам-1-Л» а)!).
(3.20) ц ' !! он+о)! Если еф ) О, то я -й признак полезен; если е(!) (Π— он вреден; если еи = 0 — бесполезен. !») В случае статистически независимых признаков величины, входящие в (3.20), легко определяются аналитически л л ты= аг', ты», т))= ~и~', тяы »=! »=! а а;;= ~у ~ а'!» »=! (3.22) 93 ; где ты» и т)!» — математические ожидания дискриминантной функ, ции по ЬмУ пРизнакУ соответственно в классах А, и Аб о„» н о;ы— ° среднеквадратичные отклонения дискримннантной функции по Ьму ,; признаку соответственно в классах А; и А б тм=ты» туг=тя»1 (3. 23) Л а))==а!) — )/га' — ог, Л" он=оп — )г аг — ог„. (3.24) При наличии статистической зависимости между признаками аналитическое опРеделение величин оы, ом Л»оы, Л» огч чРезвычайно затруднено (при большой размерности пространства признаков и ,практически невозможно установить корреляционные связи между : всеми сочетаниями признаков).
В этих условиях определение указанных величин может быть произведено только на основе эксперимента, , заключающегося в построении по некоторой обучающей выборке клас:сов условных распределений дискримннантной функции для исходной совокупности из и признаков и для совокупности из и — 1 признаков (при исключении некоторого й-го признака), Вычислив по результатам эксперимента величину среднеквадратичного отклонения значений дискриминантной функции при всех признаках а;1 для класса А и а затем такую же величину при исключении й-го признака, можно определить величину изменения среднеквадратичного отклонения: да ам=ам — а,'.