Якушенков Ю.Г. Теория и расчет оптико-электронных приборов (4-е изд., 1999) (1095908), страница 71
Текст из файла (страница 71)
Сигнал хл будет принадлежать тому классу, для которого функция я имеет наибольшее значение. Решающие функции обычно вычисляют на основе информации, извлекаемой из набора сигналов с известной классификацией. Создание классификатора называется его обучением. Если функции распределения вероятностей, связанные с тем или иным классом, известны, то для обучающего набора сигналов нужно оценить параметры этих распределений (математическое ожидание, дисперсия и др.), что снижает требования к емкости памяти ЭВМ, необходимой для обучения. Для многомерных гауссовских распределений обычно применяют вектор математического ожидания и ковариационную матрицу для каясдого класса сигналов (обрлзов).
Если при распознавании используются п сигналов, например л значений яркости в л областях спектра, то для обучения необходимо иметь, как минимум, 10л (и даже более) обучающих сигналов (образов). Оптимальный набор решающих функций д находят с помощью теории статистических решений. Так, в случае задачи об отнесении сигнала к той или иной области по максимуму правдоподобия ЭВМ вычисляет произведения функции плотности вероятности ры(х,) на 367 Ю.Г. Якушвнков. Теория и расчет оптико.электронных приборов опорные вероятности класса т — р(з,), т.
е. на вероятности наблюдения сигнала зг Эти произведения и образуют набор решающих функций. Если считать функции распределения вероятностей гауссовскими, то решающие функции определяются как т у(х)=- — - ргч — -„. ехр~ — .(х-кп„) у,'(х-ш„,)1, где ~ "г., ~ — определитель ковариационной матрицы Е,.: агп аыг ... о.„„, ~а гт амг ... агг ' 3 пк„— вектор математического ожидания; (х — пт„,) — транспонирот ванный вектор (х-ш„,); х — вектор данных (сигнал).
Более сложным является определение решающих функций в случае многомодального распределения случайных сигналов, что довольно часто встречается в практике работы ОЭП. Обычно такой класс разбивается на несколько подклассов, для каждого из которых функция распределения вероятностей может быть принята гауссовской. Критерий максимума функции распределения плотности вероятности сводится часто к максимуму функции правдоподобия в предположении, что имеет место гауссовский закон распределения случайных величин, описывающих распознаваемый сигнал и параметры всей системы (их «случайные части»).
Представим сигнал на выходе ОЭП или какого-либо его звена в виде вектора с компонентами у,. у, = )х,(а)я,(а)тга, (11. 31) о где х(а) — кыя компонента входного сигнала, который часто принит мается детерминированным; Й,(а) — коэффициент передачи (чувствительность) ОЭП, который часто также принимается детерминированной величиной; а — один из возможных аргументов (пространственная или угловая координата, длина волны излучения, время и т. д.). В общем случае функции уг хг и, носят случайный характер.
Число составляющих 1=1, 2,..., У векторов у и )к определяется как число каналов У„например спектральных, в которых идет работа прибора. Возможен случай, когда аргумент а является„в свою очередь, многомерной векторной величиной, например, если в канале ) сигнал х 368 Глава 11. Фильтрация сигналов в оптико-электронных приборах рассматривается одновременно как функция двух пространственных координат и длины волны излучения. В силу случайности величин, входящих в (11.31), вектор выходного сигнала у является многомерной случайной величиной со средним значением шк и ковариационной матрицей С, имеющими компоненты: пв,=<у,> и Сл=<(у,— тп,)(у, — пв,)>, где < > обозначает среднее по ансамблю случайных величин.
Обнаружение (распознаванне) какого-то частного значения вектора сигнала у обычно основывается на сравнении полученных значений ш„с рядом эталонных значений средних величин ш„и матрицы С с рядом матриц, хранящихся в памяти блока сравненйя. В случае о применения критерия минимума среднего квадратического отклонения не используется информация, содержащаяся в ковариационной матрице.
Поэтому алгоритм обнаружения, сводящийся к нахождению минимального значения ~ у-ш„~, менее точен, чем алгоритм, основан- 2 иый на максимизации функцйи плотности вероятности гауссовского случайного процесса: рг».1= „,— „,. »1--'(д„- „) с,-тк.— „)) Максимизация этой функции эквивалентна более удобной с точ- ки зрения вычислений минимизации функции -1п[р(у„)1, т.е. (у„- т„) С„~ (у„- лт„) + 1пР„ где Р, — детерминант матрицы С„. Этот критерий более надежен, чем минимизация среднего квадратического отклонения, так как он пол- нее учитывает случайный характер сигналов, свойств среды нх рас- пространения, параметров прибора. Находящаяся в составе ОЭС ЭВМ вычисляет эту функцию для каждого из и классов и относит сигнал к тому нз них, которому соответствует минимум функции.
Оценки качества распознавания, в частности, вероятности при- нятия ошибочного решения, могут быть выполнены различными спо- собами. Если обозначить через р, вероятность правильного распозна! вання )хй выборки сигнала ()-го признака сигнала), а через д. — вероятl ность неправильного распознавания, тор Ч- т). = 1. Вероятность того, что т т в ттг выборках сигнала правильно будут классифицированы ) точек, описывается биномиальным распределением р()) = С" р'д"-т, 369 Ю.Г. Якушенков. Теория и расчет оптико-электроннык приборов где Ст Для этого распределения среднее значение як=ар, а среднее квадратическое отклонение о =,)Ярд. Качество распознавания определяется вероятностью Р того, что из ттт выборок сигнала правильно классифицированы ] выборок. Статистическая различимость двумерных классов признаков часто характеризуется отношением Фишера: ~лгт глг~ А а, жег г 2 где тт и тг — математические ожидания; ат и ог — дисперсии.
По принципу работы большинство оптико-электронных распознающих систем можно разделить на две группы: системы, в которых выделяются характерные признаки сигнала, и системы с оптической корреляцией. К первой группе могут быть отнесены системы, рассмотренные в Я 11.4-11.9. Системы второй группы описаны в предыдущем параграфе; при их использовании задача часто сводится также к распознаванию признаков, но не самого сигнала, а его ковариационной или корреляционной функции. Преимуществом способов распознавания, основанных на выделении характерных признаков сигнала, перед корреляционными способами является то, что при их использовании можно применять более простые и гибкие схемы обработки выходных сигналов. Однако корреляционные способы более помехоустойчивы, часто для их реализации предварительная обработка изображения не требуется. В качестве признаков, служащих для распознавания оконтуренных, т.е.
имеющих достаточно четкие границы, оптических сигналов (образов), могут быть использованы площадь контура (площадь пятна, представляющего корреляционную или ковариационную функцию, взятую по какому-то одному или по нескольким уровням освещенности), длина контура или длины контуров, взятых по нескольким уровням освещенности, а также гистограммы их распределений, определяемые сравнительно просто в цифровой части гибридной системы. Другими достаточно инвариантными к искажениям оптических сигналов признаками могут быть: отношения амплитуд отдельных гармоник пространственно-частотного спектра; 370 Глава 11. Фильтрация сигналов в оптико.
электронных приборах гистограмма распределения переходов от одного уровня освещенности к другому вдоль нескольких направлений, например вдоль ортогональных осей координат и двух диагональных направлений; гистограмма распределения локальных максимумов и минимумов вдоль нескольких направлений в плоскости изображений; канонические моменты двумерных распределений освещенности Е(», у) по отношению к координатам (х„, у„) их энергетических центров тяжести, т.е. пгьг = ) ](х — х„) (у — у„) Е(х.у)к(хоту, или для дискретизированного на М»Х элементов изображения ы-т лт-т тв т = ~ ~ ~(к — кк) (у — ти) Е(г,]) -о т=о где й ), гп, )„— координаты (номера элементов); гистограмма расстояний между элементами изображения с одинаковой освещенностью и ряд других. Например, достаточно распространенным способом распознавания, применяемым в системах технического зрения, является использование моментов функции ~(х, у), описывающей распределение освещенности в изображении объекта.
В общем виде момент (р, д)-го порядка представляется как лг = г] Г] ((х,у)хл увг(хт(у. « в Инвариантность к масштабу достигается нормированием центральных моментов следующим образом: лг р в+2' ртов г Определяя моменты тто и тот, можно определить смещение изображения по осям х и у, а определяя т — размер (масштаб) изображения, Инвариантны к сдвигу, повороту и изменению масштаба следующие соотношения, которые являются классификационными признаками при распознавании различных образов и могут быть определены по нормированным моментам первого, второго и третьего порядков (33]: Ат = т(го е т)ог *' 371 Ю.Г.
Якуогенкоз. Теория и расчет оптико-электронных приборов Глава 11. Фильтрация сигналов з оптика-электронных приборах 2 2. Хг = (Чм - Чог) -4Ч!! ' 12 = (Чзо ЗЧтг) +(ЗЧг! т1оз) 2 2 ! к = (Чзо + Чи) " (Чм ~ Чоз) ° г г) 62 =(Чзо ЗЧтг)(Чзо+Чи)[(Чзо+Чи) 3(Чи+Чоз) )+ +(ЗЧ2! Чог)(Чг! + Чоз)[3(Чзо + Чи) (Чгт+ Чоз) ~ 2 г) хз =(Чго Чог)[(Чзо Е Чи) (Чм" Чоз) )+4Чтт(Чзо+ Чи)(Чм+ Чаз) 2 г) бт=(ЗЧгт-Чоз)(Чзо+Чтг)[(Чзо+Чтг) -3(Чм+Чоз) )+ +(ЗЧи — Чзо)(Чг! — Чоз)[3(Чзо+ Чтя)'-(Чгт+Чтз)'~ Вычисление этих соотношений в реальном масштабе времени при современных возможностях вычислительной техники не представляет принципиальной трудности.
Для учета весьма разнообразных ситуаций, возникающих при распознавании, например при наблюдении какого-либо объекта под разными ракурсами, возможно создать самообучающуюся систему (классификатор) на базе нейронных сетей (см. 3 11.12). Использование инвариантных моментных соотношений с параллельной их обработкой для самообучения нейронных сетей позволяет заметно сократить время обучения и вести распознавание в масштабе времени, близком к реальному.