Радиоэлектронные системы Основы построения и теория. Справочник . Под ред. Я.Д. Ширмана (2007) (1151789), страница 189
Текст из файла (страница 189)
24.26. В первом случае области рис. 24.26 для различных типов (классов) целей аппроксимируются многоугольниками, так что 1и р„если А,а + В, > О, 1пр,(а) = -со в противном случае. Приведенное векторно-матричное неравенство соответствует совокупности ряда скалярных неравенств, определяющих попадание в многоугольник. Во втором случае непрерывные области рис. 24.26 аппроксимируются совокупностями прямоугольных матриц из нулевых и ненулевых (в частности, равных между собою) вещественных чисел. Элементы, связанные с измерением эффективных площадей ац целей.
Значения ац могут выражаться в логарифмических и нелогарифмнческих единицах при зондировании целей узкополосными сигналами на одной несущей частоте, в том числе в различные моменты времени, на нескольких несущих частотах, на нескольких поляризациях, широкополосными когерентными сигналами. 24.12. Непараметрические алгоритмы миогоальтериативиой классификации Составляются в расчете на неизвестные заранее статистические распределения признаков объектов различных классов, в основном эвристически (см.
рвзд. 15.2.2). К ним относятся варианты алгоритмов минимума расстояний, «ближайших соседей» и голосования [1.37, !.49, 1.54, 1.71, 1.85, 1.!О1). 24 12.1. Алгоритмы минимума расстояний Обеспечивают принятие решения о классе объекта 1 = 1, 2, ..., Л«по минимуму расстояний Ы, от точки, определяемой оценочным вектором признаков а = !! а„!1, к = 1, 2, ..., а', до точек, соответствующих априорным векторам признаков а,,р для различных классов объектов г'. Иначе, [ =агйпппЫ, или ! = аг8пппЫ, . (24.37) В силу монотонности квадратичной функции оба из равенств (2437) равносильны. В них могут использоваться различные меры расстояний: ° евклидова; ° Махалонобиса) ° в пространстве обобщенных признаков. Евклидово расстояние.
Определяется по аналогии с обычным трехмерным пространством из соотношения ы (24.38) ~(е~ асср) = (а, -а„р) (а, -а,ср) р=! 420 Алгоритм (24.37)-(24.38) совпадает с байесовским для гауссовского распределения независимых признаков, нормированных из условия их единичной дисперсии. Расстояние Махалонобиеа. Определяется в предположении априорно известных корреляционных матриц векторов признаков и условных средних значений о', =(а-а„) Ф, (е-а„). (2439) Алгоритм (24.37)-(24.39) совпадает с точностью до слагаемого с оптимальным байесовским алгоритмом для гауссовской статистики признаков.
При Ф, = 1 расстояние Махалонобиса переходит в евклидова. Расстоянии в пространстве обобщенных признаков. Обобщенные признаки вводятся на основе диагонализацин (разд. 26.5) входящей в (24.39) обратных -! корреляционных матриц Ф, = Ф: Ф =ЮЛ 1), (24.40) где Л вЂ” диагональная матрица собственных чисел )сь а () — унитарная матрица. Выражение (24.38) переходит в = К Фпср) (~ ~юср) (24.41) где г, — вектор обобщенных признаков ~„ ~=А "'П 'а =4!а (,~из,2н)")П 'о. (24. 2) Обобщенные признаки некоррелнрованы, имеют единичные дисперсии. Расстояние Махалонобиса совпадает для них с евклидовым. Возможно отбрасывание признаков с малыми собственными числами [! .49).
24.12.2. Алгоритм «ближгйизих соседей» Является развитием метода минимума расстояний. Для каждой точки а, определяемой оценочным вектором признаков, находится 2, ближайших экспериментальных точек а нз собранных в памяти ЭВМ для объектов различных классов й Наблюдаемый объект относят обычно к тому классу 8 к которому относится большинство из ь' его «ближайших соседей».
Мерой близости «соседей» служат расстояния разд. 24.12.! . Алгоритм «ближайших соседей» близок к байесовскому, связанному с оцениванием условных плотностей вероятности р,(а) . Чтобы оценить такую плотность в окрестности точки а, вводят малые многомерные объемы Л1'а вокруг нее. Оценка р,(а) = л,/ЬР«, где и,— число «ближайших соседей» класса 0 попадающих в объем. Доказано [1.54), что вероятности ошибок распознавания при Е -+ сс совпадают с байесовскими, а при 1.
= 1 не более чем в два раза превышают нх. Алгоритмы «ближайших соседей» не требуют оценивания и подбора параметров вероятностных распределений — они келароыетрические (не требуется даже какое-либо усреднения экспериментальных отсчетов). При 1. = 1 алгоритм «бяижайшях соседей> называют алгоритмом «блиясайшего соседа». Используя евклидова расстояние, близость определяют по степени корреляции, согласно (24.34а), но не конструируя эталонные признаки по опытным данным. 24.12.3.
Алгоритмы голосования Относятся к многоэтапным алгоритмам принятия решений. На пер«от этапе автоматически принимаются предварительные 1= 1,2,...,ЛХ решения сс (единица нлн Слой выходных эле,ментов Слой элементов „внутреннего представления" ге г = аг8 шах ~~ б,л 1 х=! Л (24.44) Слой входных элементов Рис. 24.29 т 1пн.1 Л' 1М+1 Рис. 24.30 и= ~я а,у,, х=Яз«е !3).
421 нуль) по отдельным группам признаков или источников информации и (ч= 1,2, ..., М), На втором этапе решения объединяются по взвешенному (с учетом достоверности) или же проста.чу больиьинству голосов. Алгоритм взвешенного голосования. Имеет вид с =агйшах!лР,+~ ~1пРД,) . (24.43) ч=! Структура алгоритма (24.43) аналогична структуре байесовского алгоритма (24.30), но упрощена по сравнению с ним. Реализации измеряемых параметров а„и принятого сигнала у„с непрерывным распределением, заменены реализациями предварительных решений с дискретным распределением. Упрощение достигается также переходом к простым стоимостям решений.
Алгоритм простого голосования. Отличается от предыдущего заменой М различающихся матриц 11)пР,(к)11 на одинаковые и более простые единичные матрицы ! = 11 Ьж 1!; Алгоритм (24.44) не предусматривает оценивания параметров какого-либо распределения и является полностью непараметрическим. Однако произвол построения алгоритма (как и предыдущего) ухудшает качество распознавания.
Алгоритмы «вычисления оценок» (АВО). Это разновидности алгоритмов многократного голосования, предложенные Ю.И. Журавлевым дпя снижения вычислительных затрат. Итоговое голосование — взвешенное, с возможной пороговой процедурой [2.75, 6.68, 6.75). Последующий «алгебраический» подход 16.79) того же автора рассчитан на комбинацию алгоритмов по правилам некоторой алгебры для их улучшения.
24.13. Нейросетевые алгоритмы многоальтернативной классификации Структура этих алгоритмов задается из аналогий с биологическими нейросетячи, успехи относят к достижениям в области искусственного интеллекта (см. разд. 5.7). Фактор универсаэизации алгоритмов повышает вычислительные затраты на обучение (адаптацию). Применимость нейросетей связана поэтому с достигнутым уровнем вычислительной техники. Статистические эаконол~ерности входньи. сигналов заранее не анализируют, а авто.чатически учитывают в процессе обучения.
Пространство сигналов разделяется в результате нелинейными границами на области, соответствующие различным классам (2.93, 6.53, 6.60, 6.70, 6.77, 6.83, 6.84, 6.87, 6.91, 6.92, 6.93). 24.13.1. Принципы построения искусственных нейросетей Элементы рассматриваемых нейросетей — искусственные нейроны описывают сочетанием линейных и нелинейных математических операций вида Поступающие значения у, (л = 1, 2, ..., т) подаются в различных линейных комбинациях ч на 1У-т элементов «скрытого» слоя (слоя «внутреннего представления»), в котором эти комбинации претерпевают «мягкое ограничение» некоторыми монотонно нарастающими дифференцируемыми функциямиЯч ), обычно вида Яч)=(1+ е ) илиЯч)=(е — е )!(е + е ). В пределах и от — ьь до е с зти функции изменяются от 0 до 1 и от -1 до +1 соответственно.
Параметры !3 сдвигают функции Яз«) по оси и, изменяя порог ограничения. Первая трехслойная нейросеть с жестким ограничением была предложена Розенблатом в 50-х годах, назвавшим ее персвптроном (регсер1юп — восприятие, понимание, сознание). Структура сети (рис. 23.29) не изменяется, если используется мягкое ограничение.
Возможны варианты нейросетей с четырьмя и более слоями. Анализ нейросетей с произвольным числом слоев можно свести к анализу однослойной нейросети с последовательно следующими т входными, М вЂ” т «скрытыми» и п выходными элементами (рис. 24.30). Входная информация в такой структуре перемеьцается строго вперед, обеспечивая классификационные решения на и выходных элементах. Коэффициенты а, различных линейных комбинаций ч, а также параметры ограничения !3 подбираются в процессе обучения в соответствии с принятым критерием качества (разд. 24.13.2). Обучение обеспечивает корректировку весовых коэффициентов а, на основе возникающих несоответствий выходных отсчетов х„,„, (! = %+1, ..., Ф+п) с отсчетами ггл обучающих реализации (р = 1, ..., Р). Информация о необходимых корректировках распространяется в направлении обратном распространению входной информации.
Нейросети (рис.24.30) называют поэтому нейросетями с абратнььм распространением Наряду с подобными вариантами нейросетей возможны варианты с использованием корреляционных обратных связей (см. разд. 25.4). и+» дгр дг! с„р, ог, Р -1 дг! дн! дг> д~3 где г, =у, (1<!<т), 0 я> (зр) = г(1 — г) < 0,5. (! <!<т), А=(1'1' ) «'Х (24.44 б) — б г, дг дг дг др ! Р! где 422 24.т3.2.
Функционирование и обучение искусственных нейросетей Алгоритмы функционирования искусственных нейросетей. Для однослойной нейросети (рис. 24.30) ~-! г, = г(зр, +)3 ), и, = ',г а, г (т+ 1 <1<А!+ и). 1=1 В случае трехслойной нейросети (рис. 24.29) часть введенных значений ак обращается в нуль. Для входных, выходных и «скрытых» отсчетов г, находим Л' г, = ),(зр,) !р, = ~ а, г (Л1+ 1 ь1ь!1!+п), 1=т»! г! = 11(ЗР!) !«1 = ~~'„а>РУ1, (IП+ 1 <1йЛ!). и=! Критерий качества обучения. Минимизацию невязок выходных отсчетов гьык! (!1'+ 1 <! < У+ п) с отсчетами гр1, заданными в пРоцессе пРедъЯвлениЯ сеРий 1«р<Р обучающих входных реализаций проводят обычно по квадратичному критерию (иначе, для квадратичных функций стоимостей невязок): Р Л!»» г(а)= ~~~г (а), г (а)= ~ (г1 — г 1) 12. (24.44а) р=! 1=У+! Аргументом функций г(а), гр(а) является вектор а = = (! а, !! ВЕСОВЫХ КОЭффИцИЕНтОВ а«, а>Р И ПОРОГОВ [3» [3,, Для минимизации применимы численные методы нахождения безусловных экстремумов функций (см, разд.