Диссертация (1090370), страница 11
Текст из файла (страница 11)
Двухступенчатая схема распознавания ВЦДинамическое распознавание ВЦ позволяют повысить качество клас-сификации ВЦ за счет интеграции данных, полученных в процессе сопровождения ВЦ. В §2.7 предложены два способа организации динамического82распознавания ВЦ, отличающихся порядком обработки информации, отвечающих различным значениям КУ.В первом способе используется агрегирование входных данных, подаваемых на вход классификатора. Во втором способе используется двухступенчатая схема классификации, включающая первичный и вторичный классификаторы, а процедура агрегирования применяется по отношению к выходным данным первичного классификатора.Второй способ является более предпочтительным, так как он не увеличивает размерность решаемой задачи распознавания ВЦ.
Обсудим возможности его реализации на основе аппарата ДР.Рассматриваемая двухступенчатая схема классификации ВЦ представлена на рис. 3.9. Здесь ФП - блок формирования признаков. Применяются двадерева решений - ДР (первичный классификатор) и ДР* (вторичный классификатор). Первое осуществляет предварительную классификацию, а второе итоговую, посредством обработки информации, поступающих из блока агрегирования данных АД.π((ti ), )(ti T)Рис. 3.9. Двухступенчатая схема классификацииНа вход первичного классификатора (ДР) подаются паттерныx(ti ) ( i 1 : d ) , а на его выходе получаем соответствующие метки классовz (ti ) (i 1 : d ) .
Их агрегирование дает кортеж меток z(T ) , который далее обрабатывается вторичным классификатором (ДР*).83Далее принимаем для интервала наблюдения d 3 , так что в результате процедуры агрегирования формируется кортеж меток для трех последовательных моментов времени:z(T ) [ z (t1 ), z (t2 ), z (t3 )] .Структура и параметры первичного классификатора ДР были описанывыше (граф-схема на рис. 3.8).Структуру построенного дерева ДР* поясняет рис. 3.10.Рис. 3.10. Вторичный классификатор (ДР*)Вычислительные эксперименты показали, что при использовании двухступенчатой схемы классификации существенно улучшается качество распознавания ДП.
Так для описанных выше исходных данных статическая (одноступенчатая) схема распознавания дает 13 ошибочных ответов на обучающейвыборке объемом 2000 паттернов и 24 ошибочных ответов на тестирующейвыборке объемом 1000 паттернов. С использованием вторичного классификатора ДР* ошибки распознавания полностью исключаются.84ВыводыВ главе изложена разработанная автором методология распознаванияВЦ на основе аппарата деревьев решений.
В исследованиях применялся алгоритм построения бинарного дерева решений CART.Предложены и исследованы одноступенчатая и двухступенчатая схемыраспознавания: первая ориентирована на статическое, а вторая - на динамическое распознавание ВЦ. Динамическое распознавание позволяют повыситькачество классификации воздушных целей за счет интеграции данных, полученных в процессе их радиолокационного сопровождения. Двухступенчатаясхема распознавания ВЦ включает два дерева решений, одно из которыхосуществляет предварительную классификацию паттернов, а другое даетитоговый результат.В качестве программного инструментария построения и исследованиядеревьев решений использовался ППП Statistic Toolbox системы MATLAB.Изложены результаты компьютерного моделирования разработанныхалгоритмов распознавания ВЦ с использованием спектральных характеристик ДП.
Вычислительные эксперименты показали высокую эффективностьдинамических схем распознавания ВЦ и их существенные преимущества посравнению со статическими.85Глава 4Распознавание воздушных целей на основе технологииискусственных нейронных сетей4.1. Ощие положения теории искусственных нейронных сетейВ области распознавания образов находят широкое применение машинные методы обучения и, в частности, искусственные нейронные сети [14,35, 59]. В настоящей главе анализируются возможности распознавания ВЦ наоснове НС прямого распространения, т.е. сетей без обратных связей.НС осуществляется преобразование входных сигналов в выходные(рис. 4.1). Обозначаем через x и y соответственно векторы входных и выходных переменных сетиx ( x1, x2 ,..., xn ) , y ( y1 , y2 ,..., ym ) .Рис. 4.1.
Взаимодействие НС с внешним миромЗадача классификации заключается в отнесении входного вектора x кодному из заданных классов, которые кодируются бинарными выходнымипеременными y1, y2 ,..., ym B {0,1} .Структура НСКратко обсудим устройство НС. Элементарной строительной частьюНС является нейрон. Искусственный нейрон состоит из элементов трех типов: умножителей (синапсов), сумматора и нелинейного преобразователя.86Функционирование формального нейрона описать уравнениями вида:ru w0 w j ~xj ,(4.1)j 1~y f (u ) .Здесь ~x1 , ~x2 ,..., ~xr - входные сигналы нейрона, переменная u отражает активность нейрона, ~y - его выход; w0 - порог, а w j - весовые коэффициенты.Уравнение (4.1) можно переписать в видеru wj~x j w, ~x ,j 0где~x0 1 .Здесь ~x0 , ~x1 , ~x2 ,..., ~xr ) - расширенный вектор входных переменных, аx (~w ( w0 , w1 , w2 ,..., wr ) - вектор синаптических весов.
Скобки , означают ска-лярное произведение векторов.Структуру НС можно представить в виде ориентированного взвешенного графа. Для этого вводятся нейроны входного слоя, описывающие каналы поступления входных сигналов. Узлам графа соответствуют нейроны, адугам - синаптические связи между нейронами. Вес дуги wij определяет характер и силу связи между нейронами с номерами i и j .Введем матрицу синаптических весовW || wij ||.Она имеет смысл матрицы смежности для структурного графа НС.Т.е. это квадратная матрица, порядок которой равен числу вершин. Отсутствующим связям отвечает нулевой элемент матрицы.НС выполняет некоторое функциональное преобразованиеy F ( W, x ) ,87конкретный вид которого определяется ее архитектурой и настройкой, т.е.выбором матрицы синаптических весов W .
Настройка НС осуществляется впроцессе обучения по имеющейся обучающей выборке.Обучение нейронных сетейК началу этапа обучения сети ее архитектура считается сформированной. Полагаем, что обучающая выборка состоит из P примеров - пар «вход –выход»:ОВ {(x ( k ) , d ( k ) ), k 1, P} .(4.2)Выходной вектор d (k ) представляет желаемую (от англ. destination - назначение) реакцию на входной вектор x (k ) .Истинную реакцию сети на входной вектор x (k ) обозначим через y (k ) :y ( k ) F ( W, x ( k ) ) .Ошибка обучения для построенной НС вычисляется путем сравнениявыходных и желаемых (целевых) значений. В вычислительных экспериментах использовалась средняя квадратичная функция ошибок (MSE - MeanSquared Error):1 P (k ) (k ) 2 1 P m (k )E || y d || ( y j d (jk ) ) 2 .P k 1P k 1 j 1Здесь подразумевается усреднение по выборке.Задача обучения НС заключается в минимизации функции ошибки:E ( W ) min .Используемое для настройки НС множество примеров разбивается надва подмножества: обучающую выборку и тестовое множество.
Первое используется для настройки НС, а второе - для ее тестирования.884.2. Нейросетевые схемы распознавания ВЦПолагаем, что система распознавания ВЦ строится по секторномупринципу, изложенному в §2.5. В соответствии с этим рабочий диапазон КУразбивается на узкие сектора, каждому из которых отвечает отдельный НСклассификатор, совокупность которых образует банк НС.Функциональная структура односекторного распознавателя ВЦ с использованием нейросетевого классификатора представлена на рис. 4.2.
ЗдесьФП - блок формирования информативных признаков ВЦ.КУПриемникРЛСДальностныйпортретxπФПНСКлассРис. 4.2. Схема распознавания ВЦ на основе НСДалее n - число информативных признаков, используемых для распознавания ВЦ, а m - число различных классов ВЦ.Каждому типу ВЦ (эталону) сопоставляется бинарный векторd ( d1 , d 2 ,..., d m ) B m ,согласно кодировке ( m 10 ), представленной в табл. 4.1.В диссертации исследуются возможности применения двух типов НСклассификаторов для распознавания ВЦ:многослойных персептронов;радиально-базисных сетей.Далее представлены результаты исследования статических схем распо-знавания ВЦ. Заметим, что в общем случае для обеспечения необходимогокачества радиолокационного распознавания ВЦ потребуются схемы динамического распознавания.
В этом случае логично применять схемные решения,89предложенные в §2.6 главы 2, в которых классификаторы реализуются посредством нейросетевых технологий.Таблица 4.1Кодировка классов ВЦМеткаклассаd1d2d3d4d5d6d7d8d9d10AH-641000000000ALCM0100000000АН-260010000000B-1B0001000000B-520000100000F-150000010000GLCM0000001000МИГ-210000000100Tornado0000000010ТУ-160000000001Организация вычислительных экспериментовВычислительные эксперименты проводились в среде математическогопакета MATLAB с использованием ППП Neural Network Toolbox (NNT).Алгоритмическую схему обучения НС поясняет рис. 4.3.ПрограммаBSSДальностныепортретыВЦxπФПОбучающаявыборкаОбучениеНСРис. 4.3.
Схема обучения НСУсловия проведения вычислительных экспериментов такие же, как и вслучае алгоритмов распознавания на основе аппарата ДР (см. §3.4, глава 3):90 диапазон изменения КУ 1 11 ; шаг изменения КУ в обучающей выборке 0,05 ; тестирующая выборка - диапазон КУ 4,525 7 , 0,025 .Таким образом, для построения обучающей выборки используется 2000ДП, а для построения тестирующей выборки - 1000 ДП.Входная информация НС - кортеж спектральных признаков ( K 9 ),вычисляемых по формулам (2.9):x ( a0 , a1 ,..., a K , b1 , b2 ,..., bK ) .При оценке эффективности применяемых алгоритмов учитываются характеристики используемого компьютера:процессор: core i5 1.7 Ггц;оперативная память: 8 Гб;операционная система: 64-разрядная Windows 10.4.3.