Хайкин С. - Нейронные сети (778923), страница 132
Текст из файла (страница 132)
Интересующий объект может скручивать поляризацию (ро[аг[га[[оп-[то[а[[ай), т.е. является рег]злектораи, созданным для поворота поляризации на 90'. При нормальной работе радарной системы определение такой цели становится сложным за счет несовершенства системы, равно как и за счет отражения от нежелательных поляриметрических объектов на поверхности. Мы предполагаем нелинейность отображения, чтобы учесть негауссово распределение, присущее радарным откликам. Задача расширения объекта лежит в классе вариационных задач, включающих в себя минимизацию квадратичного функционала стоимости при наличии ограничений. Конечный результат является обработанным изображением с перекрестной поляризацией, который повышает видимость объекта в гораздо большей мере, чем какая-либо линейная методика типа анализа главных компонентов.
Модель, использованная в рассматриваемой работе, предполагает наличие гауссовой статистики в преобразованных данных, поскольку независимая от модели оценка функции плотности вероятности является вычислительно сложной задачей. Взаимная информация между двумя гауссовыми переменными У и Т'ь определяется по формуле (10.61). Для того чтобы обучить синаптические веса двух моделей, используется вариационный подход.
При этом требуется уменьшить зашумленность радарного сигнала, обычно возникающую в горизонтально и вертикально поляризованных сигналах радара. Чтобы удовпетворить этому требованию, взаимная информация 1(У, )'а) минимизируется при дополнительном условии, налагаемом на синаптические веса: Р = (гг[вт' тт[] — 1) (10.70) " в [)070] рассматривалась отрицательная циформоццоииая магистраль (певабте гпГоггпапоп рапгжау) и оптимизировалась взаимная информапия межлу сипгалами на выходе и входе магистрали, взятая с противоположным знаком Было показано, что при алаптании такая система стреми~ся стагь дискриминатором более часто встречаюшихся в множестве входных сигналов примеров.
Эта модель слабо связана со вторым вариантом приннипа!пГоюах. 664 Глава 10. Модели на основе теории информации где тчг — сводная матрица весов сети; (г[ ) — след матрицы, заключенной в квадратные скобки. Стационарная точка достигается, когда СЪТ():;)ь) + Ч Р = 0, (10.71) где Л вЂ” множитель Лагранжа. Для поиска минимума используется квазиньютоновский метод (см.
главу 4). На рис. 10.7 показана архитектура нейронной сети, использованная в [1067), [1068). Для каждого из двух модулей была выбрана сеть гауссовых радиальных базисных функций, так как эти сети имеют одно преимущество — они реализуют множество фиксированных базисных функций (т.е. неадаптивный скрытый слой). Входные данные были расширены на базисные функции, после чего скомбинированы с использованием слоев линейных весов.
Пунктирными линиями на рис. 10.7 показаны перекрестные связи между двумя модулями. Центры гауссовых функций выбирались из интервалов, равномерно распределенных по всему входному пространству. При этом их ширина определялась эврнстически. На рис. 10. 8, а показан ряд горизонтально и вертикально поляризованных (получаемых радаром) изображений парковой зоны озера Онтарио. Координаты по горизонтальной оси увеличиваются в направлении слева направо, а по вертикальной оси — сверху вниз.
На рис. 10.8, б показано комбинированное изображение, полученное минимизацией взаимной информации между вертикально н горизонтально поляризованными изображениями. Яркое пятно, отчетливо видное на изображении, соответствует смешанному рефлектору, скручивающему поляризацию и расположенному вдоль берега озера. По эффективности подавления искажений описанная здесь информационно-теоретическая модель превосходит все стандартные модели, основанные на анализе главных компонентов [1067), [1068)'з. 10.11. Анализ независимых компонентов Теперь рассмотрим последний сценарий, изображенный на рис.
10.2, г. Для того чтобы подчеркнуть специфику представленной здесь задачи, рассмотрим блочную диаграмму, показанную на рис. 10.9. Работа начинается со случайного входного вектора П(п), определенного следующим образом: (7 )т где т компонентов вектора выбираются из множества независимых источников.
В данной задаче рассматриваются временные последовательности, так что аргумент 'т Системе, описвннвя в (1067], содержит процессор оостопределения (рози(емспоп), который использует априорную информвцию о расположении рефлектора нв границе мелшу водой и сушей ив берегу. Нечеткий лрочессор (бггку ргосеввог) комбинирует первичное обнаружение с выходом детекторе, бвзируюшегося нв внзувльном наблюдении. Это приводит к эффективному удяленню ложных снгнвков, результатом чего становится повышение производительности такой системы. н ( уь Гауесовы ралиальяые базисные функция Рис.
10.7. Блочная диаграмма нейронного процессора, целью которого является подавление фонового шума с помощью пары несвязных радарных входов. Подавление помех производится за счет минимизации взаимной информации между выходами двух моделей п обозначает дискретное время. Вектор Ю применяется к линейной системе, характеристики отображения входа на выход которой задаются несингулярной матрицей А размерности т х тл, называемой магприцей смешению (пшапя ша(пх).
Результатом является вектор наблюдений Х(п) размерности тх1, связанный с вектором а) следующим соотношением (см. рис. 10.10, а): Х = Аь), (10.72) где Х = [Хз,Хз,...,Х ] Вектор источника 11 и матрица смешения А считаются неизвестными. Известен только вектор наблюдений Х. Для данного вектора Х задача сводится к поиску разделяхзм(ем (дешог(пя) матрицы ьзг, такой, что исходный вектор 11 может быть получен из выходного вектора Ъ', определяемого следующим образом (см. рис. 10.10, б): (10.73) Олнотя поляряюва (горпзонзвльпо-го спгпаа рава Пере крестя пслярпзова (горпзопзаяьпо- сигнал рал 10.11.
Анализ независимых компонентов боб Мнппмязапия взаимной информации ~(У Уь1 666 Глава 10. Модели на основе теории информации Рис.10.6,а. Рисунок, представляющий исходное радарная сканирование (азимут относительно диапазона) для горизонтально- горизонтальной (сверху) и горизонтально. вертикальной (снизу) поляризации Очнзитль Рис.16.6,6. Композитный рисунок, вычисленный с помощью минимизации взаимной информации между двумя поляризованными изображениями, показанными на рис. 10.8, а где 1 =(У1,У2,,У1 Обычно в этой задаче предполагается, что средним значением входных сигналов ГГы ГГз,..., (,г является нуль, что, в свою очередь, гарантирует нулевое среднее для элементов вектора наблюдений Х„Хз,..., Х .
То же можно сказать и об элементах выходного вектора разделяющей матрицы Уы Уз,..., У . 10.11. Анализ независимых компонентов 667 1 1 1 1 н ыходной вектор у(л) Рис. 10.9. Блочная диаграмма процессора для задачи слепою разделении источников. Векторы и, к н у являются соответственно значениями случайных векторов (), Х и т' Неитаеетная ереда У2 хт ят х1 Выходной некто)т У Вектор источника и Векшр Вектор наблюдения наблюдения х х а) б) Рнс. 10.10. Детализированное описание матрицы смешения (а) и разделяющей матрицы (б) Таким образом, задачу слепого разделения источников (Ытд зоцгсе зерагабоп ргоЬ1еш) можно сформулировать следующим образом. Для данных Аг независимых реализаций вектора наблюдений Х найти оценку матри- цы, обратной матрице смешении А.
т( = ЖХ = ттАС вЂ” т РРЮ, где ау — несннгулярная диагональная матрица; Р— матрица перемешиванил (реплц- габол шап1х). При разделении источников используется принцип пространственного разнесения (араба! Йчегз((у). Это проявляется в том, что разные сенсоры, являюшиеся реализациями вектора Х, обслуживают разные смеси источников. Можно также использовать спектральное разнесение, если таковое существует. Однако фундаментальным подходом к разделению источников является пространственный — мы рассматриваем структуру в разрезе сенсоров, а не в разрезе времени 1169). Решение задачи слепого разделения источников достижимо, за исключением учета произвольного масштабирования каждого из компонентов сигнала и смешения индексов.
Другими словами, вполне возможно найти такую разделяющую матрицу %, отдельные строки которой являются масштабированными и перемешанными строками матрицы А. Это значит, что решение можно представить в следующем виде: 666 Глава 10. Модели на основе теории информации Описанную выше задачу обычно называют задачей слепого разделения источников (сигналов)'з, где за термином "слепое" скрывается тот факт, что единственной информацией, используемой для восстановления входного сигнала, является реализация вектора наблюдений Х, обозначаемая символом х.
Принцип, на котором основано решение этой задачи, называется анализом независимых компонентов (!пдерепдеп[ сошропеп[ апа)угйз — !СА) [205], который можно рассматривать как расширение анализа главных компонентов (рппс!ра1 сошропеп[а апа!уз)з — РСА). В то время как РСА предполагает независимость вплоть до второго порядка в требовании ортогональности векторов направлений, метод 1СА требует статистической независимости отдельных компонентов выходного вектора Ъ' и не связан с требованием ортогональности.
Обратите внимание, что на практике алгоритмическая реализация анализа независимых компонентов может иметь место для "настолько статистически незави- симых компонентов, насколько это возможно". Потребность в слепом разделении источников возникает в различных областях, в том числе следующих. ° Разделение речи. В этом приложении вектор х состоит из нескольких речевых сигналов, которые линейно смешаны друг с другом.