Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912), страница 43
Текст из файла (страница 43)
Любая из перечисленных процедур в отдельности не в состоянии предусмотреть все ситуации, возникающие при работе с реальным объектом, а потому имеет смысл использовать универсальный алгоритм обработки и кодирования сигналов объекта перед их подачей в нейроэмулятор. 17 КОДИРОВАНИЕ СИГНАЛОВ В ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЯХ При обработке сигналов в режиме реального времени оценки среднего и стандарта целесообразно вычислять с помощью рекуррентных процедур, описанных в подразделе 4.7.6 ~(1+1) = ~~(й)+ (~ф+ 1) — ~(/с)), 1 1+1 1 х~~ +1) ~ х'х)+ 11~1®+ 1) ~1)~+ 1)) ~~ - ЙЬ 1+1 п,<а-О=,/,'й+6 (17.9) (17.10) 2(/х) = Ьо + Ь2(/ц), где параметры Ь, и Ь задают требуемые интервалы. Вводя интервал возможного изменения сигнала Г1й) (17.11) ~паах Епцп и интервал варьирования масштабированной переменной 3й) (17.12) ~ахах ~пап (обычно полагается 0.1 < 2(й) < 0.9 для сигмоидальной функции и — 0.9 < Яй) < 0.9 для гиперболического тангенса 17)), а также масштабирующий параметр Аа А, =='= А,- ~ахах аппп (17.13) ааааа ~пап можно записать преобразование (17.10) в виде и реализуемых с помощью нейронов, приведенных на рис.
4.31 и 4.32. Эти нейроны позволяют осуществлять центрирование и нормирование переменных в темпе с процессом адаптивной идентификации, однако для нейроэмуляции этого явно недостаточно. Дело в том, что если сигналы объекта являются стохастическими последовательностями, подчиняющиеся, например, нормальному закону распределения, то и область изменения центрированного и нормированного сигнала Г(й) будет лежать, как минимум, в интервале 1-3, 3~, что шире области изменения стандартных функций активации. В связи с этим необходимо провести масштабирование сигнала ~~1®) с помощью линейного преобразования (17,14) ~(~) (аппп ~ ~2~пип)+ ~-~ е(~) или с учетом (17.3) ~ 2(Й) — 2(/с) (й) ь.~ ~ ~~~, ) 2 ' о (й) """ о,(Ф) (17.15) Для реализации выражения (17.15) целесообразно ввести в рассмотрение нейрон-кодер входных сигналов нейроэмулятора х,.
(Й), схема которого приведена на рис. 17.1, а условное обозначение — на рис. 17.2. Рис. 17.1 — Схема нейрона-кодера входного сигнала а, (й) - стандарт х,(/с) - среднее х, (Й) - кодированный сигнал х, (/с) Лх - масштабирующий параметр х; ® — центрированный, нормированный сигнал Рис. 17.2 — Нейрон — кодер входного сигнала 17 КОДИРОВАНИЕ СИГНАЛОВ В ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЯХ Не менее важную проблему, чем кодирование входных сигналов, составляет обратное преобразование — декодирование к реальным значениям переменных объекта управления.
Для решения этой задачи можно воспользоваться соотношениями вида (17.1б) или е(й) = ' Я(й)+(т(Ус)+о.(й)(Г,„— 2,„А )), о,(й) „ А, (17.17) которые могут быть реализованы в форме нейрона-декодера выходного сигнала у,. (/с), приведенного на рис. 17.3, 17.4. ! !!!!и у, (Ф) 0,® Рис. 17.3 — Схема нейрона-декодера выходного сигнала /П1!И ! и!!и у,й) Рис.
17.4 — Нейрон — декодер выходного сигнала 295 а,® ~И, Ад,. Я, (7с) и,(й) < Т(й) = 2(/с)А,з ь(~,.„— А '2„,,„)„ е(й) =а (/с)7(й)+Г(к) х,(Сс) х, ()с) , (сс) , (/с) „,(сс) х„(/с ) т, ()с) т (Ус) Рис. 17.5 — Схема нейроэмуляции объекта управления На рисунках ~) (й) обозначает сигнал на выходе нейроэмулятора ссс,,„< у,. (й) < И) „,„„а у,. (Й) - его декодированное значение, являющееся оценкой выходного сигнала реального объекта сс)) ()с). Применение подобных кодирующих и декодирующих нейронов обеспечивает дополнительные возможности нейросетевым системам эмуляции, управления, прогнозирования и т.п., предназначенным для работы в реальном времени.
При этом нейронная сеть дополняется слоями из вспомогательных нейронов так, как это показано на схеме нейроэмуляции объекта управления, приведенной на рис. 17.5. В такой системе входы реального объекта х,(1с),х,(1с),...,х„(1с) через слой кодирующих нейронов С поступают в нейроэмулятор, будучи преобразованными к виду х,(й),х2(й),...,х„()с). Алгоритм обучения на основе выходов нейронной сети у,(1с),у,(й),...,у ()с) и сигналов реального объекта И,(/с), И., (Й),..., И,„(Й), пропущенных через слой кодирующих нейронов, производит настройку сети путем минимизации принятой функции от ошибок обучения е,.
(1с) = Н) (й) — ч) ()с) . Обученный таким образом нейроэмулятор, схема которого приведена на рис, 17,5, будет представлять собой модель реального объекта, при этом выходные сигналы нейросети у) (й) с помощью декодирующих нейронов 1) преобразуются в оценки у, (й) фактических выходов И,. (/с). 18 НЕЙРОСЕТЕВАЯ КОМПРЕССИЯ ДАННЫХ 18 НЕЙРОСЕТЕВАЯ КОМПРЕССИЯ ДАННЫХ х' (1) х 12) х, (1) х, (1) ". х„(1) х,(2) х,(2) " х (2) х, (/с) х, (Ус) " х„(/с) х (Ус) (18.1) )с(Х) = х,(1~с) х,(М) " х„(~с) х 1М) образованная массивом из М л-мерных векторов х(й) =1х,1й)„х,(/с),...,х„(Ус))~, и автокорреляционная (ихп)-матрица Я М Л(М) = — ~ (х(й) — х(М))(х(/с) — х(У))' = — ~ х(й)х'(Ус), (18.2) 1~ с=1 где х(7с) = — ~~1 х(1с), Х (18.3) (18.4) хИ) = х(/с) — хЖ) центрированные относительно среднего по массиву данных векторы измеряемых показателей. Важной проблемой, возникающей при обработке больших массивов наблюдений, является сжатие данных с целью выделения наиболее существенной информации и выявления неких латентных факторов, неявным образом определяющих природу изучаемого явления.
Одним из наиболее эффективных подходов к решению этой проблемы является аппарат факторного анализа ~240, 241~, нашедший широкое применение в задачах обработки эмпирических данных в различных областях: психологии, социологии, технике, экономике, медицине, криминалистике и т.д.
Основная идея факторного анализа, допускающая наличие априорно неизвестных скрытых факторов, ведет к следующей неформальной задаче: наблюдая большое количество измеряемых параметров (показателей), выявить небольшое число параметров-факторов, определяющих в основном поведение измеряемых параметров, или иначе: зная значения большого количества функций измеряемых параметров, установить соответствующие значения общих для всех функций аргументов-факторов и восстановить вид этих функций.
Исходной информацией для факторного анализа является (Ж хп)-матрица наблюдений Одним их наиболее распространенных и эффективных методов нахождения факторов является метод главных компонент или компонентный анализ, нашедший широкое применение в задачах сжатия данных, распознавания образов, кодирования, обработки изображений, спектрального анализа и т.п. и известный также в теории распознавания образов как преобразование Карунена-Лоэва 195, 9б).
Задача компонентного анализа состоит в проецировании векторов данных из исходного п-мерного пространства в т-мерное (т < и) пространство главных компонент и сводится к поиску системы и,, и „..., и,„ортонормальных собственных векторов матрицы Е(М) таких, что и, = (и „, и,„,..., и „,)~ соответствует наибольшему собственному значению Я„матрицы Л(Ф), и,- второму по величине собственному значению Я,, и т.д. Иначе говоря, проблема сводится к отысканию решений матричного уравнения (Л(М) — Л,.1„)и, = О (18.5) таких, что 1, > Л, » ".
1„, > е > О и )(и,. (( = 1. Размерность же пространства главных компонент и определяется, как правило, из эмпирических соображений и требуемой степени сжатия массива данных. Таким образом, в алгебраических терминах решение факторной задачи тесно связано с проблемой собственных значений и нахождением ранга корреляционной матрицы; в геометрическом смысле — это задача перехода в пространство более низкой размерности с минимальной потерей информации; в статистическом смысле — это задача нахождения множества ортонормальных векторов в пространстве входов, «принимающих» на себя максимально возможную вариацию данных, и наконец, в алгоритмическом смысле — это задача последовательного определения набора собственных векторов и „и „...
„и,„путем оптимизации множества локальных критериев, формирующих глобальную целевую функцию ~18.6) при ограничениях и~и, =О )' ~1, и~и,. =1. Первая главная компонента и, может быть найдена максимизацией критерия (4.422) 18 НЕЙРОСЕТЕВАЯ КОМПРЕССИЯ ДАННЫХ < и 1(Ус + 1) = и1 (Ус) + уу(Ус) У1 (Ус)(х(Ус) — и1 (к) у1 (Ус)), у,(Ус) = '7(Ус)х(ус), и',(О) Ф 0 (18.8) может быть выделена первая главная компонента. Далее, следуя процедуре стандартного анализа главных компонент, из каждого вектора х(Ус), й = 1,2,..., М вычитается его проекция на первую главную компоненту и вычисляется первая главная компонента разностей, являющаяся второй главной компонентой исходных данных и ортонормальная первой.
Третья главная компонента вычисляется путем проекции каждого исходного вектора х(й) на первые две компоненты, вычитания этой проекции из х(ус) и нахождения первой главной компоненты разностей, являющейся третьей главной компонентой исходного массива данных. Остальные главные компоненты вычисляются рекурсивно согласно описанной стратегии. Именно эта идея рекурсивного вычисления главных компонент положена в основу алгоритма, предложенного Т.
Сэнгером [3321 и в модифицированной форме имеющего вид ~249~ иу(Ус+1) = и',.(Ус)+тУ(Ус)еу(Ус)Уу(Ус), еу(ус) = е,,(ус) — и у(ус)уу(ус), уу(Ус) = и'~(Ус)х(Ус), и',(О) ~ О, ео(Ус) = х(Ус), у = 0,1,2,...,щ, ту(ус) = г '(ус), г(ус) = иг(ус — 1) + /х(ус) /, 0 < а < 1. (18.9) Несложно видеть, что первая главная компонента вычисляется с помощью алгоритма Оя, далее проекции входных векторов на и,(ус) вычитаются из входов и разности обрабатываются следующим нейроном и т.д.














