Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912), страница 45
Текст из файла (страница 45)
х(к) = х ' (/с). (19.14) Поскольку дп'ц(й) — ' — — ~ — е (й)у~ц 1и~"ц(й)), (19.15) з д Ум!ж) 2д е~ц(У,) 'У ~! алгоритм настройки нейронов выходного слоя сразу же можно записать в виде И".."(7с+ 1) = И1.'."(Ус) +ту'" Ж)е Ж)у' ' (и' 'ц (Ус))Х,.' 'И) = = Ж,~." Й) + г) и'11с)е, (1с) У,~" И). 307 Скорость настройки сети существенным образом зависит от значения скалярного параметра г1'"(й) и может быть увеличена путем использования процедур более сложных, чем градиентные, например, алгоритма ЛевенбергаМарквардта (4.214), принимающего в данном случае вид Ч~~~~(Ус +1) = И~~~[(Ус) + е, (Ус)(Усе[(й)У,'~~~ (Ус) + ф) ' 1 ~~[(Ус), (19,17) а после несложных преобразований (подраздел 4.4) — достаточно простую форму (19.18) представляющую собой нелинейное обобщение алгоритма Качмажа-УидроуХоффа. Для скрытых слоев сети локальная ошибка может быть записана в форме С учетом соотношения п[л и['11(,) Ъ" ~[[[,х[[[(, 1 ) [и ~, иф' / (19,20) получаем выражение дх, Ф) 1(0 е протиеноы случае, И (19.21) откуда локальная ошибка окончательно приобретает вид ппп п„ -~Й И су=! ~=1 и и~~~ =в/,"-" (и[л(ус)),'~ ~" д," л(Й+г)и[",„= (19,22) ч=[ .=я и — [[~( и[(п))п д[[п-Ит(~))[;И 308 ди,[."(й) ..., ди,'""Я ди',"(й) п~~~п-[~ ди"."'([) и — л ( и(1~))~ ~ д[[п-[[(~) м дх, (Й) где Д!'](Ус) =(о['1И),о['[(Ус+1),...,о['[И+и[' и)) „., п'„"и-[: д ""' ди, ([) (19.19) 19 ПРОГНОЗИРОВАНИЕ ВРЕМЕННЫХ РЯДОВ С ПОМОЩЬЮ НЕЙРОННЫХ СЕТЕЙ С учетом (19.22) алгоритм обратного распространения ошибок во времени может быть записан в виде Иг [~] [][ + 1) = Ит[~]ж) — 71[ ] (1 )д [ы[ж)Х!~] И) [',19.23) где -е,.(Й)]1~,'." (и',.'"'(/с)), если 7 = Ь, ]1/а '] (и~.'~(/с))~~ ~л'+л~(/с)И'~л®) если 1< 7 < Š— 1.
['19.24) ч=] О~ И"[1]и+1) =И"[]]Ж)-])иж) ЕЛ[["]]тж)ИГИЖ) и/( [1'ИИ))хиж) = д=! = И/иж)+]1ИЖ)е[.+ ]И)9/[~] Си[."иж))х[~]ж) = =И'[[](У)+ []]ж)е[иц(У)У[/]Ж) (19.25) после чего, применяя алгоритм Левенберга-Марквардта и формулу Шермана- Моррисона, окончательно получаем простую адаптивную процедуру [',19.26) С целью придания алгоритму ['19.26) сглаживающих свойств, которые необходимы при обработке «зашумленных» сигналов, процедура обучения может быть модифицирована в форме типа [4.216) ['19.27) Нейронная сеть на динамических нейронах может работать в двух режимах: обучения и собственно прогнозирования, при этом, благодаря внутренней памяти КИХ-нейронов, в режиме обучения на вход ИНС достаточно подавать лишь одно значение прогнозируемой последовательности ['см. рис.
19.5). 309 С целью оптимизации по скорости процесса обучения в скрытых слоях перепишем алгоритм их настройки в форме Рис. 19.5 — Динамическая нейронная сеть в режиме обучения Более глубокая предыстория сигнала формируется в динамических нейронах скрытых слоев. Следовательно, при прогнозировании одномерных временных рядов ИНС имеет только один вход, в то время как использование статических нейронов приводит к тому, что сеть должна иметь, как минимум, и входов.
Режим прогнозирования, иллюстрируемый рис. 19.6, реализуется еще проще, при этом выходной сигнал-прогноз сети по обратной связи через элемент задержки ~ ' подается на ее вход. х(Й) Рис. 19.6 — Динамическая нейронная сеть в режиме прогнозирования Таким образом, прогнозирующая нейронная сеть на динамических нейронах — КИХ-фильтрах, имея стандартную архитектуру многослойной ИНС с прямой передачей информации, имеет меньшее количество настраиваемых синаптических весов, а следовательно, более высокую скорость обучения.
310 20 АНАЛИЗ КВАЗИПЕРИОДИЧЕСКИХ ПОСЛЕДОВАТЕЛЬНОСТЕЙ 20 АНАЛИЗ КВАЗИПЕРИОДИЧЕСКИХ ПОСЛЕДОВАТЕЛЬНОСТЕЙ В задачах технической и медицинской диагностики, экологического мониторинга, обработки сигналов различной природы таких, как электрокардиограммы, сейсмограммы, экономические показатели, финансовые ряды, вибросигналы и т.п., достаточно часто возникает проблема выделения, оценивания и прогнозирования в реальном времени «зашумленного» полигармониче ского сигнала, описание которого может быть задано уравнением х(Ус) =~~ (а, сояо,й+Ь, япо,lс)+~(Ус) = ~ с, яп(о,й+гр,.)+~(й), (20.1) ~'=1 1=1 где т — возможное число синусоидальных компонент в анализируемом сигнале; а, Ь, с, у,.
— неизвестные параметры отдельных компонент; 0<о,. =2ф;.Т, <т — неизвестные (возможно изменяющиеся) частоты, подлежащие оцениванию; Т„ — период квантования непрерывного сигнала; ~(й) — стохастическая компонента с нулевым первым и ограниченным вторым центральным моментами. Использование традиционного Фурье-анализа в ряде случаев наталкивается на существенные затруднения, среди которых следует отметить, во-первых, жесткую связь между объемом обучающей выборки и числом членов разложения т, которое в итоге может неограниченно возрастать, вовторых, кратностью всех частот (гармоник), по которым производится разложение, в-третьих, серьезными проблемами, возникающими при работе в реальном времени.
В случае, если анализируемый сигнал содержит ограниченное, хотя априори и неизвестное число синусоид некратных частот, классическое разложение Фурье не только затруднительно, но и просто неэффективно, в связи с чем и возникает задача анализа квазипериодических последовательностей, для решения которой можно использовать многоэтапную схему оценивания, введенную и исследованную в 1348-35Ц.
В рамках этой схемы в соответствие выражению (20.1) ставится адекватное ему уравнение авторегрессии (20.2) после чего производится )' оценивание параметров модели (20.2); восстановление неизвестных частот о,.; ) нахождение параметров модели (20.1). Перепишем уравнение (20.2) во временной области 311 т — 1 хай) = ~~1 и„,,„(х(/с+ г — т)+х(й — г — т)) — х(1с — 2ггг)+~(1с) = о=о = и„„2х(/с — т)+ и .,(х(1с+1 — т)+ х(1с — 1 — т))+ и,(х(1+ 2 — т)+ + х(гс — 2 — т)) +... + и, (х(1с — 1) + х(/с — 2лг+ 1)) — хггс — 2т) + ~(1с) = — тх® т) х(Е 2т)+Д11с) 120.З) (здесь и, = (и,„„и,„г,..., и,„„,)" — (т х 1) — вектор неизвестных параметров, однозначно связанных с частотами сгг,; хггс,т) = (2х(1с — т)„х(1с — т+ 1)+ + х(lс — т — 1), х(гс — т+ 2)+ х(1с — т — 2),...,х('гс — 1)+ хг'lс — 2т+1))г — вектор предыстории) и введем критерий оценивания Е = ~~ (х(р)+х(р — 2т) — и'х(р,т)), (20.4) р=гон-1 минимизация которого с помощью стандартной процедуры метода наименьших квадратов позволяет получить вектор оценок и„,(й) по конечной выборке наблюдений.
Неизвестные частоты о, связаны с параметрами и „„соотношением и, + ~~ и:„о., г сов гаг = сов тсо г=1 (20.5) г г П3 Е~ = ~ х(р) — ~ (а,.сово,Я)р+Ь,.япо,(1с)р) р=гш~-1 г=г (20.6) путем решения обычной системы нормальных уравнений. Как результат реализации этой схемы могут быть получены отфильтрованная оценка процесса х(й) х„, (р, й) = и,'„(/с)х(р, т) — х(р — 2т), 2т+1 < р < 1с (20.7) и одношаговый прогноз х (1с + 1) = гиь ф) хЯ + 1, т) — х(1с — 2т + 1).
(20.8) 312 и могут быть найдены путем отыскания т корней степенного полинома от аргумента соко. Таким образом, с помощью оценок и,„(й) можно найти оценки частот со,.(й), после чего определить параметры а,.(й), Ь,.(й) минимизацией целевой функции 20 АНАЛИЗ КВАЗИПЕРИОДИЧЕСКИХ ПОСЛЕДОВАТЕЛЬНОСТЕЙ Основными недостатками этой схемы являются, во-первых, невозможность ее реализации в реальном времени, а во-вторых, необходимость априорного задания числа синусоид т, присутствующих в контролируемом сигнале хЯ) . Преодолеть указанное затруднение возможно с помощью нейросетевых технологий (352-3581.
Для этого поставим в соответствие уравнению (20.3) обучаемый нейрон типа адаптивного линейного ассоциатора х (7с) = и~(/с)х(/с,лг) — х(/с — 2т), (20.9) Р„, Я вЂ” 1)(х(/с) + х(7с — 2т) — и7 Я)хф„т)) а+х Я,гл)Р,„Я вЂ” 1)хЯ,т) Р,„(И) = — Р„, (/с — 1) 1 Р,„(й — 1)х(Ус,лз)х (й„>л)Р,„(Ус — 1) а а+х'Я,т)Р Я вЂ” 1)х(й,т) (20.10) либо алгоритм типа (4.53) и„,(Ус+1) = и„,(Ус)+ аг 'Я)(хЯ)+ х(Ус — 2гл) — и'„,(Ус)х(Ус,т))х®„т), г (20, 11) Яс) = агЯ вЂ” 1) + !/хй, и)//, 0 < а < 1, 0 < а < 2. Поскольку в общем случае количество синусоидальных компонент в сигнале х(/с) неизвестно, сформируем слой из лг параллельных нейронов, отличающихся друг от друга тем, что первый нейрон выделяет одну синусоиду, второй — две, третий — три и, наконец, лг-тый — т синусоид, т.е, х, (/с) = и'„(/с)2х(й -1) — хЯ вЂ” 2), х,(Ус) = и,, Я)2х(3с — 2)+ и,„(Ус)(х(й — 1)+ хЯ вЂ” 3)) — х(У~ — 4), хз (Ус) = из, (й)2х(Ус — 3) + изг (Ус)(х(/с — 2) + хЯ вЂ” 4)) + + и;з (й)(х(Ус — 1) + хЯ вЂ” 5)) — х(Ус — 6), х4(Ус) = и'~,Я)2хЯ вЂ” 4)+ зз',зги)(х(1с — 3)+ х(Ус — 5))+ (20.12) + и;, (Ус)(хЯ вЂ” 2) + хЯ вЂ” 6)) + и „(й)(х(Ус — 1) + х(Ус — 7)) — х(Ус — 8), х,„(Й) = и'„и (Ус)2хЯ вЂ” гл) + и „„, (Ус)(х(Ус+1 — лг) + х(Ус — 1 — и)) + + и „„(Ус)(хй+ 2 — т)+ хЯ вЂ” 2 — и))+...














