Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912), страница 32
Текст из файла (страница 32)
Преодолеть указанное затруднение можно, используя достаточно популярный в анализе фрактальных временных рядов показатель Херста Б 1274, 281~, связанный с корреляционной функцией и позволяющий оценить уровень хаотичности либо стохастичности идентифицируемого временного ряда. В общем случае показатель Херста может быть вычислен с помощью выражения 5(Ус) = пйах у(У, Ус) — ппп у(У, Ус), у(У„Й) = у '1х(У) — х(У)у, й=! х(У) = — ~~1 х(р), 1 й х(Ус) = — ~ х(У); (9.83) а (Ус) — среднеквадратическое отношение (9.84) ст(Ус) = х(Ус+1) = х(1)+ (х(Ус+1) — х(й))й 1 Ус+1 (9.85) о (1+1)=о~(й)+ 1(х(Ус+1) — х(1+1)) — о (Ус)~ Ус+1 (9.86) у(У,1+1) = у(У,Ус)+(х(Ус+1) — х(И+1)), (9.87) у „(Ус+1) =пйах(у „(й),у(У,Ус+1))= (9.88) у.,„(У ) -05(1-, Угла.„.
(Ус) — у(У, Ус+ 1))(у.„, Ж) — у(У4+ 1))1 у,.„(Ус+1) = пип1у„,,(Ус),у(У,Ус+1))= (9.89) у„„„И) -0,511+ Уди(у„;„Ж) — у(У,У + 1)У(у„;„(У ) — у(У,~+1)УУ', (9.90) Яй+1) = у,„(Ус+1) — у,„(Ус+1), откуда следует 1оя ЯУс +1) — 1оя о (Ус +1) Н(Ус+ 1)— 1ояа+ 1офй+ 1) (9.91) 212 и — неотрицательный параметр, в общем случае выбираемый из сугубо эмпирических соображений. Как видно, для вычисления показателя Херста нужно иметь выборку наблюдений. Получаемые при этом оценки имеют усредненный характер. Для расчета в реальном времени соотношения (9.83), (9.84) следует записать в рекуррентной форме. Несложно видеть, что 1283) 9 НЕЙРОДИНАМИКА И РЕКУРРЕНТНЫЕ СЕТИ Анализ выражения (9.91) показывает, что результат вычислений существенным образом зависит от неопределенного параметра а и объема имеющейся выборки, что может привести к получению для одной системы качественно противоположных результатов.
Данную проблему легко разрешить с помощью нейросетевых технологий. Для этого следует переписать (9.82) в виде 1од = Н 1оеа+ Н 1од/с, Я(/с) о (сс) (9.92) ввести обучающий сигнал д(/с) = 1од" Я/с) о (й) (9.93) настраиваемую структуру типа адаптивного линейного ассоциатора (9.94) у(~~) = О+Н1оа~ и воспользоваться алгоритмом обучения Уидроу-Хоффа для получения оценок искомых параметров: Ой+1) 1 (ОЖ) 1 АЖ вЂ” ОЮ вЂ” Н(Юоа1с (1 Н(и+1)) ~Н(~))+ 1+(1 81,)-' ~Ьда ~ (9.95) 1оуа(/с+ 1) = О(й+ 1) Нф+1) (9.96) 213 На рис. 9.18 приведена архитектура для расчета показателя Херста Н и параметра системы а. Наблюдая в реальном времени за вариациями показателя Херста, можно сделать выводы о природе исследуемого сигнала. Так колебания Н(Я) относительно уровня 0.5 свидетельствуют о стохастической природе временного ряда, резкие уклонения от этого значения являются верным признаком возникновения хаотических движений в системе.
Более сложной задачей, возникающей в анализе хаотических сигналов, является динамическая реконструкция, состоящая в восстановлении модели, генерирующей исследуемый временной ряд, по выборке х(1), х(2), ..., х(/с), .... При этом подобно классической задаче идентификации [46, 65, 109, 1271 эта проблема может рассматриваться в двух аспектах: параметрическая реконструкция, когда структура модели задана, а требуется восстановить ее параметры, и структурная, когда априори не известны ни структура, ни параметры модели. Рис. 9.18 — Схема для расчета показателя Херста х,(/с+1) = х,'(й)+О, (9.97) где с х„.
(7с) = х,(/с)+ 1х,(/с), О = О, + ~'О,, 1 = / — 1. (9.98) Предполагается, что параметры О, и О, неизвестны. Такая временная последовательность может быть получена с помощью элементарной схемы, приведенной на рис. 9.19, Переписав (9.97) следующим образом ( ) хм+1) 2~в)~ж) О +,' =Их,(~))+О, (9.99) введя вектор ошибок 214 Рассмотрим вначале ситуацию, когда реконструируемый сигнал генерируется простейшей из моделей Мандельброта (9.67) 9 НЕЙРОДИНАМИКА И РЕКУРРЕНТНЫЕ СЕТИ х, (Ус) х, (Ус) Рис. 9.19 — Генератор хаоса е(й) = = х(Ус)У, — х(Ус) = х(Ус)У, — у(х (Ус — 1)) — О е, (Ус) е.,(Ус) (9.100) и критерий обучения (9.101) можно записать рекуррентную процедуру его минимизации О(Ус+1) = О(Ус)+тУ(Ус)(х(й) — 0(Ус)~ (9.102) где х(Ус) = х(Ус)У, — у(х,(й — 1)), У, = (1„1)'. (9,! 03) х(Ус+1) =ф(х,(Ус))+О(Ус+1).
(9.104) Рассмотрим далее более сложную структуру комплексного хаотического процесса 215 Несложно видеть, что (9.103) совпадает с алгоритмом самообучения Кохонена (4.428), при этом восстановленные параметры позволяют получить пару прогнозных значений наблюдаемого ряда в виде х ,(1+1) и:„(х, (Й) — х.,(Й))+О, х(1+1) = х,(/с+1) и „х,(/с)х, (/с) + О, Дг ~~У( (1с))1 2 2 ил~к,(х,(Ус))+О, '1 (ип О, '~ (у,(х„(/с)) 1~ и,у,(х,(Ус))+О, ~ ~ и„О, Д~)~,(х,(Ус)) 1 ~ (9.105) где ''." — символ скоттова произведения.
Переписав (9.105) покомпонентно х,(1+1) = (и„, О,)(яс,(х,(Й)), 1)' = и,Ч',(х„(/с)), х,(Ус+1) = (и„, О )(у,(х„,(Ус)), 1) = и,,Ч',(х,(Ус)), (9.106) хЖ)-и'~Ж)Ч',(х,И-1))Ч,т( 1+у; хс.(й — 1) и.,(1+1) = и,(Ус)+ц ' ' "' Ф~~(х,(й — 1)) 1+9/, х (й — 1) (9.107) и на их основе строить пару одношаговых прогнозов хЖ+ 1) = И1И+1)''"'Р(х И))1,. (9.108) Комплексный прогноз вещественного процесса х(1) может быть некоторым образом «свернут» с целью получения более точных результатов. Для этого можно использовать простейшую аддитивную форму х(1+1) = сх,(/с+1)+(1 — с)х (1+1)„ (9.109) где с — некоторый параметр, определяющий точность прогнозирования.
Введя (1с х1) - векторы сигналов и ошибок Х(~) = (х(1), х(г), ..., х(~))", Х(Й) = (х(1), х(2), ..., х(Й)), Х,.(й) =(х,(1), х,.(2), ..., х(й)), г =1,2, Ъ'(/с) = Х(1с) — Х(1с), Т~,(1с) = Х(Ус) — Х,(Ус), 1 =1, 2, Ъ'(/с) = с1;(сс)+(1 — с)1;(lс) (9.110) 21б можно уточнять неизвестные параметры с помощью стандартного алгоритма Уидроу — Хоффа в форме 9 НЕЙРОДИНАМИКА И РЕКУРРЕНТНЫЕ СЕТИ и решив дифференциальное уравнение Фж)!!' дс (9.1 1 1) можно получить пару соотношений (9.112) Подставляя (9.112) в последнее уравнение (9,110), имеем (9.113) откуда следует Используя (9.114), несложно получить систему неравенств (9.115) 217 свидетельствующую о том, что точность прогноза (9.109) никогда не может быть хуже, чем точность любой из компонент (9.108), Для работы в реальном времени полученные соотношения следует представить в рекуррентной форме, что можно сделать, введя новые переменные Ъ'„ф) = Ъ'„(lс) — Т~, (Ус), е,(1+1) = х(/с+1) — х,(1+1), е (1с +1) = х(й + 1) — х, (/с+1), е„(/с+1) = е,(Ус+1) — е,(/с+1) (9.116) и переписав (9.112) в виде Ф Ц ')И) Ф е2И+1)ее(ус+1) с(/с+1) = "-,1(~+1) "' „(~+1) т)(1с+1) = ф/с)+ е,,(/с+1).
(9.117) С учетом очевидных выражений < 1'„Ж) = Х,(1с) — Х„Ж), ее1(1с+1) = х,(1+1) — х,(1+1) (9.118) окончательно получаем гу(й) е,(1с+1)(х,(/с+1) — х,И+1)) е(1с + !) = т)(Ус + 1) т)Ж+ 1) ц(И+ 1) =ц(И)+ (х,(1+ 1) — х, ()с+1))'. (9.119) На рис. 9.20 приведена схема нейрона, осуществляющего динамическую реконструкцию хаотического процесса согласно соотношениям (9.107), (9.108), (9.119). Подобная схема может быть построена для любой из моделей хаоса (9.58) - (9.67), подразумевая при этом, что внутренняя структура процесса известна.
Если же такой информации нет, возникает задача структурной реконструкции, возможность решения которой определяется так называемой геометрической теоремой вложения задержек ~91, гласящей о том, что поведение нелинейной динамической системы с хЖ+ 1) = ~'(х(й)), УИ) = Г(х(й))+ 4(к). (9.120) (где Г(х(lс)) - скалярная функция; ~(/с) - аддитивный случайный шум) может быть достаточно точно аппроксимировано с помощью некоторого нелинейного преобразования вектора наблюдений У(/с) = (у(й — 1), у(/с — 2), ..., у(й — р))', где р положительное целое число, называемое нормализованной вложенной задержкой и удовлетворяющее условию 218 9 НЕЙРОДИНАМИКА И РЕКУРРЕНТНЫЕ СЕТИ (9.121) р > 2п+1. , 'х,(сс) 1 -,Х), м 2',';— -с. ф 1 ~' — х хф' ° 1 — ст — —- х,11с) х(1с)о- --- ° Алгоритмы обуионин 19.107), (9.119) Рис.
9.20 — Нейрон для динамической реконструкции хаоса гр,. (1с) = Ф,. ~)уф) — с,. ((~, ) 1' = 1, 2, ..., 6, (9.122) а второй слой содержит линейные ассоциаторы, вычисляющие взвешенную сумму иу(1г) = ~с и,,(/с)гр,. (й), у' = О, 1, 2, ..., и. (9.123) 219 В (2801 для решения задачи прогнозирования хаотических временных рядов было предложено использовать радиально-базисные нейронные сети, благодаря их вычислительной простоте и высокой скорости обучения. В 12841 предложена архитектура многослойной радиально-базисной сети, предназначенной для реконструкции и идентификации дискретных сигналов произвольной структуры.
Данная сеть приведена на рис. 9.21 и представляет собой конструкцию, построенную из элементарных нейронов, отличающихся между собой видом функций активации и алгоритмами обучения. Анализируемый сигнал у(1с) подается на входной слой сети, представляющий собой цепочку элементов задержки ~ ', в результате чего в этом слое формируется вектор, образованный задержанными значениями временного ряда 1'(Уг) = (у(Ус — 1), у(й — 2), ...„у(й — р)) .














