Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912), страница 48
Текст из файла (страница 48)
324 Рис. 22.3 — Структура последовательно-параллельной идентификации Модель в пространстве состояний имеет вид с х(/с+1) = Ч'(х(7с),и(й)), И(й) = Ф(х(Ус)), (22.2) априори неизвестные. На рис. 22.4 приведена схема системы идентификации объекта управления, заданного в пространстве состояний, особенностью которой является наличие двух нейронных сетей, одна из которых аппроксимирует неизвестное отображение 'Р( ° ), а вторая — Ф( ° ). При этом предполагается, что все состояния х(й) измеримы, а сам объект устойчив (2461. В качестве ИНС~ и ИНС~ в этой схеме могут быть использованы те же нейросети, что применяются в структурах на рис.
22.2, 22.3, однако более предпочтительным для идентификации в пространстве состояний является использование [321 рекуррентных сетей Элмена и Джордана (подразделы 9.3, 9.4), в которых в контекстные слои «встроена» обратная связь с задержкой на один такт. 32б где х(Й),и(®), сУ(Й), — (и х1), (г х1), (т х1) - векторы состояний, управлений и выходов соответственно; Ч'(е)„Ф(е) — статические нелинейные отображения, 22 НЕЙРОСЕТЕВАЯ ИДЕНТИФИКАЦИЯ ДИНАМИЧЕСКИХ СИСТЕМ вЂ” х(й+ 1) — у(й+ 1) Рис.
22.4 — Система идентификации в пространстве состояний Главным недостатком рассмотренных схем, в основе которых лежат ставшие уже традиционными архитектуры и алгоритмы обучения, является низкая скорость настройки, определяемая большим числом синаптических весов, которое растет геометрически в зависимости от количества входных сигналов л,т+ п„л. В связи с этим Э. Бэком и А. Цоем 1392 — 3951 в развитие идей Э. Вана (раздел 19) были предложены локально-рекуррентные нейронные сети, архитектура которых приведена на рис.
22.5 и практически совпадает с архитектурой прогнозирующей многослойной ИНС (см. рис. 19.1). х® = п=п, т=п,„ Рис. 22.5 — Многослойная локально-рекуррентная нейронная сеть Основное отличие этой сети состоит в конструкции нейронов, образующих многослойную архитектуру, чьи синапсы являются цифровыми адаптивными рекуррентными фильтрами с бесконечной импульсной характеристикой (БИХ— фильтры, ПК -фильтры) 154, 396~. Для обучения этих сетей была предложена группа градиентных алгоритмов 1394, 3951, в основе которых лежит концепция обратного распространения ошибок.
Необходимо отметить широкие функциональные возможности локально рекуррентных сетей. Так кроме исходной ХАКМАХ-модели, данные сети «перекрывают» популярные в теории нелинейной идентификации модели Винера 327 Гаммерштейна у(Й) = Н(2 )я(х(/с)) (22.4) и Урысона (22.5) где,[,(е) — некоторая статическая нелинейная функция; Н(~ ') = В(~ ')А '(~ ')— линейная компонента модели, образованная полиномами от оператора сдвига назад е '. Базовым элементом локально-рекуррентной нейронной сети является динамический БИХ-нейрон (22.6), синапсы которого являются по сути адаптивными БИХ-фильтрами (рис.
22.7). Отображение, реализуемое БИХ-синапсами и динамическим нейроном 1- го слоя сети, в целом может быть записано в виде ив[ "1 (22.6) [и[](~о) ~ [й-ц(~о) [=о (22.7) х[ [® х['[([) Рис. 22.6 — Динамический БИХ-нейрон 328 22 НЕЙРОСЕТЕВАЯ ИДЕНТИФИКАЦИЯ ДИНАМИЧЕСКИХ СИСТЕМ .к~ !(7с) Рис. 22.7 — Синапс-БИХ-фильтр ""ц(~) = "'( !"цж)) (22.8) где р=! (22.9) !ьц(® 1) !г+ц(~, ш))т Можно заметить, что динамический БИХ-нейрон является объединением линейного адаптивного рекуррентного фильтра со стандартным нелинейным статическим нейроном, при этом для линейной части справедливы соотношения, реализуемые БИХ-фильтрами и(Й) = ~ м р(А)х(7с — р)+ ~ 7р(А)и(Ус — р), (22.10) 329 р=О (22.11) 1 — ~1„ р=1 где и(/с), х(й) - выходной и входной сигналы фильтра соответственно; ь„(/с)- настраиваемые коэффициенты скользящего среднего (МА); ~ (1) настраиваемые коэффициенты автор егрессии (АК); ы - установившееся значение на выходе фильтра после окончания процесса настройки.
Отметим также, что адаптивный БИХ-фильтр представляет собой настраиваемую модель авторегрессии-скользящего среднего вида Ъ'(/с,~ ')и(lс) = Ис(1с, - ')х(/с). (22.12) Таким образом, каждый синапс содержит п~," = п~," + п"'+1 настраиваемых параметров, каждый нейрон - и"',, = и, (п",' + и„",' + 1) +1, каждый слой с и'„'~~, =л„,(л,(л~,"+п~" +1)+1), а Е-слойная сеть имеет ~) и„, нейронов с с=1 Е~ =~~) Е(сс) = — ~ '1е(й)() = — ~ ~~ с,.ф), г,, 2..., (22.13) где е(х) = (е, (1с), е2 (1с),..., е„(сс)); е,. (1с) = с1,. Я) — х~.'"л (1с) = И,. (1с) — у,. (1с); И,.
(й) внешний обучаю1ций сигнал, в качестве которого в задаче идентификации используют текущее значение выхода идентифицируемой системы. Для синтеза алгоритма обучения необходимо ввести в рассмотрение ошибку обратного распространения (ь.ц(~,) дх" л(ус) ~1 (22.14) и локальную ошибку 330 и., =1 (и„,(и,(в,',л +п~" + 1)+1)) настраиваемыми синаптическими весами. 1=1 Наиболее эффективным алгоритмом настройки локально-рекуррентных нейронных сетей на сегодня является процедура рекурсивного обратного распространения ошибок (Кеспгяче еггог Ьас1сргорада11оп — КВР (397)), обеспечивающая минимизацию критерия обучения 22 НЕЙРОСЕТЕВАЯ ИДЕНТИФИКАЦИЯ ДИНАМИЧЕСКИХ СИСТЕМ ~[[.~-1] (1 ) .l д [1+1] (У ) (22.15) связанные между собой соотношением о['"]Ж) = ""]Ж)]~[" ( ""' Ж)).
.[ "] (22.16) где [, ди[~м](~,) д [']Ж)- !']Ж 1) []]Ж)= „[']Ж) дЕ д' ( )- ди,'."" (Ус) ди,",.„' ди[,' ~(Й) = у[" ®Ф'"]® 1 д]]'" (22,18) — изменение весов на одном такте настройки. Для коэффициентов авторегрессии используем аналогичные соотношения (22.19) ди [."'] (]1) Д[ ['[ (к) = и "](кЯ'~](1[) ,,р ] дг[.'.] [[р (22.20) Вводя общее обозначение для синаптических весов [[~~], можно записать алгоритм настройки отдельного параметра (22.21) и синапса в целом з[,"(И+ 1) = ~,",] ®)+]1 "] И)И,""" Ж)~, и',"л Ж) = = К"](®)+г)[" (аде[ив](~)]1 '" ( ["л(~))][]', [""ж), (22.22) 331 Применяя цепное правило дифференцирования, можно записать вариацию параметров скользящего среднего за эпоху обучения в виде для реализации которого необходимо вычислить производные в (22.18) и (22.20), локальную ошибку д,ь л(й), а также задать параметр шага т1"'(й) .
Используя известное соотношение из теории адаптивной фильтрации 154, 68, 3731 для фильтра (22. 10) диж) " ди(ж- ) дир,, д»»р ъ'(й,~ ) (22.23) '"' ди(У» — ») 1 р) + ~~1 =, и(/» — р), д», ъ'(й,. ) ди(/с) д„ (22.24) а также с учетом того, что д",''лж) ди,", лж) (22.25) И,И дх,,„дю,,„ получаем (22,26) д~...,, ды,,„ (22.27) др» ». л' дЕ» ди ~ "л (1») е,'.""(Ж) = — = — Ъ вЂ” и,л(„) — /,Ед и.л(у,) д „,л(у,) (22.28) для всех 1< Ь. С учетом ошибки выходного слоя можно окончательно записать е,.(Й), если1=Е„ ди (Й+ г) (22.29) где частные производные во втором соотношении имеют вид [3741 332 Для вычисления локальной ошибки д,"."'(»») можно воспользоваться соотношением (22.16), в котором ошибка обратного распространения е',."л(й) в общем случае имеет вид 22 НЕЙРОСЕТЕВАЯ ИДЕНТИФИКАЦИЯ ДИНАМИЧЕСКИХ СИСТЕМ дх~'+л Ж) 0 е ггротггенолг случае Р=! " дл,"+л Ж) Вводя обозначение Ч !'! (и!'""Ж))С7, игг"'гж) = у,"гж), (22.31) перепишем (22,22) в виде Я!'гЖ+1) =5!!(~)+ кгпв) "гФ)1"гЖ) (22.32) после чего, используя технику преобразования алгоритма ЛевенбергаМаркварта (382, 3901 и обеспечивая процедуре обучения сглаживающие свойства, окончательно приходим к достаточно простому выражению типа (19.27) Я!!!И+1) = ггггй)+ ',, 1<1< Е„ А!!!(г„) Рвай+1) =аР,"М+)!.~гл(1-))(, О<а <1.
(22.33) 333 Таким образом процесс обучения многослойной локально-рекуррентной сети может быть реализован в виде следующей последовательности шагов: )~ вычисление ошибки обратного распространения е',.'"'!(й) в соответствии с (22.29) для всех й =1,2,..., У; г вычисление локальной ошибки о," ."(к) в соответствии с (22.16) для всех й = 1,2,...,М; ) вычисление производных сигнала внутренней активации и,!."'!(й) по настраиваемым синаптическим весам в соответствии с (22.2б), (22.27); )г' вычисление оптимального значения параметра шага г)'~г(/с) = (р',кг(1г)) ' с помощью второго соотношения (2233); ) уточнение вектора параметров каждого синапса 5,'.,".(й) с помощью первого соотношения (22,33); ~' вычисление локальных приращений весов в соответствии с (22.18), (22.20); уточнение синаптических весов за эпоху в соответствии с (22.17), (22.19).
Несмотря на некоторую численную громоздкость процесса обучения локально-рекуррентных сетей, сокращение числа настраиваемых весов позволяет повысить скорость процесса идентификации, что особенно важно при работе с нестационарными динамическими объектами управления. 23 УПРАВЛЕНИЕ НА ОСНОВЕ НЕЙРОННЫХ СЕТЕЙ Управление динамическими объектами и системами в условиях структурной и параметрической неопределенности является еще одним важным направлением в приложениях нейронных сетей, которому в настоящее время уделяется достаточно много внимания [22, 23, 25, 28, 29, 31, 34, 38, 90, 246, 398- 4031. Нейросетевые системы управления, или нейрорегуляторы имеют ряд существенных преимуществ перед обычными системами автоматического управления, среди которых особенно следует выделить возможности обработки больших объемов сенсорной информации [321, высокое быстродействие, достигаемое благодаря распараллеливанию вычислений [231, возможность работы с существенно нелинейными объектами, о структуре и параметрах которых практически ничего неизвестно [2461.
Как показано в [404-4061, нейрорегуляторы являются развитием адаптивных систем управления [65, 98-102~ и подобно им условно могут быть разбиты на два класса: непрямые и прямые системы 1подразделы 4,2.4). На рис.23.1, 23.2 приведены основные схемы адаптивного управления, а на рис.23.3, 23.4 — структура непрямого и прямого нейрорегуляторов. Рис.
23.1 — Адаптивная непрямая система управления На вход любой из систем управления поступает внешний задающий сигнал д(1), который подается параллельно на регулятор и эталонную модель, определяющую желаемое поведение объекта управления. Заметим, что наличие эталонной модели не является обязательным, при этом цель управления определяется требованием устойчивого и точного слежения выходом объекта у(/с) за внешним сигналом (уставкой) И(/с) . 334 В адаптивной непрямой системе управления параллельно объекту подключена настраиваемая модель, параметры которой непрерывно уточняются с помощью того или иного алгоритма адаптивного оценивания, минимизирующего в реальном времени целевую функцию от ошибки идентификации е, (й) = у(й) — у(1), где у(й) — выходой сигнал реального объекта, у(й) - выход настраиваемой модели, Рис.















