Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912), страница 49
Текст из файла (страница 49)
23.4 - Нейросетевая прямая система управления Получаемые параметры настраиваемой модели используются регулятором в качестве оценок параметров объекта управления, при этом вырабатываемые управляющие воздействия и(й) определяются путем аналитической минимизации принятого критерия управления, являющегося функцией от ошибки управления е,(й) = у (й) — у(й), где у ~й) — выходной сигнал эталонной модели. Чем точнее настраиваемая модель отслеживает поведение реального объекта, тем меньше ошибка идентификации е,(й) и тем точнее выход объекта следит за желаемой траекторией у (1).
Качество работы адаптивной непрямой системы полностью определяется эффективностью процесса идентификации, поскольку в конечном итоге, как можно понять, анализируя элементарное соотношение е (Й) = у (/с)-у(7с)-е,(Ус), (23.1) процесс управления сводится к отслеживанию адаптивной моделью поведения эталонной модели. 33б 23 УПРАВЛЕНИЕ НА ОСНОВЕ НЕЙРОННЫХ СЕТЕЙ Адаптивная прямая система управления имеет более простую структуру (рис.
23.2) и в своей работе использует только одну ошибку, как правило е(1с) = у (й) — у(1с). В процессе работы такой системы настраиваются параметры регулятора путем численной оптимизации принятого критерия управления. И хотя на первый взгляд прямые системы представляются более привлекательными с позиций простоты их реализации, все же непрямые системы получили более широкое распространение, благодаря высоким быстродействию и помехоустойчивости.
Непрямой нейрорегулятор (рис. 23.3) весьма близок по структуре к непрямой системе на рис. 23.1 с тем лишь отличием, что вместо линейных настраиваемой модели и регулятора, содержит две нейросети ИНС~ и ИНСс, исполняющих функции нейроэмулятора, вычисляющего в реальном времени параметры чувствительности ду,. /ди,, и собственно нейрорегулятора, обеспечивающего в процессе непрерывного обучения минимизацию принятого критерия управления. Элементы схемы, обозначенные ЛЗ, представляют собой линии элементов задержки ~ ', необходимые для учета как динамики нелинейного объекта, так и собственно процесса управления.
Прямой нейрорегулятор (рис. 23.4), как видно, структурно практически не отличается от системы управления, приведенной на рис. 23.2, и содержит единственную нейросеть, обеспечивающую оптимизацию принятого критерия управления по данным наблюдений за входами и выходами нелинейного объекта.
В качестве примера рассмотрим задачу управления одномерным нелинейным динамическим объектом, описываемым уравнением типа (22.1) у(lс) = 1 (у(К вЂ” 1), у(1с — 2),..., у(й — и„),и(1с — 1),и(1с — 2),...,я(1с — л„,)), (23.2) с помощью непрямой нейросистемы, схема которой приведена на рис. 23.5. В качестве нейроэмулятора и нейрорегулятора в данной схеме используются стандартные трехслойные персептроны (рис. 2.4), причем ИНС~ реализует отображение у(/с+1) = Р, (у(/с),..., у(й — ц, +1),и(/с),...,и(1с — и„, +1)) = Г,(Х(1с+1)), (23.3) а ИНСс— ~(й) — Гс()Я),..., у(1 л,,),~(Ус 1),...,~(Ус ~„),сУ(Ус+1),...„уф л„)) = г,. (и(ж)), где векторы Х(1с) = (у(/с — 1),..., у(/с — и„), и(lс — 1),..., и(/с — л„))"; с с(Ус) = (у(Ус),..., у(1с — и,, ), и(/с — 1),..., и(Ус — п.
), ЛЯ+1),..., сК(Ус — л„, )) имеют размерности (л, +л )х1 и (л„+и„+и +З)х1 соответственно, при этом в рамках концепции 337 регуляторов пониженного порядка 14071 размерность вектора У(к) принимается всегда меньше размерности Х(к) . Рис. 23.5 — Нейросетевая непрямая система управления нелинейным динамическим объектом (23.2) Не останавливаясь на работе нейроэмулятора ИНСь решающего стандартную задачу идентификации динамического объекта (раздел 22), рассмотрим процесс настройки трехслойного персептрона ИНСс, преобразующего векторный входной сигнал У(й) в скалярное управляющее воздействие (23.5) и содержащего в первом слое и., =и, =и, +п„+п„+3 нейронов, 1<и, <и, нейронов во втором и единственный нейрон (и, = 1) в выходном слое.
В качестве критерия управления используется локальная целевая функция 338 23 УПРАВЛЕНИЕ НА ОСНОВЕ НЕЙРОННЫХ СЕТЕЙ Е(и(1с» = — (с[(Ус) — ((у(]с),..., у([с — и,, +1),и([с),...,и([с — и„, +!») = — е~~ (1с+1), 2 (23.6) и'~л(/с+1) = и~ил(1с) — ~~~~Я~~,Ч Г(и(lс») (23.7) или через приращение А [3](У ) = [3]ж+1) — [3](1с) = — [3](А)(Ч Е( Ж»)т = [з] „) дЕ([](1с» ],] т дс[~'~ (Ус) (23.8) где [з](1с),[з](1с) [2](®) (23.9) Вводя в рассмотрение локальную ошибку выходного нейрона дК(и(~» дГ(иж» де,ж+ 1) Ф'[® д[Р'(1с) де -И+1) ди"'(]с) , ду(ж+1) д([~"' ди(1с) ди "] (1с) — (/с+1) ( ['])' ди(1с) (23.10) запишем дельта-правило настройки третьего выходного слоя в виде А]д[ ]([с) — Ц[ ] (]с)д [ ] (]с)(о[ ] ([с» (23.11) С целью ускорения процесса обучения можно воспользоваться модифицированным алгоритмом (4.215), принимающим в данном случае форму [з](1[ 1) []](1с) ( )(с] (~» ф+ ( [-"])'о'-](7с) ди(]с) (23.12) 339 обеспечивающая слежение выходом объекта за внешним задающим сигналом с минимальной дисперсией и получившая широкое распространение в теории адаптивного цифрового управления.
Для обучения нейронной сети применяется процедура обратного распространения ошибок (подраздел 4.6), согласно которой синаптические веса выходного нейрона уточняются с помощью рекуррентного алгоритма Ли'. !(7с) = — И' 1(lс)(~ 12]Е(и(7с)))т = — И"](И), (~ [2]и[. ](Й))т = [2] (у )д [2! (1 )(Ош (у ))т (23.13) где [з] О [. ] (~) = О [2] (а) '." ® д[т[ ](~) (23.14) Оптимизация процедуры по скорости приводит к рекуррентному алгоритму 6[21(/ )(0[1[в))т и[2](1+1) = в'"(/с)+,, [' =1,2,...,п2. (23.15) Д+)(Ф2]ж)в,"]ж)(у"!)'."]ж))( И наконец, для первого скрытого слоя справедливы соотношения 2~ [](~) = 21[](И)~,[](1[)( ' ](~)) = 21"(1[)В[!(~)(~ (~), (23.16) и д! ] ( [, ) Еу т (у ) ['1(У +1) = ['](У)+ ! — .
(23.17) 1 — 1,2,...,п, Е д [2] (УС)И [2] Ж)([[/[11 )' уж) 1=1 Здесь Д]от[1] и о[" Ж) =,' ~„~,[2](~)в,[2](Ж). (23.18) Таким образом, с помощью алгоритмов (23.12), (23.15), (23.17) обеспечивается максимальная скорость настройки всех нейронов регулятора инс . В случае нестационарного объекта управления в системе предусмотрен диагностический выход фью+1), предназначенный для обнаружения возможных изменений в объекте, которые достаточно просто могут быть выявлены с помощью алгоритма Хэгглунда [4081, для данного случая принимающего вид < 8(/с + 1) = т] [т(Ус) + Ли "! ((), 0 < т] < 1, ,и(/с + 1) = г[уп(Вт (7с + 1)Ли ['1 (/с)), (23.19) 340 Используя методику обратного распространения, запишем процедуру обучения второго скрытого слоя в виде 23 УПРАВЛЕНИЕ НА ОСНОВЕ НЕЙРОННЫХ СЕТЕЙ при этом появление сигнала,и(й) =+1 в течение нескольких тактов подряд свидетельствует о возникшей разладке.
Экспериментальные исследования [399, 4001 показали достаточно высокую эффективность рассмотренного непрямого нейрорегулятора. В 1403, 409) описана нейросетевая прямая система управления нелинейным динамическим объектом (23.2), где в качестве нейрорегулятора используется двухслойный персептрон, который в процессе обучения восстанавливает как модель объекта, так и рекуррентно вычисляет управляющие воздействия с помощью однотипных градиентных процедур. В качестве критерия управления применяется локальная целевая функция, используемая в теории адаптивных стохастически эквивалентных систем и имеющая вид Я(и(У;)) = — (дф + 1) — уф + 1)) = — е ф + 1) 2 2 (23.20) где у(Ус + 1) = Г, (Х(И + 1)) = И~'л (й)'Р"'(И~"'(Ус)Х(1 + 1) + О"' (Ус)) + О'~'(Ус) = (23.21) = 11" '(У~)1 1~(И'"'®)Х(У~+1)+О'лИ))+О"'®.
и(и+1) = иЯ) — УУ,(й) = и(1с)+гУ„(К)е(к+1) " . (23.22) ди(й) " ди(й) Дифференцируя (23.21) по и(Ус), получаем =И" '(й)весй (И'"'(Ус)Х(1+1)+О"~(й))И''л(Ус) (23.23) ди(Ус) сУи(й) после чего можно окончательно записать и(й+ 1) = иЯ+ту„Яе(И+ 1)И" (Ус)вей (И""(Ус)Х(Ус+1)+О'л(й)). , „1!л(у,) ЫХ(~+1) ди(Ус) (23.24) Здесь =Е„„, „„=(0,0,...,0,1,0,...,0) . (23.25) Для настройки синаптических весов и смещений модели (23.21) используется стандартная процедура обратного распространения ошибок, а управляющий сигнал вычисляется с помощью градиентного алгоритма Как видно, прямой подход к синтезу нейрорегуляторов гораздо проще с вычислительной точки зрения, однако часто проигрывает непрямому по быстродействию. Хотелось бы заметить, что в этом разделе рассмотрены простейшие схемы нейроуправления достаточно близкие к традиционным адаптивным системам.
На сегодня известны десятки, если не сотни нейрорегуляторов, отличающихся друг от друга используемыми архитектурами ИНС, критериями управления, алгоритмами обучения, уровнем априорной информации, ограничениями и т.д., однако, что весьма отрадно, подавляющее большинство задач управления может быть сведено к проблеме безусловной или условной оптимизации ~410~, успешно решаемой с помощью искусственных нейронных сетей.














