Диссертация (785777), страница 31
Текст из файла (страница 31)
Поскольку, в силу приближенного характера НС-модели, реальные значения величин,описывающих движение объекта, неизбежно отличаются от получаемых в качестве выходовНС-модели, возникает ошибка, ухудшающая качество управления. Один из возможных подходов к компенсации этой ошибки предложен в разд. 4.1.3. Он состоит в том, чтобы неточностьНС-модели трактовать как возмущающее воздействие на систему, приводящее к отклонениютраектории реального объекта от эталонной траектории, и парировать это воздействие путемвведения в систему компенсирующего контура.4.1 Адаптивное управление с эталонной моделью4.1.1 Общая схема адаптивного управления с эталонной модельюВ задаче управления с эталонной моделью (MRAC — Model Reference Adaptive Control)регулятор реализуется в нейросетевом виде (нейроконтроллер) с использованием НС типа166+yэмЭталоннаямодель−+eybНС-модельобъектаКомпенсаторεm−uдопrypНейроконтроллерeu+Объектуправленияu+ypypεmРИС.
4.1. Схема нейросетевого адаптивного управления с эталонной моделью. Здесь обозначено: ue — управление на выходе нейроконтроллера,компенсатора,uuдоп— добавочное управление от— результирующее управление, yp — выход объекта управления, yb —yэм — выход эталонной модели; " — расхождение между выходами объекта управления и эталонной модели; "m — расхождениемежду выходами объекта управления и НС-модели; r — задающее воздействиевыход нейросетевой модели объекта управления;NARX. Обучение его осуществляется таким образом, чтобы выход системы под его управлением максимально точно соответствовал выходу эталонной модели. Для реализации процессаобучения нейроконтроллера требуется нейросетевая модель объекта.В нейросетевой реализации схемы адаптивного управления с эталонной моделью (рис.
4.1)используются два нейросетевых модуля: управляющая сеть (нейроконтроллер) и модель объекта управления (НС-модель). Вначале решается задача идентификации для рассматриваемого объекта управления, затем полученная НС-модель используется для обучения нейроконтроллера, который должен обеспечить максимально точное отслеживание выхода эталонноймодели.Нейроконтроллер представляет собой двухслойную сеть, на входы которой через линииr(t) и выход объекта управления yp (t), а также, в ряде случаев, и выход нейроконтроллера ue(t) (эта связь на схеме незадержки (TDL-элементы) подается задающий входной сигналпоказана).НС-модель объекта управления, структура которой приведена на рис.
4.2, в качестве входов получает, также через линии задержки, управляющий сигнал от нейроконтроллера, а также выход объекта управления.167ym (t)ЭталоннаямодельTDLLWНейроконтроллер1,2uдоп (t)Компенсатор−n1 (t)r(t)TDLε(t)IW1,11TDLLW2,1ΣΣf111bLW1,4n2 (t)+a (t)u(t)2f2Σu∗ (t)Σyp (t)Объектуправления2bεm (t)Σ−by(t)a3 (t)TDLLW3,2fΣ168131b3TDLLW4,3n3 (t)LW3,4n4 (t)Σa4 (t)f4b4НС-модельобъектауправленияРИС.
4.2. Структурная схема нейросетевой реализации адаптивного управления с эталонной моделью: TDL — линия задержки; IW— матрица синаптических весов связей между входным и первым обрабатывающим слоем НС; LW — матрица синаптических весовсвязей между обрабатывающими слоями НС;b— набор смещений слоя НС;f— набор активационных функций слоя НС;—n(t) — набор скалярных выходов сумматоров; a(t) — набор скалярных выходов активационных функций;r(t) — задающий сигнал; yp(t) — выход объекта управления; yb(t) — выход НС-модели; ym (t) — выход эталонной модели; u (t) —управление, вырабатываемое нейроконтроллером; uдоп (t) — добавочное управление от компенсатора; u(t) — управление, поступающеена вход объекта; "(t) = yp (t) ym (t) — расхождение между выходами объекта и эталонной моделинабор сумматоров слоя НС;4.1.2 Синтез нейроконтроллера для адаптивного управления с эталонной моделью1.
Уравнение нейроконтроллера (НК) имеет вид (статический контроллер):uk = f (rk ; rk 1; : : : ; rk d ; yk ; yk 1 ; : : : ; yk d);где y — выход объекта управления,(4.1)r — задающий сигнал.По аналогии со схемой управления с эталонной моделью для линейных систем уравнениенейроконтроллера должно выглядеть несколько иначе:uk = f (rk ; uk 1; : : : ; uk d; yk ; yk 1; : : : ; yk d);(4.2)Однако проведенное моделирование показывает, что работают эти варианты примерноодинаково, но первый обучается несколько быстрее. Поэтому в качестве основного был принят статический вариант (4.1) нейроконтроллера.2. Использование схемы адаптивного управления с ЭМ требует, очевидно, определить темили иным способом соответствующую эталонную модель, отражающую представления разработчика системы о том, что такое «хорошее» поведение данной системы, к которому нейроконтроллер должен стремиться приблизить поведение объекта управления.Эталонная модель может быть определена различными способами.
В данной работе ЭМстроится на основе колебательного звена с достаточно высоким демпфированием в сочетаниис апериодическим звеном.Для случая, когда движение ЛА описывается уравнениями (3.13), ЭМ задается следующимобразом:x_ 1 = x2 ;x_ 2 = x3 ;x_ 3 = !at ( x3Здесь !at(4.3)2 (r2 !эм эм x2 + !эмx1 )):= 40, !rm = 3, rm = 0:8, вектор фазовых переменных x = [эм ; _ эм ; 'at ℄.Еще один рассмотренный вариант ЭМ, близкий к (4.3), также представляет собой линейную систему третьего порядка, которая задается передаточной функцией вида:W =2!эм2 ):((1=!at )p + 1)(p2 + 2!эм эм p + !эм169(4.4)1.41.2Àìïëèòóäà10.80.60.40.2000.511.5Âðåìÿ, ñ22.533.5(a)0Àìïëèòóäà, äÁ-20-40-60-80-100-120-1400Ôàçà, ãðàä-45-90-135-180-225-270-110010110×àñòîòà, ðàä/ñ210310(b)РИС.
4.3. Характеристики эталонной модели вида (4.4): (a) переходная характеристикаЭМ; (b) частотные характеристики ЭМ170Представление о желаемом характере поведения объекта управления, задаваемом ЭМ(4.4), дает рис. 4.3, на котором приводятся характеристики данной ЭМ во временной и в частотной области. Поведение ЭМ вида (4.3), как показывает вычислительный эксперимент,очень близко к поведению ЭМ (4.4).Если движение ЛА описывается уравнениями (3.14), тогда в дополнение к системе (4.3),описывающей канал угла атаки, добавляется еще ЭМ для канала тангенциальной (скоростной)перегрузки:x_ 1 = x2 ;(4.5)2 (r x )x_ 2 = 2 !эм эм x2 + !эм1или, в виде передаточной функции:2!эмWnx = 22 ):(p + 2!эм эм p + !эмВ этой модели(4.6)!эм = 1, эм = 0:9, вектор фазовых переменных x = [nxa эм ; n_ xa эм ℄, r —задающий сигнал.3. Цель настройки нейроконтроллера — минимизация ошибкиyэмyb, т.
е. приближениеповедения контроллера с моделью объекта к поведению эталонной модели. При хорошей НСмодели это означает и минимизацию до определенного уровня «настоящей» ошибкиyэмy(нейроконтроллер с реальным объектом).Несмотря на то, что нейроконтроллер является статическим, он работает в составе динамической системы, поэтому настраивать его нужно как объединенную рекуррентную сеть.
Этанастраиваемая сеть состоит из двух подсетей (самого нейроконтроллера и замкнутой модели объекта), замкнутых внешней обратной связью. В процессе настройки параметры подсетимодели не меняются, т. е. НС-модель служит только для замыкания внешней обратной связи ипредставления всей системы в нейросетевом виде (чтобы оценить чувствительность выходовобъекта управления к параметрам нейроконтроллера).В пакетном режиме такую сеть можно обучать с помощью того же самого метода ЛевенбергаМарквардта (но с динамическими производными, для вычисления якобиана при этом применять либо метод обратного распространения ошибки с FP-модификацией, либо метод обратного распространения ошибки во времени).
Рекуррентность доставляет дополнительныетрудности в процессе обучения НК: чем больше выборка (чтобы пройти по всей областивходных данных, она должна быть достаточно большой), тем больше шансов, что процесс171обучения застрянет в каком-то из локальных минимумов. Причем такие шансы с увеличением длины выборки растут с катастрофической скоростью. Из-за этого приходится делить всювыборку на сегменты.Чтобы настройка параметров происходила однозначным образом, требуется чтобы замкнутая сеть с контроллером стартовала с эталонной траектории на каждом сегменте (так как наначальные условия нейроконтроллер повлиять не может).При этом приходится учитывать следующие факторы:1.
На маленьких сегментах (меньше 500–1000 точек) учиться нельзя, поскольку из-за маленького диапазона входных данных сеть обучается только этому конкретному сегменту,забывая про все остальные.2. На больших сегментах всегда попадается плохой локальный минимум.3. На средних по длине сегментах происходит то же самое, но с помощью ротации сегментов эту проблему можно до некоторой степени обойти.По указанным причинам приходится использовать сегменты средней длины, на каждомделать по 3–7 эпох, проходить по всему кругу несколько раз, а затем укрупнять сегменты,чтобы улучшить качество обучения. В итоге процесс обучения НК становится весьма трудоемким (до нескольких часов, в зависимости от рассматриваемого варианта).С учетом сказанного выше, для обучения нейроконтроллера в пакетном режиме (т.
е. дляего преднастройки) оказывается выгоднее использовать последовательный режим обучения,упомянутый в предыдущем разделе, разница только в том, что требуется использовать динамическое обратное распространение для вычисления якобиана).Фильтр Калмана в этом случае выполняет роль «сшивателя» отдельных сегментов в одинмассив данных. Причем сами сегменты можно выбрать маленькими (30–100 точек, что существенно экономит вычислительное время), главное, чтобы на этом интервале проявлялась динамика объекта управления. И хотя потенциально последовательные методы обладают меньшей точностью, здесь оказывается важнее обойти проблему локальных минимумов и сократить время обучения.4.