Диссертация (1152187), страница 6
Текст из файла (страница 6)
Для реализации динамических свойств предлагается подавать параллельно на вход НС вЂ” Р задержанные во времени наблюденные на выходе объекта значения (рис. 1.8а). В процессе настройки нейронная сеть обучается прямой инверсии объекта управления. По окончании обучения НС вЂ” Р включается в контур управления, но на ее вход подаются не наблюденные значения у~, у~ ь а желаемые г~, г~ ь Осуществляя инверсию, нейронная сеть генерирует такое управляющее воздействие и~, чтобы выход объекта стал равным желаемому. Рис. 1.8. Схема обучения (а) и рабочего функционирования (б) при прямом инверсном регулировании. Основной недостаток этих схем в том, что для лучшей сходимости, объект управления должен быть обратимым, но в ряде случаев это невозможно.
На рисунке 1.9 представлено специализированное обучение, оно предполагает подстройку весовых коэффгщиентов нейронной сети в процессе ее рабочего функционирования. Градиентный алгоритм обучения НС вЂ” Р использует информацию об ошибке управления и активируется каждый такт времени. Для приведения ошибки к выходу нейросетевого регулятора необходимо знать мгновенное значение якобиана объекта управления ~'22,231. Это не всегда возможно, поэтому часто довольствуются знаком якобиана, показывающим направление, в котором надо изменять управляющее воздействие для уменьшения ошибки управления. Рис. 1.9. Схема специализированного обучения. Очевидным недостатком описанного подхода является неопределенность выхода нейронной сети в первый момент обучения и0 .
Поскольку одновременно с обучением НС вЂ” Р управляет объектом, по сути случайное значение и0 может принести в реальной системе управления к катастрофическим последствиям 11141. Как уже отмечалось, оценка мгновенного значения якобиана объекта управления представляет определенные трудности. Вариант обучения НС— Р с использованием нейросетевой оценки якобиана ~рис. 1.10) в разных работах называется по-разному: косвенным адаптивным управлением 168~, обратным распространением во времени «Вербос), обучением с нейроэмулятором 1271.
Рис. 1.10. Схема косвенного адаптивного нейросетевого регулирования. Данный метод сопоставим со специализированным обучением, кроме способа оценки якобиана. Нейросетевая модель объекта управления (НС вЂ” О) позволяет на такте обратного распространения ошибки оценить якобиан достаточно точно, что позволяет при соблюдении определенных требований к параметрам градиентного алгоритма обучать НС вЂ” Р и НС вЂ” О одновременно. Очевидно, что подстройка обеих нейронных сетей позволяет адаптировать систему управления к изменению параметров объекта и внешних условий 11 141. Часто рассматриваемая схема ассоциируется с одним из методов обучен~и нейронных сетей с обратными связями — обратным распространением во времени фасЫргорада11оп ЙгощЬ 1лпе — ВРТТ).
Однако, при использовании архитектур НС без обратных связей возможно применение косвенного адаптивного управления вместе с другими, более простыми, чем ВРТТ, методами обучения нейронных сетей 168~. В работе 153~ предлагается оригинальный метод оперативного обучения нейросетевого регулятора, основанный на калмановском оценивании значений параметров. При этом подразумевается, что нейросетевая модель объекта в заданном диапазоне аппроксимации функционирует точно. Метод предназначен для нейросетевого регулирования нелинейного объекта, афинного по управлению, с аддитивной помехой в канале наблюден|и.
Преимуществом изложенного метода по сравнению с другими схемами является учет неопределенности состоян|и объекта в первые моменты времени работы САУ. рассматриваются решения, основанные как на многослойном персептроне, так и на сети нейронов с радиально-базисной функцией. 1.2.4. Идентификация и нейросетевая модель сложного многопараметрического объекта управления.
При синтезе нейросетевого регулятора, реализующего некоторый новый закон управлен|и, возникает вопрос с формированием желаемого выхода регулятора по заданному входу. Из теории управлении известно, что сформировать идеальное управляющее воздействие на объект можно, зная мгновенное значение якобиана — матрицы частных производных вектора состояния объекта управлении по переменным управляющего воздействти. Целью этой операции является перевод объекта управления из текущего состоян1и в желаемое. Классический метод идентификации линейных систем управлении основывается на качественном определении структуры объекта по переходной характеристике и на частотном анализе, применяемом для уточнения параметров объекта.
Одним из наиболее эффективных и удобных для реализации на современных компьютерах методов идентификации неизвестных параметров многомерных систем является алгоритм Качмажа ~4~. Он позволяет итеративно определить матрицу А неизвестных параметров линейной дискретной системы вида (1.6.): Х„= Ати„ где щ — управляющее воздействие, а х~ — наблюдаемое состояние объекта управленги.
х„= 6 т(В)со(В)и„~ + и„ где В = ! — Ч вЂ” оператор сдвига назад, п~ — случайная помеха, описываемая процессом АРСС, 6 и е — полиномы. (1.7.) Перечисленные методы существенно связаны с гипотезой о линейности исследуемого объекта управления и по этой причине плохо подходят для идентификации нелинейных объектов.
Нейросетевая идентификация является альтернативой традиционным методам и наиболее подходит для оценки якобиана при синтезе нейросетевых регуляторов. Для простоты рассмотрим объект управления, описываемый моделью ЯЯО (а1ад1е Йрш„япд1е ошрш — один вход и один выход). Б дискретном времени в терминах пространства состояний объект управления можно представить следующей системой разностных уравнений (1.3.): "тих+1 Г(~3с И1с) У~ =ИМ где у~ и и,, — скаляры, а хь — вектор состояния объекта в дискретный момент времени Й.
Нейронная сеть прямого распространения, реализующая функцию у~+~ — — Ма(у„), принципиально не может решить задачу имитации поведения динамического объекта (1.8.), так как нейросеть не обладает памятью: в любой момент выход нейронной сети прямого распространения полностью определяется ее актуальными входами и не зависит от состояния нейросети в предыдущие моменты времени, а также от прошлых входов.
Другой метод идентификации изложен в [3~. Он состоит из двух этапов, на первом из которых принимается решение о виде модели объекта, а на втором уточняются параметры модели и оценивается ее статистическая достоверность. Модель строится в форме линейного разностного уравнения (1.7.): я~(х(йл = ехр ~ — —,~; ~(х;(Й) + х„ь) — с,~~) хр.,(И =;~~ о)~Ц(хЯ вЂ” ж)) ~1.9.) 11.10.) Настройка такой нейронной сети проводится с помощью адаптированного градиентного метода и имеет целью коррекцию весовых коэффициентов нейронной сети и; и НК фильтра а;;,. В работе 148~ не предложено аргументированного способа выбора глубины обратной связи Другой вариант нейросетевой модели, предложенный в 147~ имеет архитектуру сети Элмана 191. Нейронная сеть имеет внешнюю архитектуру у„+т — — й~(У„~ „ь ц„,,), где пЬ вЂ” априорно заданный параметр регрессии, лЛ вЂ” априорно заданный параметр запаздывания.
Контекстный слой состоит из и значений у~ ~„„.+~. Параметры архитектуры нейросетевой модели п„пь, пь определяются экспертом на основании априорных знаний об объекте. Нейросетевая модель объекта в рамках данного подхода оснащается дополнительным входом, на который Для построения адекватной динамической модели следует снабдить нейросеть информацией о прошлых состояниях. Для этого необходимо использовать обратные связи внутри нейронной сети. Также возможно добавить обратные связи к базовой нейросети прямого распространения, Другой вариант предусматривает повторение нескольких прошлых наблюдений с целью "напомнить" нейросети о состоянии моделируемого объекта в предыдущие моменты времени.
Также можно объединить два предыдущих способа. Рассмотрим их более подробно, Архитектура описанной нейросетевой модели представляет собой расширенный вариант радиально-базисной сети ~48~ с НВ. фильтром в локальной обратной связи. Функционирование нейрона в нейросетевой модели описывается уравнением ~1.2.), однако радиально-базисная функши В вычисляется по более сложной формуле (1.9.), (1.10.) включающей локальные обратные связи: подается выход модели, полученный в предыдущий момент времени ~27, У"„~1 — Ио~ у„, У) ~1.11.) Задержанный сигнал обратной связи у„выполняет функцию памяти состояния.
Схема модели приводится на рисунке 1. 11. У~+~ = И Як. 17 - ь -. 14 — 0 . 3Ъ-ь -' У~ — 0у) о (1. 12.) 40 Рис. 1.11. Модель с внешней обратной связью, Для обучения нейронных сетей с внешними обратными связями можно использовать метод обратного распространения во времени 127, 561. Применительна к рассматриваемой задаче данный подход имеет то преимущество, что для обучения НС вЂ” О требуется только выборка обучающих пар ~и~, У~), записанных при управлении объектом в замкнутом контуре.
Сам объект при обучении и при функционировании модели не используется. Обратной связи вокруг НС вЂ” О можно избежать, если использовать для нейросетевого моделирования динамики объекта несколько прошлых его состояний, которые непосредственно наблюдались в предыдущие моменты времени. В этом случае прогноз выхода объекта нейросетью каждый раз строится только на основе реальной информации из контура управления: Данный подход применяется во многих работах, например в [631. Схема одной из возможных моделей с повторением прошлых состояний приводится на рисунке 1.12. Рис. 1.12.
Пример модели с повторением прошлых состояний у„+т —— 1 о~У Обучение этой модели осуществляется вне контура управления на некоторой тестовой выборке, включающей временные ряды и~ и уь Нейронная сеть Л ' обучается делать прогноз состояния объекта максимально близко к реально наблюдавшемуся значению. Поскольку в данной схеме обратная связь отсутствует, возможно использование любого из методов обучения статических нейронных сетей, например, стандартного метода обратного распространения [62-641. После сеанса обучения настроенная нейросеть может использоваться в контуре управлеши для предсказания выхода объекта и для настройки нейрорегулятора.