Л.А. Растригин - Теория и применение случайного поиска (1121205), страница 31
Текст из файла (страница 31)
Осушествляемое в четвертом способе периодическое 2!О увеличение длины реализации можно рассматривать как воздействие помехи в дискретные моменты поиска. Однако н вэтом случае для решения задачи нужно применять обычные (а не помехоустойчивые) алгоритмы, так как, во-первых, помеха остается постоянной в течение периода времени, достаточного для адаптации поисковой процедуры к изменившейся форме поверхности критерия качества; во-вторых, при стацнонарности входного и выходного сигналов объекта уровень помехи умень- шается по мере увеличения длины реализации, что обеспечивает сходимость поисковой процедуры к экстремуму. Попутно заметим, что поиск на объекте в реальном масштабе времени всегда протекает в обстановке помех, поскольку здесь можно применить только третий из упомянутых выше способов постановки эксперимента.
Качественное представление о поведении функции Т=Т(а, Т,,) в области поиска было получено сканированием (рис. 8.!3). Оказалось, что функция является многоэкстремальной н имеет овражный характер, Локальные экстремумы расположены вдоль оси Т, на расстоянии друг от друга, примерно равном времени практического затухания взаимнокорреляционной функциивходного и выходного сигналов объекта. Глобальный экстремум наименее удален от начала координат. Последнее обстоятель.
ство существеяно упростило задачу построения алгоритма, позволяющего находить глобальный экстремум. К описанному в $8А алгоритму была добавлена процедура периодического спуска по осн параметра Т„ для построения которой обратимся к рис. 8.13. Ломаной линией П показана проекция движения текущей точки поиска к экстремуму. В результате поиска на начальном масштабе текущая точка поиска А попала в зону притяжения локального экстремума (Э ). Применение .процедуры спуска (перед уменьшением масштаба поиска) нз точки А вдоль оси параметра Т.„в сторону его уменьшения (прямая АБ) позволило изменить ход поиска и найти в дальнейшем глобальный экстремум. Попадание в зону глобального экстремума обеспечивается при шаге спуска, меньшем среднего расстояния между экстремумами.
Поскольку спуск осуществляется перед каждым уменьшением масштаба поиска с соответственно дробящимся шагом, глобальный экстремум обязательно будет найден. Это подтверждается многочисленными экспериментамн на ЭЦВМ. в ав. кРАткие ВыВОды Определение математической модели функционирующего объекта с целью оценки его динамических характеристик прп условии задания структуры н критерия качества модели сводится к отысканию экстремума функции многих переменных, характеризующей зависимость критерия качества модели от ее настраиваемых параметров.
Проведенные исследования показали, что ввиду сложности и многоэкстремальностн этой 212 функциональной зависимости задачу самонастройки модели целесообразно решать с применением методов случайного поиска. Предложенный для решения рассмотренной задачи алгоритм случайного поиска существенно использует дополнительную информацию о характере расположения экстремумов функции. В общем случае алгоритм поиска локалыюго экстремума Я 8.4~ можно успешно сочетать с некоторой дополнительной процедурой, направленной па достижение глобального экстремума. Такими процедурами могут быть, например, предварительное статистическое исследование области поиска с целью выявления наиболее вероятного местоположения глобального экстремума Г331 случайный выбор начальной точки очередного поиска и т.
и. ГЛАВА !Х ЭКСТРАПОЛЯЦИОННЫИ МЕТОД АДАПТАЦИИ МОДЕЛИ ДИНАМИЧЕСКОГО ОБЪЕКТА й 9.!. МЕТОДЫ АДАПТАЦИИ МОДЕЛИ В предыдугцей главе задача оценки динамических характеристик объекта с помощью самонастраивающейся модели была решена для случая стационарного объекта. Однако в реальных условиях характеристики объекта пе остаются постояниымп ао времени, а окружающая среда, в которой функционируетобъект, непредвиденным образом меняется. Возникает необходимость непрерывной идентификации объекта. Аналитические методы идентификации нестационарного объекта основываются обычно па квазистационарном представлении объекта !1--2). Несколько иной подход предложен в работе (3).
Здесь неизвестный закон изменения ординат й;(а) импульсной переходной функции объекта аппроксимируется линейной комбинацией заданных функций времени: с,. й;(и) = ~, й <р (п) (9.!.1) (ч,'(л) —. Линейно независимые функции). Далее выбирается необходимый интервал наблюдения объекта и формируется система алгебраических уравнений, в результате решения которой определяется вся матрица импульсной переходной функции, характеризующая объект как динамическую систему с переменными параметрами.
Попутно отметим, что описанная выше методика пригодна, по-видимому, для объектов с периодической или квазипериодической, а такм<е с приводимой к стационарному процессу нестационарностыо !4 — б). 2!4 Дело в том, что полученная математическая модель (9,!.!) обьекта описывает его прошлое состояние. Управление же буду- шими состояниями объекта с помощью этой модели допустимо только прн указанных выше типах нестацпонарности.
Не останавливаясь далее на аналитических методах непрерывной идентификации нестацнопарного объекта, укажем на нх ограниченные возможности. Оонованные на решении интегрального уравнения Винера — Хопфа эти методы позволяют определить текущие характеристики объекта лишь с большой погрешностью в условиях коротких реализаций ]7- — 11]. Большое внимание в литературе уделяется вопросам применения самонастраивающихся моделей для решения задачи непрерывной идентификации нестациоцарного объекта.
Предложенные методы адаптации модели к изменяющимся характеристикам объекта можно классифицировать следующим образом. Поисковые методы адаптации модели, Здесь осуществляется периодическая корректировка параметров модели по схеме, изображенной па рнс. 8.1, из условия минимизации некоторого функционала от рассогласования выходных сигналов моделн п объекта. Такой подход упоминается в работе ]!2] и реализован, например, в работе 1!3], а также в главе Х! настоящей книги. Итерационные методы адаптации модели. Суть этих методов состоит в том, что оценки параметров объекта берутся вначале совершенно произвольными н затем уточняются. При этом величина поправки пропорциональна значению возмущения на входе и ошибке предсказания.
Например, в работах [!4, 15] уточнение производится по следующей формуле: (Н,, Х ) (К Х .) Клы К + у+(Хк„Х„„) где Ил„, -- вектор параметров объекта в (й+1)-м такте с составлнющими (Йь л~ь Й, к'ч ..., Й„, пэ,); Км — вектор оценок параметров объекта (параметры модели) в Х-и такте; Хм~, — вектор входной переменной в (Й1+1)-и такте.
Круглые скобки обозначают скалярное произведение. В упомянутых работах доказана сходимость параметров модели к соответствующим параметрам объекта при медленном изменении последних. В15 Прегкде чем перейти к изложению других итерационных методов адаптации модели, рассмотрим постановку задачи адаптации, рекомендованную в работе [16). Пусть функция (9.!.3) 1=1(Х, А) определяет зависимость критерия качества модели от ее управляемых параметров Х=(хь хь...,х„) и условий (ситуации) А — — (аь аь..., а ), в которых функционирует модель.
Предполагается, что ситуация полностью определяется ш числами а„ аь...,а . (Очевидно, в рассматриваемой задаче вектор ситуации должен полностью определять текущее состояние пндентифицнруемого объекта.) Пусть Б — множество возможных ситуаций А; Б — множество допустимых управлений Х. Задача оптимального приспособления модели будет решена, если найден алгоритм илн оператор преобразования5 — (Г, который каждому вектору Ае=5 ставят в соответствие вектор Хаен(l оптимальных параметров модели, экстремизирующих ее критерий качества (9.1.3), т. е. 1!Х (А), А]=!~ж~ Таким образом, определение зависимости Х"=Х*(А) (9.!.4) решает задачу адаптации модели. Рассмотренные выше поисковые методы позволяют для конкретной фиксированной ситуации А~ находить оптимальные параметры Х,", т, е.
наблюдать значения функции (9.1.4) в случайно появляющихся точках многомерного пространства ситуаций Итерационный метод адаптации дает возможность медленно перемещаться по поверхности, близкой к поверхности (9,!.4). Рассмотрим теперь методы адаптации модели, использующие обучение на результатах предыдущего опыта.
Пусть, например, для ряда различных ситуаций получены соответствующие оптимальные параметры модели А Х'! Аа-~ Х~г (9.1.5) Ак- Х'х 2!Б Совокупность соответствий (9.1.5) назовем обучающей последовательностью. Если рассматривать информацию (9.1.5) как результаты наблюдения функциональной зависимости (9.1,4), то задача определения оптимальных параметров Х*ь+~ модели в некоторой новой ситуации Аа ы сводится к восстановлению указанной зависимости (9.1.4) по случайным наблюденим (9.!.5) и к последующему экстраполированию.