1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 24
Текст из файла (страница 24)
5.3.1 и 5.3.2 покааано, как сходятся алгоритмы в случае, когда входной сигнал и ошибки измерений гауссовские. Во всех случаях истинное / ф е1 ъ ф/а ь й /ло '/е ~ /У а /ет ~ч й) а / /е /а/ Аюу /се/алле / Ат /Ж /Еа/ //лдесаа Рнс. 5.3.1. Последовательная вдентнфнкацня ФП пример 5.3.1. Рнс. 5.3.2. Последовательная цаентнфняацня ФБ; крамер 5.3.1. значение Ф = 0,8, Начальное приближение Ф = О, дисперсия помехи 0,25 и 1,0. Начальное поведение кривых существенно зависит от выбора 3Б (0). После нескольких итераций (обычно 3 — 5) ревультаты перестают зависеть от начального выбора 3Б (0). Интересно отметить, что даже после 1000 итераций уменьшение функции штрафа весьма неаначительно.
Однако в блилкой окрестности истинного значения Ф сходится довольно быстро. Вынуждаемые системы — динамика числителя и ОБаибки измерений. Наше рассмотрение завершается синтеаом алгоритмов для идентификации векторов а и Ь, (70 стохАсгичкскАя АппгоксимАция [гл. 3 характеризующих уравнения движения системы вида х(й+1) = Тх(й)+Гсо(й)+ с)и(й), (5.3.52) г(й) =)г х(й)+ о(й), (5.3.53) где Й вЂ” произвольный, но известный )с'-мерный вектор.
Предполагается, что и (й) — это ненаблюдаемая последовательность независимых случайных величин с нулевым средним, со (й) и о (й) — дискретные белые шумы с нулевым средним и (й), со (й) и Р (й) предполагаются взаимно независимыми. Отклик системы (5.3.52) имеет вид тю х(й) = ~~', ф(Гю()с — с — 1) )- сси(й — с — 1)). тс З (5.3.54) Определим 2М-мерные векторы атт'"-'г Ьт тек-сс) )ст ттг т*тт (5.3.55) и(й) = Очевидно, что 8 характеризует весовую функцию системы, и мы приходим к' задаче, рассмотренной в разделе 2.2. Теперь можно записать наблюдение в виде з (й) = М~(й) 8 + мт(й — 1) е + 7 (й), (5.3.56) где От 7(й) = о(й)+ Ь~,Я~ Т'(Гс)о(й — 1 — 1)+ с)и (й — с — 1)).
(5.3.57) Определим оценку вектора параметров как вектор, минимизирующий функционал Х = 8 Из (й) — мт (й) 8)с). (5.3.58) с и (А — 2т"т'+ т) и (Й вЂ” Х) и (й) )сттсс) Ьт 'Ы ьтб 1 з) использовАЙЙп стохастйчвской Аппгоксймации т71 Можно проверить, что получающаяся оценка 0 является несмещенной. Предполагая, что ш (й) доступны наблюдению, приходим к следующему алгоритму стохастической аппроксимации )(к+ 2)у+ 1) 0®+ Е(ЯДА+ 1) (й+ 2)у) х (з(й+2)у+ 1) — мт(я+2Ж)0(й)1 (5.3.59) для к = О, 2Ф + 1, 4Ф + 2, ... Реализации разнесены на 2У + 1 временной такт (х — Х-вектор), так как из (5.3.57) видно, что автокоррелированность последовательности у (й) распространяется на 2 Ф такта.
Если вместо ю(й) наблюдается аддитивная смесь с помехой т (к) = и (к) + т (к), (5.3.60) где т (к) — белый шум с нулевым средним, то можно, повторяя рассуждения, приведшие к (5.3.59), и учитывая аналогичную предыдущему примеру составляющую смещения, получить 0(й+ 2У+1) = 0(й)+ Кф(27У + 1) (ш(й+ 2Л) Х х [г(к+ 2Л+ 1) — шт(9+ 2Л) 0(к)) + К,О(к)), (5.3.61) где шт(7с) = (т (к — 2 71' + 1), ..., т (к — 1), т (й)]. (5.3.62) Следует отметить, что польаоваться алгоритмами идентификации весовой функции 0 (к) или параметров при управлении Г можно, только располагая результатами наблюдений входных сигналов.
В результате идентификации получаем оптимальную оценку вектора параметров О. Из первого уравнения (5.3.55) имеем ек е,.„б„„,... е, в, е в ... в Г= а= е, е.. в„е„„ Можно получить множество близких алгоритмов стохастическ ой аппроксимации для решения поставленных здесь задач идентификации. 172 сто хАстичеснАя АппРОксимАция [гл. 5 За справками читатель может обратиться к превосходным работам Саридиса и Штейна И32] и Холмса [56], где рассматривается несколько отличных подходов к решению задачи идентификации методами стохастической аппроксимации.
5.4. ВЫВОДЫ В этой главе представлено эвристическое введение в теорию стохастической аппроксимации. Результаты применения алгоритмов стохастической аппроксимации на конечном интервале времени оказались довольно близки к рассмотренным ранее результатам применения градиентных методов. Рекуррентные алгоритмы стохастической аппроксимации (в реальном масштабе времени) весьма напоминают результаты, полученные в теории линейной фильтрации в случае линейных систем, и, как мы увидим в главе 7, последовательные алгоритмы решения двухточечной крае.
вой аадачи по методу инвариантного погружения. Глава 6 КВАЗИЛИНЕАРИЗАЦИЯ 63. ВВЕДЕНИЕ В последних двух главах были развиты прямые вычислительные методы для идентификации систем. В этой главе рассматривается непрямой вычислительный метод, предназначенный для решения задач идентификации, иэвестный под названием метода кваэилинеаризации. Напомним читателю, что под непрямыми методами понимаются методы решения двухточечной краевой эадачи, которая возникает в теории оптимизации. Кваэилинеариэация, которую часто упоминают как обобщенный метод Ньютона — Рафсона, обяэана своим появлением в основном Беллману и Калабе 1161. Первые применения метода кваэилинеариэации к идентификации систем принадлежат Детчменди и Шридхару [301 и Кумару и Шридхару [80).
В работе Сейджа и Айзенберга Г120) рассматриваются обобщения ранее полученных реэультатов применительно к некоторым задачам моделирования систем. Иэучению дискретного метода кваэилинеариэации уделено меньшее внимание; хотя у Энрики [461 можно найти доказательства сходимости для некоторых классов задач. Сейдж и Бурт [1Е81, Сейцж и Смит [1281 рассматривали применение дискретной кваэилинеариэации в задачах идентификации систем.
В этой главе будут развиты методы кваэилинеаризации как для непрерывных, так и для дискретных моделей. Непрерывный случай рассматривается в разделе 6.2, а дискретнъй — в разделе 6.3. Особое внимание уделяется конструированию алгоритмов решения двухточечной краевой задачи, поставленной в главе 3. Кроме того, будет показано, что кваэилинеариэацию можно испольэовать как прямой метод 'решения некоторых классов задач идентификации. Алгоритм квазилинеариэации представляет собой итеРативный алгоритм, для сходимости которого часто требу- квлзилинБАРизлция [гл. в 174 ется очень хорошее начальное приближение.
Один из методов, который может быть использован на первых шагах алгоритма квазилинеаризации, известен под названием дифференциальной аппроксимации и рассматривается в разделе 6.4. К сожалению, применимость этого метода ограничена рядом строгих предположений, тем не менее дифференциальная аппроксимация дает эффективный способ реализации начального участка алгоритма квазилинеаризации. 6.2.
НЕПРЕРЫВНЫЕ СИСТЕМЫ Рассмотрим решение следующей многоточечной краевой задачи (МТКЗ). Необходимо найти такую траекторию движения Т (г), где 7 ~= [Гв, в/) для /У-мерной нелинейной неавтономной системы:, (6.2.1) удовлетворяющую системе линейных ограничений С (г;) у (в/) = Ь (г/), / = 4, 2, ..., т, (6 .2.2) где г/ е= (вв, г71. Для простоты будем предполагать, что моменты времени в7 упорядочены по возрастанию так, что в7 ( 7ю если у (/в. Сейчас мы не будем интересоваться тем, согласованы ли ограничения (6.2.2) с дифференциальным уравнением (6.2.1). Очевидно, что ограничения не могут быть выбраны произвольно. Предположим, что заданные ограничения таковы, что среди решений уравнения (6.2.1) существует решение, удовлетворяющее условиям (6.2.2). Впоследствии мы вернемся к вопросу о согласованности (6.2Л) и (6.2.2).
Если условий /т' и все они заданы в один и тот же момент времени, то задача будет тривиальной, так как тогда уравнение (6.2Л) можно было бы легко проинтегрировать. Интересен случай, когда условия на траекторию заданы для разных моментов времени.
Например, особый интерес вызывает случай, когда /в'/2 условий заданы в начальной точке г„а остальные /У/2 условий — на конце траектории при 7 = 8и т. е. случай двухточечной краевой задачи (ДТКЗ), которая впоследствии будет исследована более подробно. 475 нвпгвгывныв систвмы ау> Если условия аадачи распределены на отрезке 1(„Г71, то аадача (6.2Л) поддается решению только для наиболее тривиального случая линейного дифференциального уравнения, а для отыскания решения, которое удовлетворяет распределенным во времени условиям, приходится обращаться к итеративным методам.
Рассмотрим траекторию у~(г), которая, аппроксимируя решение системы (6.2Л), (6.2.2), сама может не удовлетворять ни уравнению (6.2Л), ни условиям (6.2.2). Вопрос о выборе такого начального приближения будет обсуждаться поаднее. Если разложить Г (у ((), (] в ряд Тейлора в окрестности у' (г), то из уравнения (6.2Л) получим умт ж = Г (у'(() 1 + " '""" " (у'" (() — у (()1 + ау'(6 + члены более высокого порядка. (6.2.3) Здесь у (7) снабжена индексом ( + 1, чтобы подчеркнуть итеративный характер алгоритма решения аадачи.