1626435586-15eceb6ba43f688400eaeb312dc6d98a (844237), страница 13
Текст из файла (страница 13)
Канонические уравнения в соответствии с (3.3.21)— (3.3.30) аапишутся в виде х(й+ 1 ~ й!) = х(й~ й!) 33 ФУНКЦИИ ШТРАФА В ЗАДАЧАХ ИДЕНТИФИКАЦИИ [ГЛ. 3 ) (й+ ~ [й,) = [(й[йс)+ Н'(й+ цр„-'(й+ ~ [А,) х х [г(й+ с) — Н(сс+1)х(й+ 1[7сс)), у,(А+~[А,) =Ф;(й[й,), в,(в+цввв=„(савв — —,,-'~, — „-~ +, " [ (й+1) — Н(А+ах(й+)[йс)). У'„(ь+ ~ [А,> Этн уравнения должны быть решены при двухточечных граничных условиях ) (О[йс) = У„~ [х(0[йс) — сс„), )с(йс[йс) = О, и (0[Усс) = О, Е,(Усс[лс) = О.
Обратимся теперь к формулировке задач идентификации с использованием метода максимума правдоподобия. ЗЛ. ИДЕНТИФИКАЦИЯ ПО КРИТЕРИЮ МАКСИМУМА ПРАВДОПОДОБИЯ В предыдущем изложении штрафных функций для задач идентификации предполагалось, что необходимо оценить (идентифицировать) параметры и состояние си'- стемы. Иабавимся теперь от формального требования идентифицировать состояние системы. Таким образом, при идентификации по максимуму апостериорной вероятности необходимо максимизировать р [О [ Х (йс)) или р [О [ Х(~с)), где О обозначает неизвестные постоянные параметры (не включающие состояние системы), по отношению к которым осуществляется максимизация.
При идентификации по критерию максимума правдоподобия максимизируется р [Х()сс) 1 О) или р [Х(сс) [0) относительно О. Если неизвестные параметры распределены равномерно или имеется значительная неопределенность (Ув велика) в априорном распределении, то, как показано в предыдущем разделе, методы идентификации по максимуму правдоподобия и апостериорной вероятности эквивалентны. В этом разделе будут исследованы только оценки максимального правдоподобия для параметров системы (в том числе и для параметров априорных распределений).
Если известны априорные значения пара- 1сэитйгнй МАКсннрмА ПРАВДОПОДовйя метров распределений неизвестных параметров системы, их можно включать в штрафные функции, рассматрива- емые в данном разделе. Однако подробно этот случай рас- сматриваться не будет. Как и прежде, вначале исследуются дискретные системы. Затем результаты формулируются и для непрерывного случая. Для простоты рассмотрим сначала случай, когда помеха наблюдений не зависит от входного шума, а затем снимем это ограничение.
Рассмотрим нелинейнусо модель формирования и на- блюдения сигнала (3.2.1), (3.2.2) х (й + 1) = ср [х (й), й, а] + Г [х (й), й, Ь] и (й), (3.4 1) в (й) = Ь [х (й), й, е] + ч (й), (3.4.2) где а, Ь и с — векторы неиавестных параметров, которые необходимо идентифицировать. Кроме того, некоррели- рованные гауссовские шумы объекта и наблюдений с ну- левыми средними значениями могут ивсеть ковариацион- ные матрицы, также подлежащие идентификации.
Пусть символ 0 обозначает все неиавестные константы, которые должны быть идентифицированы. Мы не будем в явной форме указывать зависимость ср, Г и Ь от неизвестных па- раметров а, Ь и с, но должны постоянно помнить, что в ~р, Г и Ь содержатся ати параметры. Необходимо макси- мизировать функцию р [Е(йс) [О], которую, используя определение условных вероятностей, можно переписать ас р [Е (йс)[ 0] = Ц р [* (й) [ Е (й — Ц, 0]. (3.4.3) а=с, Поскольку по предположению в момент й, наблюдения не производятся, то , [в(й,)]в(й),0] =р[к(й,)[0]. (3.4.4) Определим условные моменты: Ь [х(й) й[ 01 = е (в(й) [Е(й — 1) 0] = = Ж[Ь [к(й),й) [Е(й — 1),0), (3.4.5) У,(й[й — 1,0) = чаг(в(й)[Е(й — 1),0] = — у (й[й 1, 0) + Ч„(й), (3.4.6) ч';(й[й — 1,0) = чаг[Ь[х(й),й] [Е(й — 1),0].
(3 4 7) 34 Функции штРАФА в 3АдАчАх идентиФикАции (гл, Плотности распределений в (3.4.3), вообще говоря, не гауссовские. Возможно, однако, получить «псевдобайесовскую» плотность, допуская, что условные плотности в (3.4.3) гауссовские, так что 1 р[.(й>!Х(й-1),0] „„ц х ехр ( — 0,5 [х (Ус) — [к [х (Ус), Ус [ ОЦТ х х "«',' (Ус [ Ус — 1, 0) [х (Ус) — Ь [х (Ус), Ус [ ОЦ). (3.4.8) При подобном псевдобайесовском допущении функция правдоподобия примет вид к к (2л)еУА[4«су (к[а — (,0)]ь х ехр ~ — — /! з (Ус [ Ус — 1, О) [с ~ (Ус / й — 1, О)~, (3.4.9) где з(й !Ус — 1, 0) — так называемый процесс «невязкиз (Сейдж и Мелов [127]), з (Ус [ Ус — 1, 0) = ъ(Ус) — [к [х (Ус), Ус [ О] = = з (й) — 8 [к (Ус) [ Х (Ус — 1), О), (3.4 10) который представляет новую информацию, вносимую наблюдением г (Ус). Часто удобнее минимизировать взятый с обратным знаком логарифм выражения (3.4.9), а не максимизировать саму функцию (3.4.9).
Таким образом, идентификация по методу максимума правдоподобия осуществляется минимизацией по 9 функции штрафа У ,У = —,Я 1п с[ей(«',(Ус[У« — 1, О)) + к=к, + [ з (Ус!Ус — 1, О)[к , . (3.4.11) Используя методы стохастического анализа Ито, можно показать, что по мере сгущения точек фиксации миними- эл] кгитмгий мАксимчмА ПРАвйонодоВия 03 эация (3.4Л1) или максимизация (3.4.9) становится бессмысленной операцией.
Это свяаано с двумя факторами. Дисперсии шумов объекта и намерений в непрерывном случае бесконечны. Кроме того, плотность (3.4.9) бесконечномерна по переменной Е (СУ) в непрерывном случае. При этом отсутствует воэможность идентификации Ч или Ч„, поскольку они бесконечны. Отказавшись от возможности оценки Ч„, задачу идентификации можно переформулировать как задачу максимиэации отношения правдоподобия где Яс оэначает гипотеэу, согласно которой х(Ус) = Ь [к(Ус),Ус]+ ч(Ус), и Я~,> — гипотеза, утверждающая, что (3.4ЛЗ) х(Ус) = ч (Ус).
Легко покаэать, что (3.4.14) р[х(Ус) [Е(Ус — 1),Яо] = 1 [ 1 У [2х)аи[с[есч [А)]ч *Р[ 2 [[ ( ) ~„'сс1)' (3.4.15) так что отношение правдоподобия принимает вид су дес [Уч (А)]'А [~(Усс)]~]= П [ ]„" +ч „)]А ~с х ехр [$[Х(Усс) [О]), (3.4Л6) где е' есть достаточная статистика су 3 [Е(Усс) [О] = — — ~~~~ [[х(Ус[Ус — 1,0)[~, с и — [х(Ус)[с с чч ио (3.4Л7) Если идентификация Ч„не предусматривается, максимиэация (3.4.16) по 0 эквивалентна максимиаации (3.4.11) по О. Теперь все готово для перехода к пределу при стремлении к нулю шага фиксации. Можно показать (Маклендон и Сейдж [95]; Сейдж и Мелов [127]), что по мере сгущения точек фиксации максимизация (3.4.16) становится эквивалентной миними- зации 9 ,7 = — — $ (сй] (с)Ч"„~(с) Ь[х(с),с]О]+ + Ь'[х(С), С [О] Ч-.
(С) ж(С)]+ + — ~ Ь [х(С),С/О]Ч",,'(С)Ь[х(С),С] О] с(С, й (3.4.18) где с[П(С) = к(С)й (3.4 19) представляет наблюдения, а первый интеграл понимается в смысле Ито. Как и в дискретном случае, Ь [х(С), С [О] = е [Ь [х(С), С]]г. (С),О). (3.4.20) К сожалению, мы не в состоянии определить штрафные функции (3.4.9) и (3.411), порождаемые членами Ь [х (й), й (О)] и Ч, (7с[7с — 1, О), которые, вообще говоря, не удается найти точно.
По-видимому, наиболее разумным способом определения этих членов является аппроксимация Ь [х(7с), Сс] отрезком ряда Тейлора в окрестности х(7с) = х (Сс ] 7С вЂ” 1, О), причем оценка — условное математическое ожидание — определяется как х(7с[7с — 1, О) = Ж [х(7с) ] Х(7а — 1), О]. (3.4.21) Для линейного приближения получим Ь[х®,й]=Ь[ (й!й — 1,9),й]+ +~" '""" '" "]~ [ (й) — (й]й — 1,6)]. ахр [а — С,Е> (3.4.22) Подстановка этого выражения в (3.4.5) — (3.4.7) приводит к следующей линейной аппроксимации рассматриваемых Оз йрнксссси п]талфа й зас(ачах иС(ннснейкас[сси [гсс. 1 зл) кРиткРиИ ИАксимумА пРАвдоподовия величин Ь[х(й),й]0]= Ь[х(й[й — 1,0), й], (3.4.23) Ч (й[й 10) Гдь'[х(м[/ — 18) м]1'Ч (й!й 1 0) дх(М [М вЂ” 1, 8) (3 4 24) х~ ', (..
дх(М] М вЂ” 1,0) где Ч„-(й]Ус — 1,0) = чаг(х(й]й — 1,0)) = = чаг(х(Ус) [Е(й — 1),0), (3.4.25) к (Ус [ Ус — 1, О) = х (Ус) — Ь [х (Ус [ Ус — 1, 0), Ус], (3.4.26) Ч,(й] Ус — 1, 8) = Ч„(Ус) + Ч; (Ус] й — 1, 8). (3.4.27) Линейная аппроксимация штрафной функции в этом случае такова: му ,У= 2;,' Ь аецЧ,(й]й — 1,0))+ м=м, + ] х (Ус, Ус — 1, О) [с, (3.4.11) причем различные составляющие этого выражения определяются формулами (3.4.23) — (3.4.27).
Таким образом, получен интересный и фундаментальный результат: для определения штрафной функции максимального правдоподобия необходимо знание решения задачи одношаговой экстраполяции х(й), т. е. оценки х (й ] й — 1, О), даже в том случае, если задача оценивания х (й) первоначально не ставилась. Для действительно эффективного испольаования этой функции штрафа необходимо обладать алгоритмами определения х (й ] й — 1, 0) и Ч- (й ] й †.1, О) по Х (й — 1).
Вообще говоря, алгоритмы оценивания, основанные на условном математическом ожидании, которые можно вывести для нелинейной модели формирования сигнала (3.4.1), бесконечномерны, и для получения реалиауемых алгоритмов необходимо производить аппроксимацию. Один возможный способ аппроксимации заключается 33 ФУНКЦИИ ШТРАФА В ЗАДАЧАХ ИДННТИФИКАЦИИ (ГЛ. 3 Е(««[[1) * ус«+ Ч~Ж([) — Ы, чаг (а [ [1) = Ча ЧазЧз Чва (3.4.28) (3.4.29) в которых ! (3.4.30) Уса = Ж (сс), Ч« = чаг (а) = Ж ((сс — (А„) (а — УА„)т ), Чав = соч (ссв [)) й ((сс — Уса) ([) Уса)т ) В частности, если каждое из условных распределений х (й) и з (й) относительно Е (й — 1) — гауссовское, то (й[9)=ж(х(й)[Е(й),0>- Е(х(й)[Е(й — 1),з(й),9) = = г(х(й) [Е(й — 1),0)+.
(х(й),з(й) [Е(й — 1),9) х х чаг '(з(й) [Е(Ус — 1),9) [з(Ус) — е (з(й) [Е(Ус — 1), О)), (3.4.31) так что оценка условного математического ожидания принимает вид х (й [ 9) = х (й [ й — 1, 0) + соч (х (Ус), з (Ус)[ Е (й — 1), О) х х чзг-'(з(Ус) [Е (Ус — 1),9) [з(й) — Ых(Ус), й [ОП. (3.4.32) Обращение к аналогичной теореме об условной дисперсии (3.4.29) дает чаг (х (й) [ Е (й), 9) = чаг (х (Ус) [ Е (й — 1), О)— — соч(х(Ус), з(Ус) [Е(Ус — 1),9)чаг '(з(Ус) [Е(Ус — 1), 0) х х соч(з(й),х(Ус) [Е(й — 1),9), (3.4.33) в допущении гауссовости плотностей р [х (й) [ Е (й — 1), 0) и р [з (й) [ з (й — 1, О)[ для получения «псевдобайе- ° совского» приближенного алгоритма, подобно тому, как в предыдущем разделе было получено «псевдобайесовское» приближение для отношения правдоподобия.