1625915148-9c9f9a2bacef72b603fa281986313335 (843878), страница 76
Текст из файла (страница 76)
)7ри сделанных выше лредаолоекениях относигпельно коэффициентов сисо|смы (1) и условии (2) последовательность (8, О) являгпгся условно-гауссовской, т. е. условная функция распределения Р[Оо-=-.ао, ", ба==па[,РЦ еппь (Р-и.и.) функция распределения л-мерного гауссовского вектора, среднее значение и матрица ковариаций которого зависят о 60 ''' ь)' Д о к а з а т е л ь с т в о. Ограничимся доказательством гауссовости лишь распределения Р (9„( а [,У'~), что достаточно для вывода уравнений для т„и у„.
Прежде всего заметим, что из (1) следует, что условное распределение Р(0„,. -а, $„+ -х[,Га, 8„=Ь) З ь еильтг кхлмлнл — вьюси и вго озовшапия является гауссовским с вектором средних значений А'+ ьь1Ь = '(л„+ л,ь) и матрицей ковариаций ~3=((ь.в)' в.в)' где Ь Ь=Ь,Ь~+ЬЬ„Ь*В=ЬВ1+ЬВ',, В В =В В1+ВВ1. Обозначйм ~„=(0„, $„) и 1=(~„..., Г„ь,). Тогда М ~ехр (И*~„ы) <,Уй, 0„1= =ехр)И' Я,(п, С)+Я,(п, $) 0„) — — 1*8(п, $) ф (3) Допустим теперь, что утверждение леммь1 справедливо для некоторого п ) О.
Тогда М (ехр (И*Я (п, Я) 0„) !,У'Ц= =ехр (ИаЛ, (и, $) т„— — (а Я, (и, $) у,д)1 (п, $)) 1 (4) (б) являются гауссовскими. Как и при доказательстве теоремы о нормальной корреляции (теорема 2 в О 13 гл. 11), проверяется, что существует такая матрица С, что вектор т1 = (О , — М (О, , ! У й)1 — С ($,. — М (Б, 1 У й)1 обладает тем свойством, что (Р-п.
н.) М (Ч Ь„„ — М (й„,„~,У й))' ( .У й| = б. Отсюда следует, что условно-гауссовские векторы и и $„,, рассматриваемые при условии,У „, являются независимыми, т. е. Р(т1 си А, $лыев В~~ У'й)=Р(Ч ~ А~ Уй) Р('лией В~ Уй) для любых А еи,З(й"), В яви(У). Докажем, что формула (4) останется верной и при замене п на и+ 1.
1Лз (3) и (4) имеем М[ехр (И"ь,+,) ~~,Уй1 =ехр(И" (А,(п, $) +/Ь(п, й)!и„)— — -'-1'3 (п, 5) 1 — — 1* (А1 (п, 5) у„А) (п, $)) 1Р Поэтому условные распределения Р (О „ы -" а, ~„ы - - х ) У й) 400 гл. ч1. стлциоплгпые случляные последовлтельностн Позтому, если в (в„..., во), то М [ехр (!воВ,„д) !.У'„5„+д] = =- М [ехр(дво [М (О„„!.У д)+т!+ С[о„+д — М 115,+д ! У д)]])! У, ео+д» =ехр [!в* [М [В„„! У „')+С [5 +,— М($„+,! У'о!)]] х ХМ[ЕХр(дз*т)) ! У,;, В„вд]=ЕХр [1В' [М (0.,1 УИ)]+ +С [Ц„„— М [К„„д ! У'3)]» М (ехр (де*1!) ! У е] (6) т„дд [а,+дддпт„)+[Ь ° В+адУ„АЦ[В В+Адч„АЦзх х Д„,д — Ао — Адпд ) (7) у„+д = [аду„ад + Ь ° Ь) — [Ь В + аду„А1") х х [В ° В+ Аду„АЦВ ° [Ь ° В+ аду,А")*.
(8) Доказательство. Из (1) М(0„+д!.Уо)=ао+адто М(е„+д ! Уо!) Ао+Адто (9) и Вь м — М (Вь и !,У'Я) = а, [΄— т„) + Ь,е, (и+ 1) + Ь,е, (и+ 1), ь„+д — М [К„+д ],У !) А, [΄— т„)+В,В,(п+1)+Ве, (и+ 1). Обозначим ддд = соч [О„+д, 0 ! У ! ) = М ЦВ„„М (В„„!,У.!)] [О„„, — М [В„„!,У.О)]*!',У!], В„„!.У.!) = = М ЦВ„„М [О.„!,У'„)] [;„„М [~„„!.~!)]*(,Уе], Б„„,',У ь!) = = М [!Е„,л — М (Еь и! УВ)] [В„ы — М (В, ! У !)]" 1 У1» ддт = соч [В„од, 4о = соч ($„од, Тогда из (!О) ддд=а,у„ад+О Ь, йм=адуоАд'+Ь Вд с(оо=АдувА1+В ° В.
(1!) В силу (5) условное распределение Р(т)~у! Уд) является гауссовским. Вместе с (б! Вто доказывает, что условкое распреДеление Р(Вью ==.а!,Ухл1) также ЯвлЯетсЯ гаУссовским. Лемма доказана, Теорем а !. Пусть (О, $) — частично наблюдпемая последовательность, удсвлетворяюидая системе (1). Тогда (т„у„) подчиняются следудси!ам ренуррентным уравнениям: $1. ФИЛЬТР КАЛМАНА — БЬЮСИ И СГО ОБОБШБНИЯ 40! В силу теорехы о нормальной корреляции (см. теорему 2 задачу 4 в 0 13 гл.
11) ~ уг)+й йгз(~ М(~ ~ д.з)) и уи11 = Оогг (0о+1, 0оо1 ~ аУ о йог1) = 1111 г(11Ж.1111 $ зг Подставляя сюда выражения для М(0„,',,У'„), Мф„„!,У~) из (9) и для Бгг„г(11, г(11 из (11) получаем искомые рекуррептные уравнения (7) и (8). Теорема доказана. Следствие 1. Если Бее коэффициенты ао(п, Г), ..., Во(п, 2) в системе (1) не зависят от $, то соответствуюшля схема называется схемой Калмзна — Бьюси, а уравнения (7) и (8) для т„ и у„— (Ьильпгргглг Каг.иана — Вьюсн. Важно подчеркнуть, что в этгм случае условная матрица ошибок у„совпадает с безусловной, т.
е. у„= — Му„= М ((О „— пг,) (0„— т„) "]. С л едет в не 2. Предположим, что частично наблюдаемая последовательность (0„, $„) такова, что для 0, справедливо первое из уравнений в (1), а для $„ — уравнение 2о=А,(п — 1, 0)+А,(п — 1, 0) 0„+ -г В,(п — 1, 0)зг(гг)+Во(п — 1, ~)е,(п), (12) Тогда, очевидно, Ц„ог=Ао(П Е)+Л,(гг, 2)Га„(П, Б)+а,(П, Е)0„+ +Ь,(п, 0) е,(п+1)+Ьо(п, Б) ао(п+1))+В,(п, а) е,(п+1)+ . + В.
(п, з) е, (и + 1), и, обозначая 4о=ЛотАгпо, ЛТ=-Агпг, Вг = А101+ Вг, Во — — АТЬо+ Воз получаем, что рассматриваемый случай также укладывается в схему (1), а т„и у„удовлетворяют уравнениям (?) и (8). 2. Обратимся к линейной схеме (ср. с (1)) во+1 — — а,+а,0„+аДо+Ьгсг(п+1)+Ьоео (и+1), 6„„1 = Ао+ Л,0, + Аоз„+ В,е, (п+ 1) + В,ео (и + 1), (! Зг где все коэффициенты а„..., В, могут зависеть от и (но не от Ц, а ец(п) — независимые гауссовские случайные величины с Мец (и) = О н Ме,'; (и) = 1. Пусть система (13) решается при начальных значениях (0„0о) таких, что условное распределение Р(во~а',$о) является гауссовским с параметрамп пгг — — М(0,,;;,) н уо =ооч (0„0о( $о) =Муо.
46в гл, чг стлщюпаеные случлиные последовлтельности Тогда в силу теоремы о нормальной корреляции и (7), (8) опти. мальная оценка т,=М(0„),У„') является линейной функцией от Ео $г ° ° ° $о Это замечание позволяет доказать следующее важное утверждение о структуре оптимального линейного фильтра при отказе от предположений гауссовости.
Теорема 2. Пуспгь (О, $)=(0„, $„)о~о — частично наблюдаемая последовательность, удовлетворяюгцая системе (13), где ец (гг) — некоррелированныв влучайный величины с Магг(п) О, РАе)г(гг) =1, а компоненпгы вектора напальным значений (0„3о) имегогп конечный впюрой момент. Тогда оптилгальная линейная сценка т„М (О„( ~„..., $„) удовлетворяепг уравнениям (7) с по,'и, Б) = по (п)+а,(п) е„, А,(п, $) = А,(п)+Ао(п) 5„, а матрица ошибок у„М [(΄— т„) (΄— т„) ] — уравнениям (8) с начальными данными т,=соч(0о, $о) сочино Во) $о (14) 77, = соч (О„оо) — соч (0„$,) сочв (Ь, ео) сочо (Оы Ы Для доказательства этой теоремы понадобится следующая чемма, раскрывающая роль гауссовского случая при отыскании опгиыальных линейных оценок.
Л е м м а 2. Пусть (я, (3) — двумерный случайный вектор М (я'+ ()о) ( со, а (я, р) — двулгерный гауссовский вектор с теми экв первыми и вторыми моментами, чпго и у (я, ()), т, е, Мя'=Мя', Миг =М[1', г=1, 2, Мяр Мяр. Пусть Л(Ь) — линейная функция от Ь такал, что Л(Ь) =М(я~() =Ь).
Тогда Л(~)) является оптилгальной (в среднеквадратическом смысле) линейной оценкой я по (), т. е, М(.; й =Л(()). При этом МЛф) =Мя. Доказательство. Прежде всего отметим, что существование линейной функции Л(Ь), совпадающей с Мя(~(3=Ь), вьпекает из теоремы о нормальной корреляции. Далее, пусть Л(Ь) — какая-то другая линейная оценка. Тогда М [я — Л®] = М [я — Л([г)] и в силу линейности оценок Л(Ь) и Л(Ь) и условий леммы М[я — Л(())]~ М[я — Л®] )М[я — Л®]о=М[я — Л(Р))~, $7 ФильтР кАлмАИА-Бьюси и его ОБОБшения АОЗ что и доказывает оптимальность Х(р) в классе линейных оценок. Наконец, М) (й) =М) (б)=М[М(а 11р)11=Ма=Ма. Лемма доказана. Доказательство теоремы 2. Наряду с (13) рассмотрим систему Ол Г =ае+а,бл+аеал+ЬАОГ(и+1)+Ьгеа(п+!), Олы = Ао+ '1ГОл+ Аееьл + ВГЕГ (и + 1) + Веее (П + 1), где аи (и) — независимые гауссовские случайные величины с МБИ(а)=б и МБ1,(л)=1.
ПУсть также (О„ее) — гаУссовский вектор, имеющий те же первые моменты и ковариацин, что и у (Ое, Ое), и не зависящий от еп(п). Тогда в силу линейности системы (13) вектор (О„..., 0„, Е,, ..., Б„) является гауссовским, и, значит, утверждение теоремы следует из леммы 2 (точнее, из ее очевидного многомерного аналога) и теоремы о нормальной корреляции. Теорема доказана. 3. Рассмотрим несколько примеров, иллюстрирующих теоремы 1н2.
П р и м е р 1. Пусть 8 = (О„) и т) = (Ч„) — две стационарные (в широком смысле) некоррелированиые случайные последовательности с МО„=МГ)„=0 и спектральными плотностями 1 1 1 Х = 2п 1-Ььее-цр ' )ч( ) 2л 11+Бее 'А,' ' ) где 1ЬГ1'(1, ~ЬБ1~ 1. В дальнейшем будем интерпретировать 8 как полезный сигнал, а т) -как шум и предполагать, что наблюдению подлежит последовательность Б = ($„) с Б„=О +т)л.
Согласно следствию 2 к теореме 3 из 0 3 найдутся (некоррелпрованные между собой) белые шумы е, =(е, (п)) и ее =(е (и)) такие, что О„Б,+Ь,О„=е,(п), Г1„„+Ь,т),=Б,(п). Тогда Олы = О„ы+ Члы = — Ь,΄— Ь,Г1л+ е, (и) + е, (л) = — Ье(0,+и ) — 0,(Ь| — Ь,)+е, (и)+ее (п!=- = — ЬД,— (Ь,— Ь,) 0„+е,(п)+ББ(а). 494 гл, ч!. стхцпОнхгиыз слгчхиныв пОСЛВДОзотгдьнОСт!! Тем самым для О и 3 справедливы рекуррентные уравнения Ооы = — Ь,О„+ е, (а), Е„„,= — (Ь, — Ь,) ΄— ЬД„+е,(л)+зо(п) (! 6) и, согласно теореме 2, по„=М(9„!'о„, ..., Е„) и у„=М(9„— и,)о удовлетворяют следующей системе рекуррентных уравнений оптимальной линейной фильтрации: [1(, (Ь'', у.„=- Ь1),. +1— 2+(Ь| Ьо)о то Найдем начальные значения т, н ум прп которых должна решаться зта система.
Обозначим дп = Ьй~„о(оо =-МО,До, о(м = М' ~ Тогда из (16) находим, что ам=О'~„+1, о(оо = Ь„(Ь, — Ьо) о(,„+ Ь,Ь.,д,. + 1, о!нуда ! 1 2 — Ь", — Ь1 о(м= ~ о( о= . о(ы— ! — Ь 4 ! — Ь "- (1 — Ь(1(1 — Ь;-1' что в силу (14) приводит к следующим значениям начальных данных; ! — Ь1 $О 2 Ьо ЬоХО (18) ! 1-Ь1 ! до, ! — Ь', (1 — Ь",1(2 — и'', — Ь1) 2 — Ь', — Ь1 гл Ф, о оо(оо Уо = о(п Итак, оптимальная (в среднеквадратическом смысле) линейная оценка гп„сигнала О„по оо...., $„и среднеквадратическая ошибка у, определяются из системы рекурреитиых уравнений (17), решаемых при начальных условиях (18).
Отметим, что уравнение для у„ не содержит случайных составляющ!ж, и, следовательно, величины у„ необходимые для отыскания значений ло„, могут быль рассчитаны заранее — до решения самой задачи фильтрации. Пример 2. Этот пример поучителен с той точки зрения, что показывает, как результат теоремы 2 может быть применен для отыскания оптимального линейного фильтра в задаче, где последовательности (О, о) подчиняются (нелпнейной) системе, ие совпадающей с системой (13).
Пусть е, (е,(п)) и ео=(з,(п)) — две независимые гауссовские последовательности, состоящие из независимых случайных величин с Мз!(и) =О, Мео(п)=1, и )1. Рассмотрим пару последова- 5 Т ФИЛЬТР КЛЛМАНА — ВЬЮСИ И ЕГО ОВОГЩЕНИЯ 499 тельностей (9, й)=(0„, $„), п~О, с В„е, = аВ„+ (1 + 9„) е, (л + 1), $,„г АВ„+ ег (л+ 1). (19) Будем считать, что 9, не зависит от (е„е,) и ВР И" (тР уР) ° Система (19) является нелинейной, и непосредственное применение теоремы 2 невозможно.
Однако если положить в,(п+1)=- " Р.,(п+,'1), Р' и (1 + О„) то замечаем, что Мйг(п)=0, Ме,(п)е,(гл) =О, п~т, Мйг'(л)= !. Поэтому наряду с (19) исходная последоватечьггость (0, $) подчиняется также линейной системе Оеы = а,В„+ Вгйг (п+ 1), В„.,г= Л,В„+ег (а+1), (20) где Вг =')' М (1+ 0„)г, а (6, (и)) — некотоРаЯ последовательность иекоррелироваииых случайных величин. Система (20) является линейной системой типа (13) и, следо- вательно, оптимальная линейная оценка т„=М(Вл($м ° °, ьл) се ошибка у„могут быть определены в соответствии с теоремой 2 из системы (7), (8), принимающей в рассматриваемом случае сле- дующий вид: гггА гт„ т„+, —— а,т„+-, „, Д„~г — Агт„), + )ъи в е (щАгтл)г Ул+г — (агУп+ Вг) 1 1 Лс 1та где Вг=)Г М (1+0„)' должно быть найдено из первого уравнения системы (19).
Пример 3. Оценка ггаралгетроа. Пусть 9 =(9„..., 0„) — гаус- совский вектор с МВ =лг и сот(0, В) =у. Предположим, что (при известных т и у) ищется оптимальная оценка В по регультатам наблюдений за 1-мерной гьоследогзательиосзью 9=($„), аз:О, с Ц„гг=АР(л, $)+Лг(п, ~)0+Вг(п, Е)е,(п+1), К,=О, (21) где е,— те же, что и в сисгеме (1). Тогда из (7), (8) для т„=М(0(,У~) и у„находим, что гл„+, — — т„+ у„А,"(л, $) [(В,В,") (п, я) -)- А, (гг, $) у„Л; (л, е)19'х хД„„— А,(п, ~) — Аг(л, $)лг„), (22) у„, = у„— у„А,* (п, ф) [(ВгВ;) (п, $) + Аг (п, 5) у„А (л, $))Э х хА,(п, Ц)у„, 4ОО гл. чг стлциоилгныв слхчлиныв последовательности Если матрицы В,В,* являются невырождеиными, то решения системы (22) задаются формулами л г-г .„='(»-л, г, »~(; в(ввз- |, г)»гь, р~ х »1 =0 » х~ $-7 г', Аг(, г)(»,В»-'(, г)(㄄— А,(, еВ~, (23) т=0 » » — 1 у»»г — — Е+у ~, 'Аг"'(ггг, $)(В»Вг)-'(щ, $)Аг(лг, $)~ 7, »~=0 где Š— единичная матрица.