Тихонов В.И., Харисов В.Н. Статистический анализ и синтез радиотехнических устройств и систем (2004) (1151791), страница 18
Текст из файла (страница 18)
- сл, в. Ясно, что исчерпывающее описание процесса .1 (б л) дается плот постыл вероятности р(Х) случайного параметра 1.. Имеется несколько моделей сл. пр., значения реализаций которых в несовпадающие моменты времени П, 22, ..., 2„считаются независимыми, и, следовательно, для таких процессов многомерная плотность верояиюсти равна произведению одномерных п. вс и р„(х„..., л„; г„..., 2„) = П р(х„б). (2.6.3) В пределе (при бч, — б — со) это равенство выполняется для большинства реальных процессов. 92 При пере 1исленни методов описания случайных процессов указывалось (с.
59), ч1о последовательность функций распределе- ниЯ Р'„(х1, ..., .х„; го ..., 2„) или п. в, Р„(х,, ...„х„; 2о ... 1„)„п= 1, 2, 3, ..., представляет собой своеобразную лее1пицу: с ростом и они описывают сл. пр. последовательно все более и более детально. Однако многие физические процессы оказываются пе столь сложными. чтобы для получения исчерпывающей информации о них требовалось знание всех р„(.); часто бывает достаточно знать лишь одномерную р, (х; г) или двумерную р (х,, хх„' 2„12) п.
в. Если зги и. в. содержат все сведения о процессе, то по ним можно найти многомерные и. в. 01ме1им, что при решении многих научно-прш1ладцых задач вообще пе возникает необходимосзи обращаться к многомернь1м плотностям вероятносги. Сложность описания сл. пр., т.
е. наибольший порядок и- мерной п. в., дающей дос1аточпо полное описание сл, пр., можно положить в основу классификации сл. пр. По-видимому, прос1еишим классом являются сл. пр., полное описание которых достигается указанием одномерной и. в. р, (х: г), следующим классом являются процессы, описание ко горых дается двумерной и. в. рх(х,, х,„г1, г„) и т. д. Приведем несколько примеров, ко1да для полцо1о описания сл.
пр. достаточно задать одномерную и. в. Предварительно укажем, что многомерная п. в. детерминированного процесса х (г) = т' (2) дается выражением 1 ~11 Й12 '" К!н ~21 ~22 "' ~2в 1П1 П1, Х= (2.6.5) Км Л„2...А„„ хп 1К1=иегК -детерминан1 кОРРеляционной матРицы К; Й ' -- матрица, обрап1ая К; символ т сверху обозначает транспонированную матрицу. Плотности вероятности (4) соответствует характеристическая функция Ф„()9)=ехр фп'9 — 9' КЭ!2), где Э'=(9„92, ..., 9„) — вектор-строка. Если не пользоваться векторными представлениями, то выражение для характеристической функции имеет вид и И ~л(191 ' ' 19я)=ехр1 )3 ~ п1р91 Е Крч91 Эч ' (2'6'7) я=1 н,~=-1 Так как А„„=А,, го п.
в, (4) и характеристическая функция (6) определяк1тся п(п+1)(2+и параметрами. Укажем несколько важных свойств гауссовских сл. пр., которые следуют из (4) и (6). 1. Гауссовский сл. пр. полностью определяется заданием м. о. т„(2) и корреляционной функции (( (П, ~ ). Действительно, в выражения для характеристической функции и п. в. входят только м. о. и корреляционная функция.
Если на основании каких-либо соображений известно„ что сл. ир. являезся гауссовским, то его 93 Более широкий класс сл. пр, определяется двумерной п, в. р, (х,, х,; го 22), например квазидетерминированный процесс с двумя зависимыми параметрами х(д Х1, Ех). К ттому же классу огносягся два важных типа сл. прз гауссовские и марковские 6 3.1). Они наиболее хорошо изучены и широко использунпся прн решении радиотехнических задач. Приведем определение гауссовских процессов.
Вещественный случайный процесс г, (1) называется;ауссоп1жиле если для любого конечного множества моментов времени случайные величины с1= с (~1), ...,;„=- с (2„) имеют совместную нормальную и. в. р„(Х)=- — „„— „„,ехр — -(Х вЂ” т)' Й ' (Х вЂ” гп) . (2.6.4) Здесь использованы следующие обозначения: п1к ' 1чи)' и вк (2в ~к) ™ ((~и гпв) = К„р — — М ((~~р — п1я) (1ч п1~)) =1к„(1ЭрО~) ° Н к= 1, и, и-мерные и. в. и характерттстические функции однозначно определяются м.
о. и корреляционной функцией. Поэтому гауссовские процессы мог.ут отличаться друг от друга только характером м. о. и видом корреляционной функции (спектральной плотности). Следовательно, корреляционная ~сория дает птцшое описание гауссовских процессов. 2. Для гауссовских процессов некоррелированнос гь значений процесса тождественна их независимости, т. е. если тт»(ттп т„)=-0 при !»~9, то рп(х„..., х„; т,, ..., т„)=-р(х,; т,),..р(х„; тп)= =(2л) и'г [тг (т,)...)2»(т„)1 '"- ехр — — ,'г "-'-"--'-"»('-')) ~. (2.6.8) — т пНетрудно убедиться в обратном: если значения независимы, т. е. справедлива формула (8), то они некоррелированны. 3.
Для гауссовских процессов понятия стационарности в широком н узком смысле совпадшот. Предпологким, что гауссовский процесс стационарен в широком смысле: т»(т)=ггг»=сопят, тт»(тп, т„)= тт-(!т„— т„))= й»(т„,), !т, 9=1, л. (2.6.9) Тогда он будет одновременно отшионарным и в узком смысле, так как нри этом характерно~ические функции и и. в. не будут изменяться при любом сдвиге всей группы точек т„тгл ..., т„вдоль оси времени на произвольную постоянную величину.
Приведем явные выражения для одномерных и двумерных и. в. и характеристических функций гауссовского стационарного процесса, которые легко получаются нз основных формул (4) и (6): р(х) =- =ехр [ — — — ' — ), (2.6.10) Г2ктг т Ф ( т 9 ) = ех р ( ргг» 9 — 7Э» 9 г (2), (2.6.11) ! рг(лт, х; т)= — — — — - х 2ктз» г т — г,'(т) к ехр 2 (к, — пг»)' — 25»(т)(х, — пц)(х,— пг )<-(хг — т )' ) (2.6.12) 2тг»(г" — г ( )) т)гг((Эг )Эг; т)=-ехР(!пг»(Э, +Эг) — (!г2)22»х к [9,'-+2г»(т)9,Э,+ЭЦ). (2.6.13) 4.
Условные п. в. значений совместно гауссовских процессов с(т) и т)(т) или значений одного гауссовского процесса являются нормальными. Этот результат следует из известной формулы р„„(Х!У)=р,„(Х. У)(1г„®. (2.6.14) 94 Сохраним для и значений х; процесса с (т,) прежние обозначения (5), снабдив их индексом с, а для тт значений у, процесса г!(т,) используем аналогичные обозначения с индексом ц. В правую часть (14) нужно подет'авить нормальные п. в, вида (4): р„(Ъ') =-(2л) ' "" ! й „! ' " ехр [ — (1 т2) (У вЂ” пт„)' К „' (У вЂ” пт„)3, р-„(Х, Ъ)=(2л) '"'""'!К! '"ехр[ — (1!2)(У.— тп)'К '(7.— пт)).
Здесь Х. пт» . К» ~ »и (2.6.1 5) тп . и тп — векторы-столбцы м. о. процессов», (т) и т! (т); Й» и й„— - корреляционные матрицы этих процессов; К»„и К„» — взаимные корреляционные матрицы между г,(т) и т1(т). В результате получим р»!„(Х!Ъ)=(2л) "'~!К»,„! "'ехр[ — (1/2)(Х вЂ” тп»,„)'х хй»)г (Х вЂ” пт» „)3. (2.6.16) (2.6.20) 95 где ш»,„— — пт»+Й»„К„' ' (У вЂ” птп); К»,„—— К» — Й»„К„'й„» (2.6.!7) В частности, если процессы ч(!) и т)(т) независимы, то р„„(Х, У) =р»(Х) р„(У). (2.6.1 8) Если формально положить п=гт, то получим, что произведение двух нормальных и.
в, с м. о. вт», пт„и корреляционными матрицами Й, К„есть также нормальная п. в.; ее м. о. и корреляционная матрица определяются выражениями =К[К,+Й„' „(, К-'=Йг'+К„'. (2.6. ! 9) Отметим, что в (!7) условное м. о. пт»!„— — М(с„!т)) является линейной функцией от величин, входящих в условие. Но условное м. о. определяет оптимальную оценку по критерию минимума среднет.о квадрата ошибки. Отсктда вытекае~ следующее свойство гауссовских процессов.
5. Если наблнглается гауссовский процесс, то оптимальная оценка значения гауссовского сл. пр. является линейной относительно остальных наблюдений. Для условных нормальных и. в. известен ряд интересных результатов. Укажем два таких результата, которые сформулируем в виде теорем. Теорема 1.
Обозначим и значений сл. цр. »„(тг)=»„(тт) — лг»тг и„ вектором Х: Х=Х вЂ” тн»ы — — Х вЂ” тн» вЂ” К „К„'(к — пт„). Тогда гектор Х пе зависит от Ъ'. пмее» пулевое м. о. и корреляцнопнуто м;жрицу и -'» К з Кчг. Доказа гельст во. С учетом (17) имеем М ',Х, '=М ,'Х) — щ,— К.„К,, '1М (Ъ') — гп„) =О. Из 1эаьспсзва М ~Х(Ъ~-~~„]|) =.М ЯХ-~~,) ГЪ -~„~",-К,„К-~ х следусз, по валоры Х и Ъ' пекоррелировапны.
Поскольку эти векторы гауссовские, то опн также н независимы. Так как М(Х) =О, то К,-=-М ХХ', =М ((Х вЂ” пз — К,„К„'(Ъ' — пзч)3 х я Р~ -ш;- — Ко~К» '('~'- ш»)]') =- = М ([ Х вЂ” где ] (Х и'~ ]'] ™ ((Х вЂ” ш~.) (.»' — пзч~]') "» ' К»»е— -К„,К„- М (1Ъ вЂ” „ЦХ-,,]')+К.чК„- М(~Ъ ч] ~ Эти жс резулгпаты непосредственно следуют из (16), (171.