А.Н. Ширяев - Вероятность-1 (1115330), страница 65
Текст из файла (страница 65)
Поэтому все основные свойства вектора С=(С(, ..., 4„) определяются первыми г компонентами (41, ..., 4,), для которых соответствующая матрица ковариаций уже является невырожденной. Итак, можно считать, что исходный вектор С = ф, ..., С„) уже таков, что его компоненты линейно независимы и, значит, 1)й( > О. Пусть ((У вЂ” ортогональная матрица, приводящая )к к диагональному виду Как уже отмечалось в п. 3, все диагональные элементы матрицы 0 положительны, и, следовательно, определена обратная матрица. Положим Вэ=0 и )3=В 'Р*с. Тогда легко убедиться, что Ее'("9) =Ее!З '=е й( "), Е! ! 13 — 9727 366 ГЛ.
В, МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ т.е. вектор В=(ВИ ..., В„) — это гауссовский вектор с некоррелированны- ми, а значит (теорема 1), и независимыми компонентами. Тогда, обозначая А = ~тВ, получаем, что исходный гауссовский вектор Е = ф, ..., С„) пред- ставляется в виде (12) где В = (Д, ..., Д) — гауссовский вектор с независимыми компонентами, В» .Ф'(О, 1).
Отсюда вытекает следующий результат. Пусть С= =(4н ..., С„) — вектор с линейно независимыми компонентами, ЕЕ»=0, й = 1, ..., и. Этот вектор является гауссовским тогда и только тогда, когда существуют независимые гауссовские величины Вн ..., Д, В» .Ф'(О, 1), и невырожденная матрица А порядка и такие, что С=А,О. При этом !к = АА' — матрица ковариаций вектора с. Если !)к!з»0, то, согласно методу ортогонализации Грама — Шмидта (см. $11), с»=ч»+о»е», й=1, ..., и, (13) где в силу гауссовости вектор е = (ен ..., е») .Ф'(О, Е), ч» = ~~', (ч». ег)ен 1=! ь»=К»-й»(( (14) (16) .2'К, ..., Ы=.2(.,,.».
(16) Из ортогонального разложения (13) сразу получаем, что (»=Е(Ч»(Ч»ин ". 6). Отсюда в силу (16) и (!4) следует, что в гауссовском случае условное математическое ожидание Е((» !С» н ..., Е~) является линейной функцией отСИ...,С» Н »-! Е(4»)~» Н ...,6)=~ а;6. (18) (В случае й = 2 этот результат был установлен в $8.) Поскольку, согласно замечанию к теореме 1 $8, Е(6»1с» 1 " 5) является оптимальной (в среднеквадратическом смысле) оценкой С» по (н ., с» н то из (!8) следует, что в гауссовском случае оптимальная оценка оказывается линейной. Используем эти результаты для отыскания оптимальной оценки вектора д=(йн ..., й») по вектору 6= ф, ..., (~) в предположении, что (д, О— $13. ГАУССОВСКИЕ СИСТЕМЫ за7 уссовский вектор.
Обозначим тв=ЕВ, тс=Е4 — вектор-столбцы средних значений и Оввисоч(В, В) гм««соч(Вн В1)««, 1<1, 7<В, 0вг =-соч(В, 4) ьч ««соч(В;, ( )««, 1 < 1' < й, 1 < 7' < 1, Осе = — соч(~, ~) м ««соч(~1, р]], 1 < 1, 7' < 1, матрицы ковариаций. Предположим, что матрица Ои имеет обратную матрицу. Тогда (ср. с теоремой 2 в $8) справедлива следующая Теорема 2 (теорема о нормальной корреляции, векторный слу- чай). Для гауссовского вектора (В, О оптимальная оценка Е(В«0 вектора В по С и ее матрица ошибок Ь = Е[ — Е(В]0] «В — Е(В«0]* задаются следующими формулами: Е(В«О=тв+Овг0 1(С вЂ” те), (19) 1~ = Овв — Овв0~~ Ове (20) Доказательство.
Образуем вектор г)=( — тв) — Овт0 1(4 — тс). (2! ) тогда непосредственно проверяется, что е17(с — тс)'=О, т. е. вектор 17 не коррелирован с вектором С вЂ” те. Но в силу гауссовостн (В, С) вектор (ч, О также будет гауссовским. Отсюда в силу замечания к теореме 1 вектоРы 17 и (-те независимы. значит, независимы 17 и 4 и, следовательно, Е(г)«О=Е0=0. Поэтому Е[ — тв«4] — ОвеО~~~(( — те) =0 что и доказывает представление (19), Для доказательства (20) рассмотрим условную ковариацию соч(В, В] Ом Е [( — Е(В «С))( — Е(В «С))'«С]. (22) Поскольку  — Е(В]0 =и, то в силу независимости г) и С находим, что соч(В, В«О=Е(7717 ]Π— Е177)'= = Овв+ Овг0~~'ОееОге~Овс — 20вс0~~'Оег0~~'Овг — — Овв — Овг0~~~0ве.
Поскольку соч(В, В] ~) не зависит от «случая», то Ь = Е соч(В, В «О=соч(В, В «О, что н доказывает представление (20). О 888 ГЛ. В. МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ Следствие. Пусть (у, с!, ..., с„) есть (и+1)-мерный гауссовский вектор, причем с!, ..., Е„независимы. Тогда л Е(дф, „,, ~„) = Ей+ ~~~ ' ' (4! — Е6), 1=! сх = Оу — ~ ~из(В' 'Л (ср. с формулами (12), (13) % 8). 5.
Пусть с!, 4з, ... — последовательность гауссовских случайных векторов, сходящаяся по вероятности к вектору с. Покажем, что вектор ~ также является гауссовским. В соответствии с утверждением а) теоремы 1 достаточно показать это лишь для случайных величин. Пусть т„= ЕСл, аз = 0~„. Тогда по теореме Лебега о мажорируемой сходимости !пп еи " Т "' = 1пп Ееиг" =Ееиг. ! 2о Из существования предела в левой части вытекает, что найдутся такие т и о~, что оя = ! 1ш вз. л оо тло 1пп тл, л оо Следовательно, Ееиг = еи х т. е.
С .Ф'(т, оз). Отсюда, в частности, вытекает, что замкнутое линейное многообразие .У(с!, ст, ...), порожденное гауссовскими величинами С!, Сз, ... (см. п. 5 $11), состоит из гауссовских величин. 6. Перейдем теперь к определению общих гауссовских систем. Определение 2. Совокупность случайных величин (=К ), где а принадлежит некоторому множеству индексов л, называется гауссовской системой, если для любого и>1 и любых а!, ..., ал из а случайный вектор (С „ ., С „) является гауссовским. Отметим некоторые свойства гауссовских систем. а) Если с = (с ),а ей, — гауссовская система, то всякая ее подсистема С' = (С„',), а'ь й' С й, также является гауссовской. Ь) Если 4, а Ей, — независимые гауссовские величины, то система 5 = (С ),а Е Л, является гауссовской. з 13.
ГАУССОВСКИЕ СИСТЕМЫ (6 г!) = (ч( Ь(). если г(>О, (ь(, -!з?(!), если С( <О, (23) Тогда нетрудно проверить, что каждая из величин С и и гауссовская, а вектор К, г!) гауссовским не является. Пусть С = (С ), а ей, — некоторая гауссовская система с «вектором» средних значений т = (л( ), а ей, и «матрицей» ковариаций (й= (г д) лея, где т = Ес . «Матрица» )к является, очевидно, симметрической (г е = ге ) и неотрицательно определенной в том смысле, что для любого «вектора» с =(с ) ея со значениями в )ки, у которого лишь конечное число координат с отлично от нуля, (й с, с) ш ~ г„ес се > О. а,д (24) Поставим сейчас обратный вопрос. Пусть задано некоторое параметрическое множество л=(а), «вектор» т=(т ) ея и симметрическая неотрнцательно определенная «матрица» )к=(г д) шеи. Спрашивается, существует ли вероятностное пространство (П, Я, Р) и на нем гауссовская система случайных величин С = (С ) ея такие, что Е4« = п(а сои„се) = г«е, о, (у ей» Если взять конечный набор а(, ..., а„, то по вектору т=(т „...
, т „) и матрице Й = (г д), а, (! = а(, ..., а„, в г(" можно построить гауссовское распределение Р,, „(х(, ..., х„) с характеристической функцией ((( л(- (и( о Нетрудно проверить, что семейство (Р«,,...ем(х(, ..., ««); о(~~В) является согласованным. Следовательно, по теореме Колмогорова (теорема ! $9 и замечание 2 к ней) ответ на поставленный выше вопрос является положительным.
с) Если С=(с ), абай,— гауссовская система, то замкнутое линейное многообразие .У(~), состоящее из величин вида 2 с,С, и их пределов в (=( среднеквадратическом смысле, образует гауссовскую систему. Заметим, что утверждение, обратное к свойству а), вообще говоря, неверно. Например, пусть с( и г)( независимы и с( .Ф'(О, !), г(( .1'(О, !). Определим систему 390 ГЛ. И. МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ 7. Если л=(1, 2, ...), то в соответствии с терминологией, принятой в $5, систему случайных величин С =(С ) ея будем называть случайной последовательностью и обозначать ~=(4» 4э, ...).
Гауссовская последовательность полностью описывается вектором средних значений т=(гпн тэ, ...) и матрицей ковариаций )к=]]гц]], г,"=оочК» Е;). В частности, если г;; =вэбу, то С =(6, сэ, ...) есть гауссовская последовательность независимых случайных величин с $ .Ф'(т» ой), 1 > 1. В том случае, когда й = [О, 1], [О, оо), ( — оо, оо), ..., систему величин С = ф), 1Е л, называют случайным процессом с непрерывным временем. Остановимся на некоторых примерах гауссовских случайных процессов. Если считать их средние значения равными нулю, то вероятностные свойства таких процессов полностью определяется видом «матрицы» вариаций Ж=(ги), з, 1Е л. Будем обозначать гм через г(з, 1) и назы эту функцию от з и 1 коеириационной функцией.
Пример 1. Если л = [О, оо) и ковать (25) г(з, г) = пЗ(п(5, г), то гауссовский процесс В = (В~)сна с такой функцией ковариаций (см. задачу 2) и ВоюО называется процессом броуновского движения или винероеским процессом. Отметим, что этот процесс имеет независимые приращения, т. е. для любых 11 < 1з « ... 1„случайные величины Е[В~ — В,] [В, — В„] = = [г(Й о) — г(1, и)] — [г(з, о) — г(з, и)] =(1 — 1) — (з — з) =О. Замечание.