1625915148-9c9f9a2bacef72b603fa281986313335 (843878), страница 55
Текст из файла (страница 55)
Итак, можно считать, что исходный вектор $ = (с„..., $„) уже таков, что его компоненты линейно независимы и, значит, ) Й !)О. Пусть  — ортогональная матрица, приводящая )~ к диагональному виду ~")~~ =Т). Все диагональные элементы матрицы В положительны, и, следо- вательно, определена обратная матрица. Положим В'=с) и )3 = В-'Ю*$. Тогда легко убедиться, что 1 Ма~и й =Ма'Р'~ =а 2 322 ГЛ Н, МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ (12) где р=(11„..., р„) — гауссовский вектор с независимыми компонентами, р».
А (0,1). Отсюда вытекает следующий результат. Пусть Е=(Е„..., $„) — вектор с линейно независимымн компонентами, МЕ„=О, 1=1, ..., и. Этот вектор является гауссовским тогда и только тогда, когда существуют независимые гауссовские величины (Т„..., р„, 1)» Ф" (0,1), и невырожденная матрица А порядка а такие, что $ = Ар. При этом»? = ААР— матрица ковариаций вектора Е, Если 'Р!~0, то, согласно методу ортогонализации Грама— Шмидта (см.
2 11), Е» = Е» + 6»з», (16) где в силу гауссовости вектор е=(еи ..., е») »4 (О, Е), » — 1 Е» = У, (Е» е!) е! ! =- ! (!»=-1!Е» — Е») (14) (15) :с (Е„..., Е») =. Л'(е,, е»), Из ортогонального разложения (13) сразу получаем, что Е = М (Е ! Е „ ..., Е ). (16) (17) Вместе с (16) и (14) отсюда следует, что в гауссовском случае условное математическое ожидание М (Е»! ."».„..., Е,) является линейной функцией от (Е„..., Е» !)! М ($» ~ Š—, " $ ) = Х а Е!.
(Г8) (В случае я=2 этот результат был установлен в 2 8.) Поскольку, согласно замечанию к теореме ! 2 8, М (Е»~Е» „..., Е!) является оптимальной (в среднеквадратическом смысле) оценкой 5» по $„„., Е» „то из (18) следует, что в гауссовском случае оптимальная оценка оказывается линейной. Используем эти результаты для отыскания оптимальной оценки вектоРа 0 = (Эм ..., О») по вектоРУ ф = (Е„„,, $!) в пРеДположении, т. е. гектор р=(рм ..., )),) — это гауссовский вектор с некоррелированными, а значит (теорема 1), и независимыми компонентами. Тогда, обозначая А=ЮВ, получаем, что исходный гауссовский вектор $=($„..., Е„) представляется в виде в 13 с»косовские системы что (8, $) — гауссовский вектор, Обозначим те =МВ, т.
=М«» — векторы-столбцы средних значений и Осе=в соч(В, О)= — )соч(Вь В )), 1 (1, 1(Д, Ое» = соч (В, $) = )' соч (О)) ~г))!, 1 1 . я 1 ( 1 ~ 1 О»- — = соч(«, Е) — = )соч (Еь Е~)), 1 1, 1~0 — матрицы ковариаций. Предположим, что матрица Оь= имеет обратную матрицу. Тогда справедлива следующая Теорема 2 (теорема о нормальной корреляции).
Для гауссовского вектора (В, «) оптимальная оценка М(0 ~Ц) вектора 0 ао « и ее матрица ои ибоя Д =- М [0 - М (8: ,в)1 [8 - М (0' ,0)[* задаются следуюи!илии форл»илами: М (О) В) =-те+ Рв«ОЯ (3 — т») (! 9) д = 0ее — Ов«ОЙ (Овз)". (20) Лак азательство. Образуем вектор 0 = (0 — те) — Ов;ОД ($ — т»). (21) Тогда непосредственно проверяется, что Мц(Š— т.)* = О, т. е. век)ор »! не коррелирован с вектором (« — т..). Но в силу гауссовости (В, Е) вектор (и, $) также будет гауссовским. Отсюда в силу замечания к теореме 1 векторы»! и 5 — »пв независимы. Значит, йезависимы т! н «и, следовательно, М(»!!«)=М«1=0. Поэтому М [Π— те') Ц вЂ” Ое;О»[($ — т«) — 0 что и доказывает представление (19).
Лля доказательства (20) рассмотрим условную коварнацию с оч (О, В; $) =— М [( — М (9,' «)) (8 — М (8 ! 5)) * ! Ц. (22) Поскольку  — М (9!3) =»1, то в силу независимости т! и $ находим, что соч (9, 0 ! ь) = М (»)») * ! ",) = Мтр)* = = Оее+ О„ОВ10„0в[Ойь-20е;Ов«О-.-вОв[0~в = Оев — ОевО«[Овв. Поскольку ссч(8, 8)$) не зависит от «случая», то Д = М соч(8, В,' К) = соч (О, В ! 5), что и доказывает представление (20). Злл ГЛ, И МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВСРОЯТНОСТЕ!т Следствие.
Пусть (0; $„..., $„) — (и+1)-мерный гауссовский вектор, причем е„..., $„незавнсиА1ы. Тогда л М(в,к„..., й„)=ме+'Р "'" "' 6; — МЬ), 1=1 л А Ра ч! солл(8, 8!) 051 1=-1 (ср. с формулами (8.12), (8.13)). 5. Пусть $„$м ... — последовательность гауссовских случайных векторов, сходящаяся по вероятности к вектору $. Покажем, что вектор $ также является гауссовским. В соответствии с утверждением а) теоремы 1 достаточно показать это лишь для случайных величин. Пусть т„=МА„, о:-„'=Р$„. Тогда по теореме Лебега о мажорируемой сходимости Пл;„— — лл!' 1 ! л ал !!! !ип е " ' =1пп Ме! "л=Ме Из существования предела в левой части вытекает, что найдутся такие т и ол, что и = 1цп ил, ол = 11п1 и,'„ Следовательно, 1 Ме!!А = е У т.
е. е м'-(и, ол), Отсюда, в частности, вытекает, что замкнутое линеиное много- образие л ($1, с„... ~, порожденное гауссовскими величинами $„$1, ... (см. п. 5 ~ 11), состоит из гауссовских величин. 6. Перейдем теперь к определению общих гауссовских систем. О и р е д е л е н и е 2. Совокупность случайных величин $ = (е ), где а принадлежит некоторому множеству индексов Я, называется гауссовской саетел!ой, если для любого а~ 1 и любых сс„..., а, нз Е( случайный вектор (А„, ..., 8 ) является гауссовским. Отметим некоторые свойства гауссовских систем.
а) Если Е=(Е„), иену!,— гауссовская система, то всякая ее подсистема Е'=(Ц), а' ее 21': — 21, также является гауссовской. Ь) Если е„, слоей(,— независимые гауссовские величины, то система 5=(Е ), а ен 6, является гауссовской. с) Если 8=Я„), а~6,— гауссовская система, то замкнутое л линейное многообразие 2 (5), состоящее нз величин вида 5', е„.8, ! =-1 Ф м гхгссовскиа системы и их пределов в среднеквадратическом смысле, образует гауссовскую систему. Заметим, что утверждение, обратное к свойству а), вообще говоря, неверно.
Например, пусть $, и тн независимы и ау (О, 1), ть аХ (О, 1). Определим систему 6 , ч)= К,, (т),!), если $,==0, ($м — ! т),!), если 5, (О. (23) Тогда нетрудно проверить, что каждая из величии $ и т( гауссовская, а вектор (5, и) гауссовским не является. Пусть 3 = $„, а ~ 6, — некоторая гауссовская система с вектором средних зйачений т = (и„), а ен 6, и матрицей ковариаций 'г',=(г а) а~и, где о~„=М5„.
Матрица К является, очевидно, симметрической (г„а = га„) и неотрицательно-определенной в том смысле, что для любого вектора с=(с„) и со значениями в Я, у нотон рого лишь конечное число координат с„отлично от нуля, Яс, с) — = ~~ г ас са ~ О. а,а (24) М$„= т„, сот(~., ~а) =.„"„', а, () ~ г(2 Если взять конечный набор им ..., а„.то по вектору т = = (ш,, ..., и„) и матрице Й = (г,,а), а, р =а„..., а„, в )с" можно построить гауссовское распределение г„...
(х, ... х„) с характеристической функцией Нетрудно проверить, что семейство (Еаг ... а„(х~ ° ° ° ~ хл) Я1 Я ~) является согласованным. Следовательно, по теореме Колмогорова (теорема 1 З 9 и замечание 2 к ней) ответ на поставленный выше вопрос является положительным. Поставим сейчас обратный вопрос. Пусть задано некоторое параметрическое множество 6 =(я)„вектор гп=(е„)„ми и симметрическая неотрицательно-определенная матрица К =(гаа)~, ами. Спрашивается, существует ли вероятностное пространство (11, ~, Р) и на нем гауссовская система случайных величин $=(з„)„~х такие, что 26 ГЛ И МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕЛ 7. Если т(=[1, 2, ...
), то в соответствии с терминологией, принятой в й 5, систему случайных величин $=(«„)„ыи, будем называть случайной последовагпельносгпыо и обозначать « = ($„«ы...). Гауссовская последовательность полностью описывается вектором средних значений гп=(пь, и,, ...) и матрицей ковариаций И=| гу[, гу =сот(«п «А). В частности, если го=о,"бу, то $=(«и «„...) есть гауссовская последовательность независимых случайных величин с $; г (гпь о'), (= 1. В том случае, когда 21 = [О, 1], [О, со), ( — оо, са) ..., систему величин « = («,), г' ~ 21, называют случайным процессом с непрерывным временем.
Остановимся на некоторых примерах гауссовских случайных процессов. Если считать их средние значения равными нулю, то полное описание вероятностных свойств таких процессов определяется видом матрицы ковариации [гн 1. Будем обозначать гн через г(з, 1) и называть эту функцию от л и ( ковариационнои функцией, Пример 1.
Если Т=[О, со) и г (в, () = пп(п (в, (), (25) то гауссовский процесс $=(«,), в с такой функцией ковариацпи (см. задачу 2) и «,=О называется процессолз броуновского двизкения (винеровским процессом). Отметим, что этот процесс имеет независимые приращения, т. с. для любых (,<(,<,...
Г„случайные величины Ь вЂ” «г . Ь вЂ” ««л "л -и '''' "л -л-1 являются независимыми. В самом деле, в силу гауссовости достаточно проверить лишь попарную некоррелированность приращений. Но если в<(<и<о, то м [«~ — «,) [«, — «й) = — [г(г, е) — г(Т, и)1 — [г(в, о) — г(в, и)) = (( — Г) — (в — в) =О. Пример 2. Процесс 5=(«~), О =(<1, с «,==О и (26) г (з, 1) = т! и (в, г) — в( называется условным винеровским процессом (заметим, что поскольку г(1, 1) =О, то Р(«,=О)=1).
Пример 3. Процесс «=(«,), — со<(<со, с [27) г (з 1) е- М-М называют гауссовско-марковскили $ !3. ГАУССОВСКИЕ СИСГЕМЫ 8, Задачи, 1. Пусть $„$м $,— независимые гауссовские случайные величины, $! Ф (О, 1), Показать, что еу (О, 1). У!+В1 (В этой связи возникает интересная задача описания всех не,!инейных преобразований от независимых гауссовских величия с„..., с„, распределение которых также является гауссовским.) 2. Доказать, что функции (25), (26), (27) являются неотрицательно-определенными (и, следовательно, действительно являются ковариациопными функциями).
3. Пусть А — некоторая матрица порядка а!хл. Назовем матрицу АЗ порядка пхт асевдообратной к матрице А, если найдутся такие матрицы (7 и )У, что ААвА = А, Ав = (7А'" А')l, Показать, что матрица АЭ, определяемая этими условиями, существует и единственна. 4. Показать, что формулы (19) и (20) в теореме о нормальной корреляции остаются справедливыми и в случае вырождения матрицы О!м если в них вместо 01! рассматривать псевдообратную матрицу 0Я. 5. Пусть (З, с) =(З! ...