А.Н. Ширяев - Вероятность-1 (1115330), страница 64
Текст из файла (страница 64)
25. Преобразованием Лапласа неотрицательной случайной величины Х с функцией распределения г называется функция г" =г"(Л), определенная для Л >0 формулой г=(Л)=Ее хх= ) е ""г(Р(х), !О,оо1 Доказать следующий критерий (С. Н. Бернштейн): функция 1= 1(Л) на (О, оо) есть преобразование Лапласа функции распределения Р = Р(х) на !О, со) в том и только том случае, когда эта функция является полностью (вполне) монотонной (т. е. существуют производные ~ы1(Л) всех порядков и > 0 и (-!)")00(Л) > О). 26. Пусть р(г) — характеристическая функция.
Показать, что следующие функции также являются характеристическими: ~ р(и() йи, ~ е "р(ит) йи. ф 13. Гауссовские системы 1. Гауссовские, или нормально распределенные, случайные величины, гауссовские процессы и системы играют исключительно важную роль в теории вероятностей и математической статистике. Объясняется это прежде всею справедливостью центральной предельной теоремы ($4 гл. Ш), частным случаем которой является теорема Муавра — Лапласа ($6 гл. 1).
Согласно этой теореме, нормальное распределение носит универсальный характер в том смысле, что распределение суммы большого $! 3. ГАУССОВСКИЕ СИСТЕМЫ 38! числа независимых случайных величин нли случайных векторов, подчиняющихся не слишком стеснительным условиям, хорошо аппроксимируется этим распределением.
Именно это обстоятельство дает теоретическое объяснение распространенному в статистической практике «закону ошибок», выражающемуся в том, что ошибка измерения, слагающаяся нз большого числа независимых «элементарных» ошнбок, подчиняется нормальному распределению. Многомерное гауссовское распределение описывается небольшим числом параметров, что является несомненным его достоинством прн построении простых вероятностных моделей. Гауссовские случайные величины имеют конечный второй момент, и, следовательно, их свойства могут изучаться методами гильбертова пространства. Важным прн этом оказывается то обстоятельство, что в гауссовском случае некоррелированность превращается в независимость, что дает возможность значительно усилить результаты «(.э-теория».
2. Напомним, что (согласно $8) случайная величина 4=с(ш) называлась гауссовской нли нормально распределенной с параметрами т ноя (С .Ф'(т, о~)), 1т( < оо, оэ > О, если ее плотность ~Е(х) имеет следующий внд: (»-гл)~ ) (х) = — е э э ~/2»о где о =+у'оз. При о)0 плотности )е(х) «сходятся к й-функции, сосредоточенной в точке х = т». Поэтому естественно сказать, что случайная величина С нормально распределена с параметрами т и оз=О (с Ф'(т, 0)), если с такова, что Р(с = т) =1. Можно дать, однако, такое определение, которое сразу будет охватывать как невырожденный (вэ > 0), так н вырожденный (ох =0) случаи.
С этой целью рассмотрим характернстнческую функцию ре(Г) ээ Еене, Г Е1(. Если Р(С =т)=1, то очевидно, что ре(г) = ен"', (2) а если ( Ф'(т, вэ), оз > О, то, согласно (9) $12, р,(1) =ен --2-. (3) Легко видеть, что прн ел =0 правая часть (3) совпадает с правой частью (2). Отсюда и нз теоремы 1 $12 следует, что гауссовскую случайную величину 4 с параметрами т н оз (1т! < со, оэ > 0) можно определить как такую величину, для которой характеристическая функция уе(Г) задается 382 ГЛ. и.
МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ формулой (3). Подход, основанный на привлечении характеристических функций, особенно удобен в многомерном случае. Пусть с = ф, ..., 6,) — случайный вектор и рея=еепьО, г =(гн ..., г„)е)с", (4) — его характеристическая функция (см. определение 2 в $12). Определение 1. Случайный вектор 4=ф,..., 5„) называется гауссовским или нормально распределенным, если его характеристическая функция рс(1) имеет следуюший вид: И(,т1- 2 ПНЛ ~ре( ) = е (5) ГДЕ т = (ты..., т„), (те ! < ОО И )и= !(ГМ /( — СИММЕтРИЧЕСКаЯ НЕОтРИЦатЕЛЬ- ио определенная матрица порядка а х а (для краткости будем использовать обозначение: с -.
'г"(т, )к)). В связи с данным определением возникает прежде всего вопрос о том, а является ли функция (5) характеристической? Покажем, что это действительно так. С атой целью предположим сначала, что матрица )к является невырожденной. Тогда определены обратная матрица А =)и ' и функция (А!'!2 г ! Дх) = — ' ехр~--(А(х — т), (х — т))), (2к)пГ2 ( 2 (6) где х=(хн ..., х„), )А! =де( А. Эта функция является неотрицательной. Покажем, что или, что то же, П~„~-м) (А~ -2ЫЙ-е),и-ен — ПНЛ ~!/2 (2к)е йх=е Сделаем в интеграле замену переменных х-т=суи, с=сто, где ет — ортогональная матрица такая, что ст')йФ = О, -(;) е |3. ГАуссОВские системы 383 — диагональная матрица с г(! >0 (см. доказательство леммы в $8).
По- скольку !Щ =бе! КФО, то )!! >О, ! =1, ..., а. Поэтому !А!=!К '(=д! '...)(„!. (8) Далее (см. обозначения и. 1 2 12) 1 !(й х — т) — -(А(х — т), х — т) = 2 1 = !(до, Ри) — -(А гуи, !уи) = !(сто)'!уи — -((уи)'А(!уи) = ! 2 ' 2 =!о и — -и ет А!Уи=!о и — -и Р и. !... ! 2 2 Вместе с (9) $12 и (8) это дает 1 !))'и-яи'Р и й ! ° )2 )')));...4)'~ „1 =П вЂ” „,„„,„, 1 ""-й"=И -~= а=! * — 2о*О)) — 2))'В'Яео — 2!'ги — 2пи,л ! ° ° ! ° ! Из (6) следует также, что ) /(х)дх= !. (9) р'Я = ехр()(1, т) — -(К'1, !)) является характеристической: )р*(!) = $ е)!"!)ХЕ,(х), где Е,(х) = Е,(х), ..., х„) — н-мерная функция распределения. При е- 0 )р'Я рЯ=ехф(1, т) — -(Кг, !)~. 1 Таким образом, функция (5) является характеристической функцией и-мерного (невырожденного) гауссовского распределения (см.
п. 3 $3). Пусть теперь матрица К вырожденная. Возьмем е>О и рассмотрим положительно определенную симметрическую матрицу К'иК+еЕ, где Š— единичная матрица. Тогда по доказанному функция 384 ГЛ. П. МАТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ Предельная функция 1с(1) непрерывна в нулевой точке (О, ..., О). Поэтому, согласно теореме 1 и задаче 1 из $3 гл. Ш, она является характеристической.
Итак, корректность определения 1 установлена. 3. Выясним смысл вектора т и матрицы )й= 1(гц!1, входящих в характеристическую функцию (5). Поскольку 1 л ! ч (п ре(1) =!(1, т) — -(»ч1, 1) =1 ~ ~1»т» — — ~~~ гц(»Й, (10) 2 2 »»н »л»п то из (35) $12 и формул связи моментов и семиинвариантов находим, что т!=з,ь~"-л =Е(н ..., т~=з~ц-" =Е~.. Аналогично гн = з~е ' ""' — — 0(н гм = зеьс ""' - — соч(6, 6), и вообще гм =соч(С», (~). Таким образом, т есть вектор средних значений С, а Ж вЂ” матрица ковариаций. Если матрица !и невырожденная, то к этому результату можно было прийти и иначе.
Именно, в этом случае вектор С имеет плотность 1(х), задаваемую формулой (6). Тогда прямой подсчет показывает, что Е4» ья ~ х» Дх) дх = тю (11) соч(4», 4с) = ~(х» — т»)(х~ — тр))(х) йх = гм. 4. Обратимся к рассмотрению некоторых свойств гауссовских векторов.
Теорема !. а) У гауссовского вектора некоррелированность его компонент эквивалентна их независимости. Ь) Вектор с=(5, ..., ~„) является гауссовским тогда и только тогда, когда для любого вектора Л=(Лн ..., Л„), Л»Ей, случайная величина (с, Л) = Л!~~ +... + Л с„имеет гауссовское распределение. Доказательство. а) Если компоненты вектора С = (5, ..., С„) некоррелированы, то из вида характеристической функции»эе(!) следует, что она является произведением характеристических функций: ь е(1)=П ~( ) »=! Поэтому в силу теоремы 4 $12 компоненты 5н ..., С„независимы. $13.
ГАУССОВСКИЕ СИСТЕМЫ Обратное утверждение очевидно, поскольку из независимости всегда следует некоррелированность. Ь) Если с — гауссовский вектор, то (см.(5)) 12 Е ехр(!1(с(Л(+...+с Л ))=ехр~!1(~~,Лэтэ) — — (~~ гэ!ЛэЛ!))~ (ЕЙ, н, поэтому, (4 Л) 7 (~~, Латы ~~ гэ(Л„Л!) Обратно, гауссовость случайной величины (4, Л)=4(Л(+...+4„Л„ означает, в частности, что Еа((чд) Е!Е(СХ)- д а! З: Л,ЕЕ»- у З: Хал! оэ!(Е!,4!) В силу произвольности Л(, ..., Л„отсюда следует, что г=(г(, ..., г )— гауссовский вектор (см. определение 1).
П Замечание. Пусть (д, ~) — гауссовский вектор с д=(дь ..., дэ), С = (С(, ..., 4!). Если векторы д и С некоррелированы, т. е. ооч(дг, С!) = О, ! = 1, ..., й, у = 1, ..., 1, то они и независимы. Доказательство — то же, что и для утверждения а) теоремы. Пусть С=(41, ...,4„) — гауссовский вектор, и для простоты будем предполагать, что вектор средних значений является нулевым. Если гапд)к=г<п, то, как было показано в $11, существует ровно и — г линейных соотношений между величинами 41, ..., С„. В этом случае можно считать, что, скажем, величины С(, ., С, линейно независимы, а все остальные через них линейно выражаются.