Ю.П. Пытьев, И.А. Шишмарёв - Курс теории вероятностей и математической статистики для физиков (1134036), страница 17
Текст из файла (страница 17)
Найдем М$ и 11$..Введем случайные величины»,, равные 'числу успехов при й-м испытании в серии нз и испытаний Бернулли. Если вероятность успеха прн каждом испытании равна р, то»» принимает два значения 0 и 1 с'вероятностями: РЦ».= Ц=р и Р(й»=0)=д=1 — р, й=1, 2, ..., и. Поэтому М$»=1 р+О д=р, З$»=М»»» — (М$»)'= =1 р+О д — р'=р — р»=рд. Число успехов» в серии из и испытаний равно, очевидно, сумме $=$»+»»+...+$,. Отсю- м да ввиду независимости $» и свойств 1) и 7) имеем ф » Ф 'Ф М$=Я М$»=ри, Я=1»/$»=ирд.
(30) »=! » 1 3'. Условное математическое ожидание В $8 была определена условная функция распределения Р,(х~В) =Р($<х~В) случайной величины с при условии В, если Р(В))0. Математическое ожидание '(или среднее значение) $ по отношению к этому условному распределению называется условным математическим ожиданием.
Такйм образом для дискретных случайных величин, и .МЯ~у)=М(Ц~т1 =у) = ) хра(х)у)дх ' (Зб) л Р,(х) = Е Рад1В4).Р(В ) ! 1 немедленно получим. л МЦ=~) Р(В~)М(3~В,). (36) ь! Поскольку правая часть равенства (36) имеет вид математического.ожндання новой дискретной случайной величины, принимающей значения М($1В!,) с вероятностями Р(Ва), то естественно записать (36) в виде М1 = М(М(ЦВ„)) ..
(3» Точно так же на основания формул (34) н (Зб) полуяаются равенства: М$ = ~) М Я/у!) д!, (38) в дискретном случае н М$= ~ М($/И)рч(Р)4Р в непрерывном. В самом деле, в первом случае умножнм равенство (34) на д! н просуммнруем по всем 1', получим, пользуясь формулой (41) $8, М ($/У!) 4! = ~ ~~ х!Ры = ~, х!Рь — — М$.— т ! )=!1=1 й=! 93 для непрерывных случайных величин. Понятно, что так определенные условные математические ожидания обладают всеми свойствами 1) — 4) обычных математических ожиданий, однако у ннх имеются н некоторые специфические свойства, связанные с возможностью применения к ннм различных вариантов формулы полной вероятности.
Так, если имеется полная группа попарно несовместных событйй В», 1=1, 2, ..., и, н Р!(х1Вь) —. соответствующие условные функции распределения, то Ввиду равенства Во втором случае умножаем (45) на р„(у) и, пользуясь ра венством (37) $8, интегрируем от — оо до со М ТУ) Рч(у) г(У = ~ ду ~ хРч (У) Рз (х!у) Йх = ( х'~(х ( р(х,у)ду= ( хрз(х)йх =М$.
Проведенные выкладки оправданы при условии, что ряд (34) или интеграл (35) сходятся абсолютно. ' Рассмотрим теперь условные матеМатические ожидания М($(у,) или М($(у), определенные формулами (34) или. (35), как функции аргумента у. Этот аргумент — значения случайной величины ть и поэтому мы можем рассматривать М($(у;) .или М(3(у) как новую случайную величину, зависящую ойределенным образом от ц, и обозначать ее М($(т)). При таком подходе правые части равенств (38) и (39) означают в силу теоремы ! математическое ожидание функции М($(п) от случайной величины ~ и, следовательно, могут быть 'записаны в виде Мз=М(М(Ц„)).
' (40) Формулы (37) и (40) . находят многочисленные применения в теории вероятностей и математической статистике. Условное математическое ожидание М($(т!), рассматриваемое как функция ц, часто в статистике называется функцией регрессии величины $ на ц. Если, например, М(э(ц) = =а1ц+ам то говорят о линейной регрессии $ на ц, а а1 и аз называют коэффициентами регрессии. Рассмотрим случайную величину $, являющуюся индикатором события А: 1, если ееп А, т. е. если А происходит, О, если в~А, т..е. если А не происходит, 4 — дискретная случайная величина, М$=! Р(А)+О Р(Х)= =Р(А).
Итак, Мй=Р(А) и условная вероятность М($(1!) =Р(А(т!), где Р(А(т!) — условная вероятность события А при данном .значении ц. Равенство (40) в этом случае выглядит так; Р(А) =М(Р(Л(ц)). (4!) 4'. Моменты векторных случайных величин Этот пункт посвящен изучению моментов многомерных случайных величин. Специфические свойства моментов векторных случайных величия связаны с зависимостью координат случайного вектора. Определение 4. Математическим ожиданием вектора $= = ($ь -., $,) называется вектор М$= (М$ь ..., Ме„), (42~ составленный из математических ожиданий координат. Дисперсией вектора 5= Ць ..., $,) называется вектор Р5= (Щь ..., Р:.), (43г составленный из дисперсий координат.
Для многомерных случайных величин справедлив аналог теоремы 1, так что, например, если 1(хь...,х,) — произвольная функция такая, что г1.=1(й) — новая случайная величина, то Мц = М7($) = ) ... ~ 7(х„..., х„) р(х,„..., х„)г(х,... г(х„(44~ 00 при условии, что интеграл (44) сходится абсолютно (здесь. р (хь ..., х,) — плотность. вероятности случайного вектора ь= ($ь -, Ь ) ). В частности, л л М Д аД,) = М(а, $) = ~ азМ$ = (а, М$), яеп ь-1 где а= (аь ..., а,) и (, ) — знак скалярного произведении в й„, а если координаты $ независимы в совокупности, то М(з1 ... ~„) =М$! ...
М~„. Важной характеристикой и-мерной случайной величины $ является так называемая матрица ковариаций, или дисперсион-- ная матрица: 'а,'~ = сот Я~ М Я; — М$;)(ьг™$у)1 = =М~Дг — М$,М$ь 1,1=1, ...,и. ' (45) На главной диагонали в матрице ковариаций стоят дисперсии: ан Р$;; ац=.ап называется также корреляционным моментом случайных величин 5. и $ь В силу. определения (45). ясно, что если ~; и 5; независимы, то ац— = сочСД;=О.
Таким образом, 'условие ацФО является достаточным прйзнаком зависимости ~~ и ~ . Обратное утверждение неверно: из равенства нулю сот ц; не следует независимость $» и 5;. Поскольку при любом ' с Р(е;+ с$;) = Р$;+ стР$;+ +2с соч $;5;) О, то, полагая с= — (сот К;"т;) Щ~, найдем Р$; — (сот т1~,)ЧР(,) О, т. е. 1соч~Д,~ <)'РКЩ. Отсюда следует существование матрицы ковариацнй в случае; когда Р$;(оо, 1=1, 2, ..., и.
95 Вспоминая доказательство равенства Бьенеме (29), получим для любого вектора $=($», ..., 5,) с конечной дисперсией: П л Л 0~~ $,.) — ~; 0$»+ ~~; соч$Д,. (46) »м» Из определения. (45) видно, что корреляционный момент характеризует.не только зависимость величин $» и 5ь но и их рассеивание. Для характеристики чистой (линейной) связи между 5» и 5; вводят так называемый коэффициент корре- ляции 96 — — »47» г»» = Мы видели, что»сот $»я;~<~/0Ц,Рг», так что ~г»»~~1, гп= 1, », 1'=1, ..., л.
На основании равенства (46) находим, (»=)"Ря о ='г'Р$ ) 0 ~ — ' ~ — ) =2 (1 ~ гп) ~ ~О, . lЫ. Ь~ ~ а; »»») отсюда г»у=~1 тогда и только тогда, когда 0(й»/о»~5»/о;) = ='О, а это, в свою очередь, в силу свойства 5) дисперсйи возможно лишь тогда, когда случайная величина т)=$»1о»~ $~/о; равна постоянной с вероятностью 1. Таким образом, 5»=с»$;+р (линейно связаны), если й только если г»»=~1.
Если г»»)О, то говорят, что между я» и 5; положительная корреляция, и это означает, что 5» и $; имеют тенденцию возрастать и убывать одновременно. При гц<О ситуация обратная. Если го=О, то говорят, что случайные величины я» и $, некоррелированы, 'и этому свойству можно придать определенный геометрический смысл. С этой целью рассмотрим множество случайных величин с конечным моментом второго порядка Мзз<оо.
Из М$'<со, М»)»<со следует, что при любых постоянных а и Ь М(ая+Ь»))'<со, поэтому'множество таких случайных величин относительно операций сложения и умножения 'иа число образуют линейное пространство 1.. Определим в 1, квазискалярное"произведение (5 ц) =Щ~ (48) М$») обладает всеми свойствами скалярного произведения, за исключением одного: из М '=О не следует 5=0, а следует лишь, что 5=0 с вероятностью 1. Это обстоятельство не мешает, однако, дать следующую геометрическую интерпретацию: матрица ковариаций (45) является матрицей квазискалярных произведений случайных величин ($» — М$»), 1=1, ...,а. При этом некоррелированность означает ортогональность в смысле квазискалярного произведения (48).
Заметим, что ($» — М$1) является истинно «случайной» частью величины 21 и матрица ковариаций характеризует связь (статистическую) именно этих «случайных» частей. Равенствоь ~г11.! ='1 означает, что $1 — Мв„и $; — М$; линейно зависимы в построенном линейном пространстве Е.
Примеры. В разделе курса, посвященном математиче- СКОЙ СтатИСтИКЕ, МЫ будЕМ 'ПОСтОяННО ИСПОЛЬЗОВатЬ тл2-раепределение (распределение Пирсона), /л-распределение (распределение Стьюдента) и Р», -распределение (распределение Фишера). В связи с этим вычислим здесь плотности этих распределений и' их различные числовые характеристики. 1. тл2-распределением с и степенями свободы называется распределение случайной величины Х„2=312+...+$„2, где все 2;.енЛ1 (О, 1) и независимы. Найдем плотность распределения тл2.
Случайный вектор В= (я1, ..., ял), имеет плотность р(х„...,х„) = 1/(2п)"~2ехр ! — — ~ хр ~, поэтому в силу 1=1 (44) 1 ~ 22 1. 1 е ~1 ' ' ' ~(лл' (49) Введем сферические координаты: Х1 = Р соз 1Р1, яр= р з!п 1р1 сов 1р2, х,=р зйп 1р1 з'1п ер2 ... 21п 1р ь — и/2~1р1~п/2, 1=1,...,п — 2, — п~<рл 1~п.. Тогда и и Рв и ' 2 2 ,Р(х) = „„~р"-'е 1(р2 ~... ~,/(1р,,...,ерл 1)1(1р, о л л л-1 4 1О. П.
Пытьев, И. А. Швшыврев аол а и1 6р„х= „о ) р-е Йр, и ( )и о (50) где о, 1 — площадь поверхности единичной (л — 1) -мерной сферы; а, ~ легко вычислить исходя из формулы (50). Поскольку Р(+оо) =1, то аа . Оа и l — — 1 — (,"„и.' ~~ — (,„и.'г о Таким образом (52) р а(х) =Р" (х)-= Пользуясь (52), найдем М)(ио и ).'))(„' +1 и Г ( — +1) =а, з.аког ~ — ") (53) аа и х МХ.'= ' 1х'е '-'( = а ~ог( — "); поскольку Г(з+1) ='зГ(з); Ву' = М (1(.')о — (МХ')о = М Ы)оа — л*» и, так как ° а и х а +1 2" г( — ) о 2„мд ""= "( †".) Подставляя а, 1 в (50), находим окончательно Ух Р(х) = „.
~ р"-'е Ыр, х,. О. (51) 2 Г ~ ) о Поскольку,,очевидно, Р(т,'<х)=0 при. х~О, то Р(х) =О, х~О. Отсюда и йз (51) . — +2 Г ~ — +2) =и'+ 2л, '""(-") (54) .то .1)Х =2л 2 (55) Далее, Рч (х) = Р Хл ( х = Р ()(~ ( хз л) = Рх~ ) (хз и). Поэтому согласно (53) плотность распределения и равна р„(х) = Рч(х) = рх~ (хэл) 2ха = л 2 л л 3$ й х-!е г х)0 л 2' 'г( —,") (57) х~О Ввиду (57) второй интеграл в (56) исчезает, и мы находим 2 л р! (х) = 2 г( ) л л ! 2 2 2 л ае л — ! 112 г( О 2 Г( — ) т'2л в.