Б.В. Гнеденко - Курс теории вероятностей (1115334), страница 29
Текст из файла (страница 29)
Ь ~ О при Ус=1,2,...,п. Ьке Ькз ... Ькк Оч евнино, что Ь.„=О~ . Величины Ьуа при У! Ф у называются смешанными центральными момен- тами 2-го порядка величин Р и $„; очевидно, что Ь = Ьку, Следующая функция от моментов второго порядка Ьц ц УгЬиЬ" носит название коэйлууициента корреляции между величинами с,. и е Коэффициент корреляции является мерой силы связи (линейной связи) между величинами $, и $ .. Величина коэффициента коррепяции, как это следует из неравенства Буняковского, заключена в пределах ( — 1, +1). Значения +1 достигаются только в случае, когда $ и П связаны линей- ной зависимостью.
В дальнейшем мы увидим, что дпя н е з а в и с и м ы х величин коэффи- циент корреляции равен нулю. П р и м е р 4. Найти дисперсию двумерной случайной величины Я„Е2), рас предепенной по невырожденному нормальному закону 1 р(х,у) = —— Х 2я0202~/Т вЂ” гт 1 ) (х — а)2 (х — а) (у — Ь) (у — Ь)2 Х ехр !— — + 2(1 — г') о ~ 0102 02 169 25. Теоремы сб ожидании и дисперсия Согласно формуле (4) и результатам примера 2 настоящего параграфа и примера ! а 23, находим,что сгст =о,, Ойэ =о . Далее, Ь з э = Ьэ, = О(х — а) (у — Б) р(х, у) дх ду = (г — ь!' 1 — (е э'» Ыу Х 2нозоэх/1- г 1 !»х — а у — Ь)э) Х ((х — а)(у — Ь)ехр» — — ( — — г у! )дх.
2(1 — «') о, оэ Заменой (* »») у — Ь т= оэ / 1,2 о, выражение для Ь, э приводится к виду г»»» 1 Ь!, = Ь,, = — О(о»оэх/! -г'та+го,оэт')е де дт 2л 2 го»ог г з — — з о»оэч! — г Гтэс З дт«е З С(г+ ~ Х 2я 2я Х)'те а»т(ге да=го,о,. Отсюда находим, что ).((х -а)(у - Ь)р(х,у)дх 4 М(й» Мй»)(й, - МСэ) «в Мы видим, что двумерный нормальный закон (так же, как и одномерный) полностью опрсдемлстгя заданием математического ожидания и дисперсии, т,е. определяется заданием ляти величин Мс»,Мс»,0й,,0~ и г. й 25. Теоремы о математическом ожидании и дисперсии Теор е м а 1.
Математическое ожидание постоянной равно этой постоянной. Д о к аз а т ел ь с т в о. Постоянную С мы можсм рассматривать как дискретную случайную величину, которая может принимать только одно Гп. 5. Числовые характеристики 170 значение С с вероятностью единица; поэтому МС=С 1 =С. Теорема 2. Математическое ожидание суммы случайных величин равно сумме их математических ожидании: М($+ ц) = М$+ Мц. До к аз а т ель с т в о. Рассмотрим сначала случай дискретных случайных величин «и ц. Пусть а,, ат,..., ап,... — возможные значения величины ч и р,, рг,..., рп,...
— их вероятности; Ь,, Ьг,..., Ь«,... — возможные значения величины ц и ц,, д„..., Ч»,... — вероятности этих значений. Возможные значения величины $ + ц имеют вид ап+ Ь«(К и = 1, 2,...). Обозначим через рп„вероятность того, что $ примет значение ап, а ц— значение Ь«. По определению математического ожидания М(«+ц)= г, (ап+Ь»)рп«= Е г. (а„+Ь»)оп«= п,»=1 п=г»=1 г, ап( Х рп„) + Й Ь„( г. рп ) п=г «=г »=1 п=г Так как по теореме о полной вероятности и' Рп« рп И и' рп» Ч« п=1 то Х а„Х рп = 2 апрп=М« п=г «=г п=г ( Й рп ) = Й Ь«а»пМц. »=г п=~ »=1 Доказательство теоремы для случая дискретных слагаемых завершено, Точно так же в случае, когда существует двумерная плотность распределения р(х, у) случайной величины ($, ц),по формуле (3) а 23 находим: МГ = М(Г + ц) = /хдрт(х) =/х(/р(г,х — г)Нг)йт = = //хр(г, х — г) дг Их = //(г + у) р(г, у) дг ду = = //гр(г, у) дг Иу + //ур(г, у) дг с(у = /грг(г) дг + /ур„( у)ду = Мс + Мц.
В общем случае теорема 2 будет доказана нами в дополнении 1. С л е д с т в и е 1. Математическое ожидание суммы конечного числа случайных величин равно сумме их математических ожиданий. М(4 «чг + . + чп) = М«1 + Мчг +... + Мчп. 5т! а 25. Теоремы об ожидании я дисперсии Действительно, в силу только что доказанной теоремы М(»! +»! +...+»„)™»! +М(»! +»з+ е»и) =М», ьМ», +М(»з+...+»„) =...=М»! +М»! е...+и»„. С л е д с т в и е 2.
Математическое ожидание суммы »„ = »! + »! + + »„, где и — случайная величина, принимающая лишь иелочисленные значения, случайные величины»,, »т,... не зависят от и, математическое ожидание и конечно и ряд М~»„~Р(д > й) !е= ! сходится, существует и равно М»„= Б М»,Р(д>». !'=! Д о к а з а т е л ь с т в о. Действительно, условное математическое ожидание, при условии, что д = к, равно М(»„~д=й) =М», +М», +...+М»,.
Безусловное математическое ожидание М( = 2, МВ ~д=й).Р(д=й)= - Р(д=И ~М».= к=! а ~=! т=! = Х М»! Х Р(и=К)= Й М»,Р(д>!'). /=! ' к=!. т=! Если слагаемые»!»г, »з,... одинаково распределены, т.е. если РЦ, < х)= Р(»з < х) =... =Р'(х),то М», = М»! . Ми. Действительно, М(„= Б Р(и=й) Б М»! = М», Е кр(и= И =М»,.ми, к=! !=! к=! Прим ер 1. Число космических частиц, попадающих на данную площадку, есть случайная величина д, подчиненная закону Пуассона с параметром а, каждая из частиц несет энергию», зависящую от случая. Найти среднюю энергию Й, получаемую площадкой в единицу времени.
Согласно следствию 2 имеем: Ма =М» Мд=аМ». Гл. 5 Числовые характеристики 172 П р и м е р ". По некоторой цели стрельба ведется до и-го попадания. Считая, что выстрелы производятся независимо друг от друга и вероятность попалания при каждом выстреле равна р, найти математическое ожидание расхода снарядов. Обозначим через („ число снарядов, потраченных от (!с . !)-го до )с-го попадания. Очевидно, что расход снарядов на и попаданий равен 3=~ +(т +...+$„ и, следовательно, Мс = Мч! + Мсз +...
+ Мел. Но М1! = М~! =... = М~л и р ! мр, = х 7«7 - р = —, =— я — ! я=о (! — Ч)' следовательно, М$ = и!!р. Т е о р е м а 3, Математическое ожидание произведения независимых случайных величин е и г! равно произведению их математических ожиданий Доказательство, )5сли величины ч и ц дискретны; а,„а, ..., а„,... — возможные значения Е и ры рз,..., ря,... — вероятности этих значений; Ь,, Ьз,..., Ь„,... — возможныс значения г! и а!, аг,... ..., !7л,... — веРоЯтности этих значений, го веРонтность того, что $ пРимет значение аа, а ц — значение Ь„, равна р„!7л. По определению математического ожидания Мрц= Х ааЬлряал = Х г- аьЬлряц„= ь,п я=! л=! = ( Х акре ) ( Х Ь„!7„) = МЕМП.
ь=! л =- ! Лип!ь немногим сложнее доказательство для случая непрерывных величин, провести его мы предоставляем читателю. С л е д с т в и е !. Постоянный множитель можно выносить за знак математического ожидания Это утверждение очевидно, так как, каково бы ни было е, постоянное С и величину Ь можно рассматривать как независимые величины. !73 а 25. Теоремы об ожидании и дисперсии Т е о р е м а 4. Дисперс<<н постоянного равна нулю.
До к а з а т ел ь с та о. Согласно теореме 1, ОС = М(С вЂ” МС)' = М(С вЂ” С)' = Мб = б. Те о р е м а 5. Если с — постоянное, то ос»=с О», До к азат ель ство. В силу следствия из теоремы 3 0с» = М[с» — МсЦ! = М[с» — сМЦз = = Ма! [» — М»]! = с! М[» — МЦ! = с! О», Т е о р е м а 6. Дисперсич суммы независимых случайных величин «и ц равна суисме их дисперсий о(» ч ц) = о» + оц. До к а з ат ел ь с т в о. Действительно, 0(«+ ц) = М[«ч ц - М(» ч ц)]' = М[(» — МЦ е (ц - Мц)]' = = о»+ оц+ м(» — МЦ(ц — мц), Величины» и ц независимы, поэтому независимы также величины » — М«и ц — Мц; отсюда м(» — м») (и — мц) = м(» — мЦ . М(ц — мц) = о. С л е де т в и е 1.
Если»,, »т,..., »н — случайные величины, каждая из которых независима от суммы предыдущих, то о(ц ц ° .. »„)=оц+оц ...»0»„. С л е д с та и е 2. Дисперсия суммы конечн<>го числа попарно независимых случайных величин»,, «з,..., »„равна сумме их дисперсий. До к аз а т е л ь с т в о. Действительно ч 0(»!»2 ' ' ' »л) ( (»» «>с)) »=-! о о =М Х Х («„— М»,)(«т-м»2)= Х 2.М(»„-м»„)(«,.
-М»2)= Х О»»+ Х М(»„— М»„)(». — М».). »=! >сит Из независимости любой лары величин «» и» (й ч=т) вытекает, что лри йФ) М(», М»„) (»у — М»2) = О. Этим, очевидно, доказательство завершено. Гп. 5. Числовые характеристики 174 случайной величины П р и м е р 1.
Нормированным уклонением $ — М$ называется отношение ,/01 т $ — Мр~ Доказать, что О = 1, ~ 5-1 Действительно, е и Мк, рассматриваемые-как случайные величины, независимы, поэтому в силу теорем 5 и 6 ~ — МР ч 05+ 01-мЦ~ 01 '( ) рр / ор ~ц П р и м е р 2. Если 3 и Ч вЂ” независимые случайные величины, то 0(К вЂ” ц) = Оа+ От). Действительно, в силу теорем 5 и 7 О( — тт) = ( — ! ) 0 тт = Отт ОЯ вЂ” тт) = Ое + Отт. Р=Д тттг+..+Д . Так как Мнк = 0 'Чк+ 1 -Рк =Рк и Онк = Мнк 1мтгк) = т) чк + 1 .Рк — Рк = Рк11 — Рк) = Райк то доказанные теоремы позволяют заключить, что М1" =Рт Рг .
+Рв и ОИ=Ртт7т +Ргчг + +Рпт7п. П р и м е р 3. Теоремы 2 и 6 позволяют весьма просто вычислять математическое ожидание и дисперсию числа д наступлений события А при и независимых испьпаниях. Пусть Р„есть вероятность появления события А при н-м испытании. Обозначим через дк число появлений события А при 7т-м испытании. Очевидно, что дк есть случайная величина, принимающая значения 0 и 1 с веРоЯтностЯми т1 = 1 — Р и Рк соответственно.
Величина и, таким образом, может быль представлена в виде суммы 175 5 26. Моменты Для случая схемы Бернулли р» = р и, следовательно, Мд = пр и 1гд = про. Заметим, что отсюда д д рц М вЂ” =р; Π— =— и п и а 26. Моменты Если и = О, то момент называется начальным. Легко видеть, что начальный момент первого порядка есть математическое ожидание величины $. Если а = М», то момент называется центральным. Легко видеть, что центральный момент первого порядка равен нулю, а центральный момент второго порядка есть не что иное, как дисперсия.
Начальные моменты мы станем обозначать буквой и», а центральные— буквой д», указывая в обоих случаях нижним инпексом порядок момента. Межцу центральными и начальными моментами существует простая связь. Действительно, л л дл = М(» — Мс)" = 2' С»( — Мс)" ~М$~ = 2' С»( — Мс)" »и». (2) »=о »=о Так как и, = М$, то л дл = Х ( — 1)л "С„"и»и", + ( — 1)" (п — 1) (иг)", »=2 (3) Выпишем эту связь между моментами для первых четырех значений и: до =1, и, = О, дз и т (З') дз = из — Зизи1+ 2и1, д4 = ие — 4изи, + бизи1 — Зим з е Эти первые моменты играют особо важную роль в статистике.