1625915148-9c9f9a2bacef72b603fa281986313335 (843878), страница 9
Текст из файла (страница 9)
Вч"лим е П1чке понятие функции распределения дает зквивалеиг- нсс (!писание ьероп1Н; стг!Он с!рук! ч)зы случз!1ных вслпчни, ГО п р е,гелен и е 2. Птс1ь х св Р!, сйункция Рт (х) == Р ', ы: с (! 1) .=. х) назыаие1ся тру!тат,иег! Рпжчределеюи случайной геличипы =', 51сно, что Рт(.г) = )' Р,(х,) (Н .т,-. «1 и Р: (тб) = Р; (х,) — Ре (х, — -), где Рь(х — ) ==1!пир, (д). а'х ЕСЛИ СЧИтаГЬ, Чта Х, (Х»(... (Х,, П ПОЛОГКПтЬ РЕ(Хч) =-О, та Рт(х,)=Р,!х!) — Рт(хг !), 1=1, ..., Н1, След! кт1цие графики (рис. 5) дают представление о Ре (х) и Ра(ь) для биномиальной случайной вели«и!и!,!. Непосредственно из определеюен 2 след ет, что функция рас- ПРЕЛЕЛЕНИЯ РГ = РЕ (Х) ООЛадаСТ таКИМИ СВСЧ«ЭС~Вамн! (1) Рт ( — со) =О, Р (-,'- сс) = 1; (2) Р, (х) непрертывг!а справа (Рь (х+) ==Р,(х)] и кусочно-ио.
стоянна. ") Обычно в литературе вчесто выраисенпй «бернуллпевскал, биномнналь. и я, пусса!птпскал, гауссовская случайная величина», используемых апссь, говорится о «случайных! !«к!и!ынах, ныеюсчих распределение Бернулли, бнно.
миллю!ое, Пуассона, Гаусса». Гл. г. элелгеггткяггля теоеггя Вееоятггостегг Наряду со случайными величинами часто приходится рассматривать с,гучайньге векпгоры $=-(Ег, ..., е,), кохгпоиенты которых являются случайными величинами. Например, при рассмотрении мультипомпального распределения мы имели дело со случайным вектором т=(мг...,, н„), где тг=тг(ог) — число элементов в последовательности ог=(аг, ..., а„), равных Ьь г'=1, ..., г. Р гге) К" рП а ряс, 5. 1-1абор вероятностей Ра (л;, ..., х ) == Р ', го: ог (со) = л „ ..., ~, (ог) = х,',.
где л; с.: — Х; — области допустгмгых значении ес, называется рае- сгрейелениелг аропспноепгей епугайноео векпгора о, а функция Еа(х„..., х,) =-Р',гг: ьег (го)-:=.:л„..., ",,(го) ~ л',), где х; = — Лг, называется аггссссссггсегг распредепснгся епу юйноео весг- спора '-= (:-,, ..., е„), Так, для упомянутого вьггие вектора г ==(ог, ..., н,) рг(п„..., и„) =-.С„(п„..., и„) р',"...р",' (см. (2.2ри 2. Пусть "„..., с,— некоторый набор случайных величин, ггрггггггкгаюцгггх значения в (конечном) множестве Х ~ )кг. Ооозна- чпм через Х алгебру всех подмножесгв Х. О и р ад ел е н и е 3.
Случайные величины сг, ..., $, называ- ются незавиеисяыли (незавиеисяыми в совокупноспги), если для любых л,, ..., х,е=Х Р ггьг =- хг, ..., г~ = х,.) = Р (ьг = хг)... Р (ьг = лг)г илп, что эквивалентно, для любых В„..., В, ~ Х Р Дг е= В„..., С„е= В,) г=- Р сг сг Я В,)...
Р (е, Я В,). Ф с слкчхпныв валичпны и нх хлвхктапистики 4? Простейший пример независимых случайных величин можно получить, рассматривая схему Бернулли. Именно, пусть (г = «ы; ы=(а„..., п„), а;=О, 1), р(оэ) =Рь'4у" и 3;(м)=и; для о=(ан ..., а„), 1=1, ..., п. Тогда случайные величины $„Е„..., $„являются независимыми, что вытекает из установленной в ~ 3 независимости событий А,=(а: а,=1), ..., А„= (еп а„=1). 3. В дальнейшем нам не раз придется сталкиваться с вопросом о распределении вероятностей случайных величин, являю- шихся функциями 1($н ..., Е,) от случайных величин 3„..., к, Рассмотрим сейчас лишь вопрос об отыскании распределения суммы случайных величин Ь= 5+т(. Если ь принимает значения в множестве Х=(х„..., х,), а т1 — в множестве У=-(у„..., у~), то случайная величина =- ',+т) принимает значения в множестве Л=(г: г=х;+у;, 1 = = — 1, ..., л; 1'=1, ..., 1), и ясно, что Рг(г)=Р(с=г)=РД+п=г)= У„Р(,=хь п=у).
(и, л: ~,.+и,.=~) Особо важен случай независимых случайных величин а и и. Тогда Р(ь-— -хо «)=д ) =Р (З=х) Р (0=У ), и, значит, для любого г ~ Л Рс (г) = У Р1(х;) Рч(рт) =- У Рь(х1) Рч(г — х;), (3) (и, л. л,+к —.г) ~.=! где в последней сумме Р„(г — х;) полагается равным нулю, если г — х; ед У. Если, например, $ и и — независимые бернуллневские случай- ные величины, принимаюшие каждая значения 1 и 0 с вероятно- стями р и д соответственно, то Я = ',О, 1, 2) и Рс (0) = Р; (0) Рч (0) = сУг, Р, (1) =- Р, (о) Р„(1) + Р-, (1) Р„(о) = 2р,у, Р~ (2) = Рт (! ) Р„(1) = р'.
По индукции легко устанавливается, что если $„$м ..., $„— независимые бернуллиевские случайные величины с Р Д; = 1) = и. Р (с;=О) =и, то случайная величина ь= 5,+...+$„имеет биномиальное распределение Рс(й)=С„'Р'д" ', й=О, 1, ..., а. (4) гл > элемгнтхяная тсоюи веэоятностеп 4. Перейдем теперь к важному понятию математического ожидания, или среднего значения, случайных величии. Пусть (12, -~, Р) — (копечное) вероятностное пространство и Ц = '. (о>) — некоторая случайная величина, прюгнмаюгдая значения в множестве Л = (х„..., х»,'.
Если положить Л,=-(ы: '=-х>), >'=!... К то, очевидно, с л>ожно представить в таком виде: з(ы) = '~', л;1(Л;), где множества Л„..., Л образуют разбиение пространства Й (т. е. они попарно пе пересекаются и их сумма равна г>; см. п, Э э 1). Обозначим р,=РД=х;). Инту«>изно ясно, что если пзб>подать за значениями случайной величины,» в яч повторных независимых э«спериментах», то значение х, должно сс>Ветс>ься примерно р;л раз, (= 1, ..., /г. Таким образом, среднее значение, подсчитанное по результатам а эксперимеигов, есть примерно ! — (лп>х, +... +л)>»х»1 =,» р;хо Это замечание делает понятным следуюшее Оп р еде лен ив 4.
Ма>пеякиничсски.>> ожидание»> и;и срЮним внпчсиисм случайной величины $=~, х,l (Л;) называе>ся число » М' =.У,' х,Р (Л,). Поскольку Л; = ', сн с (ы) = х, ! и Рь (>й) = Р (Л;), то М', = ~ >й)>е (л;). Вспомнив определение функции распределения Ет = — ге (х) и обозначив ЛРе(х) =Ее(х) — Ре(х — ), находим, что Рт(хД=ЛРе(х,) и, следовательно, » М3 =,»',' х> ЛЕе (х») > =! Прежде чем переходить к рассмотрению свойств математических ожиданий, заметим, что часто приходится иметь дело с 49 4 ! сл! !хпныв величины и пх хкохктет!стпкп различными прсдсзавлеш!ями случайной величины $ в виде в (ы) = 'У, 'х!'!' (Вт), !=1 где В, +...+ В, = (), йо среди х,' могут быть, вообще говоря, одинаковые значения.
В этом случае М",, можно подсчитывать по формуле ~ х,'Р (Вт), не переходя к представлению (5), где все х! !=! различны. Действительно, х,'Р(Вт)=х; 'Я Р(Вт)=х,Р(А!) (н !!= !) (у! к "= с!) и, значит, Я х';Р (Вт) = ~ ', х!Р (А;). с-! 5. Сформулируем основные свойства математических ожиданий: 1) Если с~О, то М$=ъО.
2) М (а$+Ь!)) =аМ$+ЬМ!), а, Ь вЂ” постоянные, 3) Если 1~т), то М$~Мт). 4) (Мв( =.М)й!. 5) Если С и !) независимы, то МЦ!) =Мс М!). 6) (М / $!) !) ' =- Мс' Мт)' (неравенство Кои!и — Буняковского). 7) Если к=-) (А), то М~ = Р(А). Свойства !) и 7) очевидны, Для доказательства 2) пусть Тогда ас+Ьй= а ~х((Л; ПВ)+ Ь ч~дт) (А! П В) = 1, / 1,! = 2 , '(ах; (- Ьуу) 7 (Л! Д В, ) с,! М (а$+Ь!)) = ~~ (ах;+Ьу~) Р (Л! П Вт) = и ! = ~ ах;Р (А;) + ~ч '„Ьу!Р (Вт) = ! = а ~ , 'х!Р (Л;) + Ь 'У', у! Р (В!) = аМв + ЬМт).
чо гл ь элементзвнхя твоэпя ввэоятноствн Свойство 3) следует нз 1) и 2). Свойство 4) очевидно, по* скольку ,' М5; = ~ ,') , 'х; Р (А;) ! ~ ~ч , '( х;,' Р (А;) = М ~ $ (. Лля доказательства свойства 5) заметим, что Мсп = М,~ 'У, 'х;1 (А,)', (~ 1э! (В!)~ = =М ~ч',х;у,! (А Й В,) =~~«;У~Р(А ПВ)= ,! с ! = ~ «;ртР (А ) Р (В!) = ь/ =(~«,Р(А;)) (~р! (В,)0=М: М, где мы воспользовались тем, что для независимых случайных ве- личин события А;=(сн 5(го)=х) и В,=(ои т)(в)=уД являются независимыми: Р (А; () В,) = Р (А;) Р (В!) Чтобы доказать свойство 6), заметим, что Е'=~х,'У(А;), т('=~у';!(В,) МР= У,'х)Р(А;), Мпэ=~',у,'Р(В!).
Пусть М'э ) О, Мц' ) О. Положим ч $=р,—,, Ч=-,.— р ьц' 1' м~~' Поскольку 25Ч( ~'+Ч', то 2М ~ Ь~~ =М$'+Мз,'=2. Значит, М ~ за ч, = 1 и (М ~ Ет( ~) ~ М ~э, М г(э Если же, скажем, Мээ =О, то это означает, что ~ «,'Р (А;) =О и, следовательно, среди значений, принимаемых случайной величиной с, есть значение О, причем Р(ы: ~(ы)=О)=-1. Поэтому, если по крайней мере одно из значений Мсэ или Мпэ равно нулю, то, очевидно, М~$ц,'=О и, следовательно, неравенство Коши— Буняковского также выполняется, Замечание, Свойство 5) обобщается очевидным образом на любое конечное число случайных величин: если $„..., ь, независимы, то М$ ...$,=М$,...М$,.
$ !. случлпные Величины и их хлРхктеРистпкп 5! Доказательство здесь то же, что и для случая г = 2 илп по индукции. П р и м е р 3. Пусть Ч вЂ” бсрнуллпевская случайная велпч1ши, приниыаю2цая значения 1 и О с ее,юятностями р и 2). Тогда Ме=1 Р(е= — 11+0 Р(с=О)=р. Пр имер 4. Пусть С1, ..., с„— и бернуллиевскпх случайных величин с Р Я! = 1,' =-р, Р (е, =07 =7), р+22=-1. Тогда для ~п — ь! Г 1л находим, что МЯ„= пр. К этому результату можно прийти и другим путем. Нетрудно понять, что М5„не изменится, если предположить, что бернуллиевские случайные величины В„..., $„независи21ы, При этом предположении, согласно (4), Р(5„=й) = С,',Р~7)" ", й=О, 1, „., и.
Поэтому Мс с, йР(ч„=ь)= х,, йС,',р'д Р Ч" Е! (72 — 72)1 1=22 и !1)э Х е= ! 17р Ъ ! ' Л" Ч'"!) ! !и — 2 ',! р, -О! Ич-1) — 1/г — 1И! — р7ч.!. !) 7 7! Кй — Ц вЂ” О! н, следовательно, М2Р = У 2),Р (В ) = У- 17) Р (р,), 1 ! Но ясно также, что 2р(Э(е2)) = Х~ !р(Х1) 1'(А1). (9) Впрочем, первый способ приводит к результату быстрее негкели последний. 6.
Пусть Ч= ~', х11(А ), где Л; =(Е2: $(2э) =х1), и !р=2р($(Е2))— некоторая функция от е(11). Если В/=(е11 ')2(Ь(о1)) =!7у) то „д(.2)) =~;д7((ву), / 52 гл и элвмситкянля твоипя ввгоятноствп Поэтому наряду с (9) для 'подсчета математического ожидания сл)чайной величины гр=ц:(с) моктпо пользоваться Формулой Ч~р (й) = '(' ( ) Р. (т ) 7. С.тедПощее важное понятие дисперсии случайной селичпны 5 характезизуст степень разброса значений ~ относительно ее математического ожидания. Определение 5. хТпснерсисй случайпсяй величины "." (обозначагг ся 0:.) называется величина 0= =- М (ь — М;)". Вели пна о= — , ')л0» называется стандар ным отклонением.
Поскольку М(й — М"~'=-М( з — 2ь М='+(М:-)а) ==М„'а — (Мй)-', то 0;- =- Мтэ — (Мв)'. Ясно, что 0$ =-:- О. Из определения дисперсии тгноке след) ет, что 0(а+Ь$) =- ИЭ'-, а, 6 — постоянные, В частности, 0а=.О, 0 (бс) = Ьа0с. Пусть с и ц — две случайные ьелпчины. Тогда 0 (з + ц) = М ((в — М -) + (11 — Мц)) а =- = 0с+ 0 1+ М (з — М") (1 — Мц). Обозначим сок Я, т() .-- М (с — М'=') (т( — М11). Эта величина называется копорпациж) случайных величии " и ц, Если 0с ) О, 0ц ) О, то величина р(ь, ц)==-.,— „' — ' — ~ У О" (Зц называется ко ффгп(иенпкьч корреляции случайных величии с н ц.