А.Н. Ширяев - Вероятность-1 (1115330), страница 11
Текст из файла (страница 11)
Обозначим р! = Р(С =х!). Интуитивно ясно, что если наблюдать за значениями случайной величины С в «и повторных независимых экспериментах», то значение х! должно встретиться примерно ар; раз, ! =1, ..., й. (Полезно сопоставить это высказывание с утверждениями законов больщих чисел, формулируемых далее в Я 5, 12.) Таким образом, «среднее значение» этой случайной величины, подсчитанное по результатам и экспериментов, есть примерно — (п р!к! +... + и рьх»1 = ~~! р;хь ! Это замечание делает понятным следующее Определение 4. Математическим ожиданием или средним зна- Ф чением случайной величины С = 2 х!г(А!) называется число Е4 = ~ к; Р(А;).
(6) Поскольку А; = (ин С(ь!) = х!) и РЕ(к!) = Р(А;), то Е~ = ~ хгре(х;). !=! По индукции легко устанавливается, что если С!, Сэ, ..., С„ — независимые бернуллиевские случайные величины с Р(с! =1)= р, Р(с!=!!)=Ч то случайная величина !, = с! +... +с„имеет биномиаяьное распределение 54. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ХАРАКТЕРИСТИКИ 59 Вспомнив определение функпни распределения РС = Ре(х) и обозначив ~Ре(х) Рс(х) Рс(х ) находим, что Ре(х!) = 45Р4(х!) н, следовательно, Е5=~~ х!Врс(х!). (8) Прежде чем переходить к рассмотрению свойств математических ожи- даний, заметим, что часто приходится иметь дело с различными представ- лениями случайной величины 5 в виде 5(ы) = ~ х,'1(В;), !=1 где В! + ...
+ В! = й, но среди х,' могут быть, вообще говоря, одинаковые значения. В этом случае Е5 можно подсчитывать по формуле 2 , 'х,'Р(В;), г=! не переходя к представлению (5), где все х; различны. Действительно, х'Р(В!) =х; ~~! Р(В;) =х;Р(А;) !!чу!=м1 1!чк'=х!! и, значит х'Р(В!) = ~ х;Р(А;). г=! !=1 5. Сформулируем основные свойства математических ожиданий: 1) Если 5 > О, то Е5 > О. 2) Е(а5+Ьг)) =аЕ5+ ЬЕг1, а, Ь вЂ” постоянные.
3) Еслибы>г), то Е5>Е41. 4) 1Е5) < Еф. 5) Если 5 и !) независимы, то Е(г) = Е5 Ег). 6) (Е)цг)1)з ( Ест Ег)т (неравенство Коши — Буняковского, называемое также неравенством Коши — Шварца нли неравенством Шварца). 7) Если 5=7(А), то Е5=Р(А). Свойства 1) н 7) очевидны. Для доказательства 2) пусть х!7(А!), г) = ~~! у!/(В!). ! ! Тогда а5+ьг1=а ~ ~хг)(Агг!В;)+ь ч ~у;7(АгпВ!)=~~! (ах!+ьу;ЯА!лВ;) !.! ч! ГЛ. 1.
ЭЛЕМЕНТАРНАЯ ТЕОРИЯ ВЕРОЯТНОСТЕЙ Е(а~+ Ьт1) = Ч ~(ах! + Ьу!) Р(А; П В;) = =~ ах(Р(А!)+ ~) Ьу!Р(В,) = ! ! =а ~~) х(Р(А;)+Ь ~ ~у;Р(В!)у аЕС+ЬЕР). ( ! Свойство 3) следует нз 1) н 2). Свойство 4) очевидно, поскольку (Е()=/~,ду(АА/Е! )д)Р(АА=Е)(). ! ( Для доказательства свойства 5) достаточно заметить, что В!В=В(~'д((АА) (~' у((ВА) = ! ! =Е ~ Чх(у;1(А(Г)В;)дд~ ху!Р(А(Г)В;)де д! с! (у~у(ВАР(ВА= (ф дР(А )) (В ' Е~Р(ВА) =ЕЕ-ЕЕ, !.! ! ! А; =(ш: Цш) =х!) н В1 =(ш: Р1(ш) =у!) являются независимыми: Р(А; й В;) = Р(А;) Р(В!). Чтобы доказать свойство 6), заметим, что 42=к х2!(А!), В)з=Е И,'.1(В!) Е~з = ~~) хзР(А!), ! ЕР)з = ~~' УзР(В!), ! Пусть Е(з >О, Ее)з > О.
Положим б ~/Е(~ Поскольку 2)Й) < АЗ+В!В, то 2Е(Я! (Е)Щз< Ест Ег)з. Е < Е~з + Ег)з = 2. Значит, Е )Я < 1 н где мы воспользовались тем, что для независимых случайных величин С н )) события й 4. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ХАРАКТЕРИСТИКИ б! Если же, скажем, Есз=О, то это означает, что 2 хйР(А!) =0 и, сле! довательно, среди значений, принимаемых случайной величиной С, есть значение О, причем Р(ин с(и!) =0)=1. Поэтому, если по крайней мере одно из значений Еоз или Ег)з равно нулю, то, очевидно, Е!Сг)1=0 и, следовательно, неравенство Коши — Буняковского также выполняется. Замечание. Свойство Б) обобщается очевидным образом на любое конечное число случайных величин: если 4!, ..., Е, независимы, то Ес! ... с, = ЕЕ!...
ЕЕ,. Доказательство здесь то же, что и для случая л = 2, или по индукции. Пример 3. Пусть с — бернуллиевская случайная величина, принимающая значения 1 и 0 с вероятностями р и д. Тогда Ес=1 Р(с=1)+О.Р(с=О)= р. Пример 4. Пусть с!, ..., с„— л бернуллиевских случайных величин с Р(с! = 1) = р, Р($ = О) = д, р + д = 1. Тогда для 5л=с!+" +6 находим, что Е5„=лр.
К этому результату можно прийти и другим путем. Нетрудно понять, что Е5„не изменится, если предположить, что бернуллиевские случайные величины С!, ..., 4„независимы. При этом предположении, согласно (4), Р(5„=й)=С~рад" ~, й=О, 1, ..., л.
Поэтому л л =~ 'йС„'Р'4" '=Ч 'й. е! (л — А)1 э=о а=о Впрочем, первый способ приводит к результату быстрее, нежели последний. Е5„=Ч ~'и (5„=й) а=о и =лр ~) 4=! (п — 1)1 з-! !к-!1-!з-!! (А — 1)! ((л — 1) — (А — 1))! Р 4 и-! =ар ~~ р !) — лр. с~ Л((л — Ц вЂ” 1)1 У=о ГЛ. 1.
ЭЛЕМЕНТАРНАЯ ТЕОРИЯ ВЕРОЯТНОСТЕЙ 62 8. Пусть С = 2„х!((А!), где А; =(ш: Ош) =х,), и !р=!р(С(ш)) — некото- рая функция от ош). Если В; = (ш: р(С(ш)) = у ), то ((в (ш) = )(В )) р(с( )) =ч ~у!)в,(ш) ! и, следовательно, Ер=~у!Р(В!)=Ч~! у;Р (у;). ! ! Но ясно также, что ((л,,(ш) = )(А;)) (9) Щ(ш)) = ~ !р(х!)(х!(ш). ! Поэтому наряду с (9) для подсчета математического ожидания случайной величины <р= !р(~) можно пользоваться формулой Еч!(~) = ~~! р(х!)Рс(х!).
! ОС = Е(С вЂ” Е~)г. Величина о=+т/Ь~ называется стандартным отклонением. Поскольку Е(х ЕОг Е(сг 2Р, ЕР+ (Е~)г) Ехг (ЕОг то Ос = Ес~ — (Е~)г. Ясно, что Ос > О. Из определения дисперсии также следует, что 0(а+Ь~) =Ь Ос, а, Ь вЂ” постоянные. В частности, Оа = О, 0(ЬО = Ь~Ос.
Пусть С и и — две случайные величины. Тогда 0(с + о) = Е((с — Е4) + (г! — Ет!))г = Об + Ог)+ 2Е(с — Е4)(г! — Е!!). Обозначим соч(р„п) = Е(Š— ЕЕ)(г! — Ег!). Ч. Следующее важное понятие дисперсии случайной величины е характеризует степень разброса значений С относительно ее математического ожидания. Определение 5. Дисперсией случайной величины с (обозначается 00 называется величина й4. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ХАРАКТЕРИСТИКИ 63 Зта величина называется ковариацией случайных величин С и и.
Если 0с > О, 0п > О, то величина называется коэффициентом корреляции случайных величин С и г). Нетрудно показать (см. далее задачу 7), что если р(Е, г!) = ~1, то величины Е и и линейно зависимы: г)=аС+Ь, где а > О, если р(Е, г)) = 1, и а < О, если рЯ, и) = — 1. Сразу отметим, что если с и г) независимы, то независимы с — Ес и г)- Ег), а значит, по свойству 5) математических ожиданий соч(Е, и)= Е(Е- Ео Е(п- Еп) =О. С учетом введенного обозначения для ковариапии находим, что 0(~ + 4)) = 0~ + 041+ 2 СОЧ(Е, 4)). (10) Если с и г) независимы, то дисперсия суммы С+и равна сумме дисперсий: 0(Е+и) =0Е+0н.
(1Ц Как следует из (10), свойство (1Ц остается выполненным и при мень- шем предположении, нежели независимость С и г). Именно, достаточно предположить, что величины С и ц некоррелированы, т. е. сочК, ц) = О. Замечание. Из некоррелированности С и ц, вообще говоря, не следует их независимость. Вот простой пример. Пусть случайная величина сг при- нимает значения О, я/2 и я с вероятностями 1/3. Тогда с = з!и а и и = сов а некоррелированы; в то же время они не только зависимы (относительно вероятности Р): Р((=1, 41= Ц=Оф1/9=Р(~= ЦР(г)= Ц, но и, более того, функционально зависимы: бт+г)я =1. Свойства (10), (1Ц очевидным образом распространяются на произ- вольное число случайных величин Ен ..., С„: /и 'т и 0~~ ~;) =~ 0с;+2 ~~~ соч(~ь ~1). (! 2) !4и 1=! !)1 В частности, если величины (н ..., ~„попарно независимы (достаточно, на самом деле, их напорной некоррелированности), то (13) ГЛ.
1. ЭЛЕМЕНТАРНАЯ ТЕОРИЯ ВЕРОЯТНОСТЕЙ Пример б. Если С вЂ” бернуллиевская случайная величина, принимающая два значения 1 н О с вероятностями р и а, то 0~=е((-еО'=е(4-р) =(1 — р)'р+р'а=да Отсюда следует, что если ~п ..., ф— последовательность независимых (одннаково распределенных) бернуллиевских случайных величин и 5„= ! =с~+...+(„, то з 05„= при. (14) 8.
Рассмотрим две случайные величины с и г). Предположим, что наблюдению подлежит лишь случайная величина С. Если величины С и г) коррелнрованы, то можно ожидать, что знание значений С позволит вынести некоторые суждения н о значениях ненаблюдаемой величины и. Всякую функцию г =1(4) от с будем называть оценкой лля и. Будем говорить также, что оценка Г = Г(0 оптимальна в среднеквадратическом смысле, если Е(г) — )*(0)т = 1п( Е(г1 — )(~))т. Покажем, как найти оптимальную оценку в классе линейных оценок Л(0=а+ЬС.
Для этого рассмотрим функцию а(а, Ь)=Е(г) — (а+Ь4))э. Дифференцируя а(а, Ь) по а н Ь, получаем — =-2Е[п — (а+ь0], да(а, Ь) да да(а, Ь) = — 2Е [(и — (а+ Ьс))с], откуда, приравнивая производные к нулю, находим, что оптимальная в среднеквадратическом смысле линейная оценка есть Л*(~) =а* + Ь'С, где а* =Ег) — Ь*Ес, Ь'= — '" . о~ (1б) Иначе говоря, Л*(~) = Ег)+ ' " (с — Е~). Величина Е(г1 — Л'(0)э называется среднеквадратической ошибкой оценнвання. Простой подсчет показывает, что эта ошибка равна (д))э () сот (э ч) () . [1 з((. )] 0е Таким образом, чем больше (по модулю) коэффициент корреляции р(~, и) между С н г1, тем меньше среднеквадратическая ошибка оценивання сх'.
В частности, если [р((, г))] = 1, то б ' = О (ср. с результатом 44. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ХАРАКТЕРИСТИКИ 65 задачи 7). Если же случайные величины с и и не коррелированы (т. е. рК, г/) =О), то Л" К) = Е4/. Таким образом, в случае отсутствия корреляции между С и «/ лучшей оценкой и по С является просто Е!) (ср. с задачей 4). 9. Задачи. 1, Проверить следующие свойства индикаторов /л = /л(ь«): / =О, /и = 1.
/А = 1 /л /лв =/л /в /л««в =/л+/в — /лв, /л~в =/л(1 /В), /л,«,В = (/л — /в) =/л +/в (шоо 2), «« л и =1-П('-") ' — =П('-") ',=Е" 0л« . ' 0л; . Ел« =! «=! !=! с,„«ь=ш!п(с!, ..., с„), с,„=снах(с! " сь). Показать, что л к., )Пк. ), л к )Пк «=! 3. Пусть С«,..., с„ — независимые бериуллиевские случайные величи- ны с Р(с! = О) = 1 — Л!с«, РК; =1) =Л2/1, где сз — малое число, «."«> О, Л; > О. Показать, что л р(«, «...««,= ц= (1, «) «':о«ь «, !=! РК, +...+~„> ц= о(ьз). 4. Показать, что !п1 ЕК вЂ” а)2 достигается при а =ЕС и, следо-ь«(а(ОО вательно, !п1 ЕК вЂ” а)2 = 0С.
-сю(а(оо 5. Пусть С вЂ” случайная величина с функцией распределения ге(х) и т, — медиана гс(х), т. е. такая точка, что 1 ге(т~ — ) ~< 2 < <ге(т ). 3 — 9727 где А Л В вЂ” симметрическая разность множеств А и В, т. е. множество (А Л В) !з (В ~ А). 2. Пусть с!, ..., с„— независимые случайные величины и ГЛ. 1.
ЭЛЕМЕНТАРНАЯ ТЕОРИЯ ВЕРОЯТНОСТЕЙ Показать, что 1п1 Е!( — а!=ЕК вЂ” т,!. -аа<а<сю 6. Пусть Ре(х)=Р(С=х) и Ра(х) =Р(С<х). Показать, чтсгдля а>0 и -оо < Ь < оо Р,а+»(х) =Ре( — ), Р.е+»(х) = Ре ( — ). Если у>0, то Пусть ~+ = гпах(Е, 0). Тогда О, х < О, Реа(х) = Ра(0), х =О, Ре(х), х > О. 7. Пусть 4 и г! — две случайные величины с 04 > О, СН) > 0 и р= р((, и)— их коэффициент корреляции. Показать, что )Р! < 1. При этом, если )р! = 1, то найдугся такие константы а и Ь, что») =аС+ Ь. Более того, если р =1, то (и, значит, а > 0), если же р= — 1, то ч — Еч с — Ес (и, значит, а <0).
8. Пусть 4 и») — две случайные величины с ЕС = Еа) =О, 06 = Ог! =! и коэффициентом корреляции р= р(с, г)). Показать, что Е тах((з, г1з) < 1+ /à — оэ. 9. Используя равенство! — „= П (1 — )д,.), доказать формулу Р(Вв) = О Д, 1=! =1-5~+5э-...~5„из задачи 6 $1. 10. Если ~н ..., ф— независимые случайные величины, р~ = р1(СО ... ..., 6») и таз =Чае((»ч н ..., Са) — две функции от (н ..., С» и С»+н ..., С, соответственно, то случайные величины»а, и»ад независимы. йа схемА БеРнулли. !. 3АкОн БОльших чисел 11, Показать, что случайные величины (ь ..., С„независимы тогда и только тогда, когда для всех хь ..., х„ Е~, с„(хь ..., х„) =Бе(х~)...Ро(х„), где Р~,„л„(хь ..., хп)=Р® <хь.", чл <хл). 12. Показать, что случайная величина С не зависит от самой себя (т. е.