1625915148-9c9f9a2bacef72b603fa281986313335 (843878), страница 41
Текст из файла (страница 41)
Определение 3. Пусть $ и т) — случайные величины (быть может, и расширенные) и МВ определено. Условным мате»(атическим ожиданием случайной величины $ нри условии, что т) =у, назовем всякую,й(Р)-измеримую функцию нч = т(у), для которой $йР = ~ нт (у) Р, (йу), В ~ чй(Р), (14) (ч: Лев) в Тот факт, что такая функция существует, следует из той же теоремы Радона — Никодима, если заметить, что функция множеств о(в) = ~ ~й («ч ЛЕВ) является мерой со знаком, которая абсолютно непрерывна относительно меры Р,. Предположим теперь, что т (у) есть условное математическое ожидание в смысле определения 3.
Тогда, применяя снова теорему о замене переменных под знаком интеграла Лебега, находим, что $а(Р= ') пт(у) Рч(т(у) = ~ т(Ч) Рч(йу), В ен Л(Й). (»В чма) (ве ЧЫВ) функция и (т)) является,'Рч-измеримой, и множествами (Вн т) ен В), В ~ ..73()(), исчерпываются все множества из,рч. Отсюда вытекает, что т (т)) есть математйческое ожидание М ($ ( т)). Тем самым, злая М (а ! т(= у), можно восстановить М ($ (т)) и, наоборот, по М($)Ч) найти М(В) т) =у).
С интуитивной точки зрения условное математическое ожидание М(~)т)=у) является более простым и понятным объектом, нежели М(з)т)). Однако математическое ожидание М($)т(), рассматРиваемое как Рч-измеРимаЯ слУчайнаЯ величина, более Удобно в работе. Отметим, что приведенные выше свойства А* — К* и утверждения теоремы 2 легко переносятся на условные математические ожидания М($)т)=у) (с заменой «почти наверное» на «Р„-почти наверное»).
Так, например, свойство К» переформулируется следующим образом: если М,)$,'(ОО, М)$~(т)))(со, где )=)(у)— †,% (А()-измеримая функция, то М ($~(т)) / т) =у) =~(у) М($ / т( =у) (Рч-п. н.). (15) Далее (ср. со свойством 1'), если в и т) независимы, то МД)т)=у)=М$ (Р„-п. н.). ОтМЕтИМ танжЕ, Чта ЕСЛИ ВЕНЮ()А7») И $ И т) НЕЗаВИСИМЫ, тО М(т'вЯ7 т))(т( у)=М~в($ у) (Р)-и Н)т (1б) 236 ГЛ Н, Н!АТЕЫАТНЧЕСКИЕ ОС1ЮВ!НИЯ ТВОРИ!1 ВЕРОЯТНОСТГП и если 1р = !р (», у) — =% (Й')-изь!ериыая функция такая, что М ~ср($, Ч)/ ..Оо, то М(ча, Ч)! = ~=ММЬ, У)~ (Р;: .), Для доказательства (16) заметим следующее. Если В =В,КВ,„ то для справедливости (16) надо лишь проверить, что !вхв, (Е Ч)1 (!ьн) = ~ М)в,.в, (с 'у) Рч(4/).
!нн: н1е А) !ЕЕА) Но левая часть есть Р Я ен В„т) ее А () В„), а правая — Р Я ~ В,) х х Р(Ч ~ А() Вь), равенство которых следует из независимссги е и Ч. В общем случае доказательство проводится с применением теоремы 1 яз ф 2 о монотонных классах (ср. с соответствующим местом в доказательстве теоремы Фубини). Определение 4. Условной вероятностью собьппия Л =:У прп условии, что т) =У (обозначение: Р(А/Ч=у)), будем нпзывошь М ()А ~ Ч = У). Понятно, что Р (Л / Ч = у) можно было бы определить как такую З ()о)-измеримую функцию, что Р(АД(Ч в=В))= ~ Р(А т)=у) Р„(с(у), В е= Я(М). (17) 6.
Приведем некоторые примеры вычисления условных вероятностей и условных математических ожиданий. Пр имер 1. Пусть Ч вЂ” дискретная случайная величина с Р(т)=уь))0, ~р~ Р(Ч=У1,)=-1. Тогда А=-! Р(А',Ч=У„)=, У- 1, р(лй(ч=ун)) Р !Ч=УА) Лля у ф (У„УВ...:) условную вероятность Р (А ! В =у) можно определить произвольным образом, например положить равной нулю. Если $ — случайная величина, для которой существует Ме, то Условное математическое ожидание М(е ~ Ч =У) для У м (У! У! " ) определяется произвольно (например, полагается равным нулю). Пример' 2.
Пусть Д, Ч) — пара случайных величин, распределение которых обладает плотностью ~еч(», у): Р Я, Ч) я В) = ~ ~еч (»н у) с(» !(ун В ы % (Я'). в 237 % т гсловныв всгоятности и ожидлния Пусть ~ь(х) и )ч(у) — плотности распределения вероятностей случайных величин ф и т) (см, (6.46), (6.55), (6.56)). Обозначим гт, (х, у) Гт „(х у) = йт(у) (18) полагая ); „(х,'у) =О, если )ч(у) =О. Тогда Р Д еп С » т) = у) = ~ (;, ч (х ~ у) Нх, С еп Я ()т), с (19) т. е.
)а „(х»у) есть плотнссть условного распределения вероятностей. В самом деле, для доказательства (19) достаточно убедиться в справедливости формулы (17) для В е= .т2 ()т), Л = Д а= С». В силу (6АЗ), (6.45) и теоремы Фубинтт ~» ~);. ч(х,'У) Ых1Рч(т(д) = ~ » ~~а~„(х! д) т(х~(ч(д) т(У= в [с .1 в [с ~т ч(х~у))ч(у)т(хт(у= ~ ) „(х, у)т(хт(у= схв схв = Р ((т, т)) еп С х В» = Р» Я еп С) () (т) еп В) ',, что и доказывает (17).
Аналогичным образом устанавливается следующий результат: если Мь существует, то М(5~т)=у)= $ х(ыч(х»у)т(х. (20) М [,) ((Ч вЂ” ) гтч~.т Р (и~) з( (У вЂ” ) )ч(У) тд М[(ч- ) ггч~.11 а Р(п~а) Р(п~а) 1)чЫау в При мер 3. Пусть длительность работы некоторого прибора описывается неотрицательной случайной величиной т) = т) (ат), фУнкциЯ РаспРеделениЯ котоРой Еч(У) имеет плотность 7„(д) (естественно, что гч(д) =(ч(у) =0 для у 0). Найдем условное математическое ожйдание М(т) — а»т)- а), т.
е. среднее время, которое прибор еще проработает в предположении, что он уже проработал время а. Пусть Р (т) ~ а) ) О. Тогда, согласно определению (см. п. 1) и (6,45), М (т) — а» т) ~ а) = 238 ГЛ П Л1АТЕМАТИЧЕСКИЕ ОСНОВАНИЯ ТЕОРИИ ВЕРОЯТНОСТЕН Интересно отметить, что если случайная величина т] экспонеициально распределена, т.
е. )е-ле, у)0, О, у<0, (21) то Мт] = М (т! [ Ч =- 0) = 1!) и для любого а '- 0 М (т] — а [ т] = а) = 1!Х. Иначе говоря, в этом случае среднее время, которое прнбор еще проработает, в предположении, что он уже проработал время а, не зависит от значения а и совпадает просто со средним Временем Мт]. В предположении (21) найдем условное распределение Р (ч — а ( х [ч ) а). Имеем Р(т] — а(х[т]= а) = Р(а ч.. а+а] ЛЯ [а+«] — Ач [а)+Р (т]=а) [1 — е т'е+"'] — [! — е ла[ 1 — Гч [а]+Р [т]=а] ! — [! — е-л"! е-!" [1 — е — т "] ! е-3» е Ла Таким образом, условное распределение Р(т] — а =х[т])а) совпадает с безусловным распределением Р(т] =х). Это зал~ечательное свойство экспоненциального распределения являе~ся характеристическим: не существует других распределений с плотностями, обладающими свойствой Р (т] — а =.= =х; т~)а) =Р(т]~х), а=.О, 0 =.х(ОО.
Пример 4 (игла Бюффона). Пусть на «кон ридор» бесконечной длины и единичной ширины (рис. 29) ва плоскости «случайным» образом бросается игла единичной длины. Спрашивается, какова вероятность того, что игла пересечет (по крайней мере одну) стенку корндорар Чтобы решить эту задачу, определим прежде всего, что означает, что игла бросается «случайным> образом.
Пусть $ — расстояние от центра иглы до левой стенки. Будем предполагать, что $ равномерно распределено па отрезке [О, 1], а (см. рис. 29) угол 8 равномерно распределен на 1 — я~2, и/2]. Кроме того, будем предполагать | и 8 независимыми. Пусть А — событие, состоящее в том, что игла пересечет стенку коридора. Легко видеть, что если В =((а, х): [а[( —, хе=[0, 1!2соза!()~! — — -соза, [), то А=(ат: (8, $) ~В), и значит, интересующая нас вероятность Р(А)=МТ„(ы)=МГ,(8( ), Ц(»)). 239 Э 7.
УСЛОВНЫЕ ВЕРОЯТНОСТИ И ОЖИДАНИЯ В силу свойства б* и формулы (16) М(в (0 (», 0 (») = М (М [К, (0 (о», 0 (о7)) ~ 0 (ы)1) = = ~ М[1в(0(о7), ~(о7)) /0 (о7)~Р(«(и) = М [Уз(0(о7), е(о7)); 0(о7) =а| Ро(7(а) = о77 1 ! г 2 — М!в (а, $ (о7)) о(а = — 1 сов а да = —, Л .~ л 3 з' где мы воспользовались также тем, что М)в(а е(о7)) =Р (е а=[0, 1/2соза1() [1 — 1!2соза1) =соза. Итак, вероятность того, что «случайным» образом брошенная на коридор игла пересечет его стенки, равна 21п.
Этот результат может быть положен в основу экспериментального определения значения числа и. В самом деле, пусть игла бросается независимым образом Ф раз. Определим $7 равным 1, если при (бросании игла пересекает коридор, и равным 0 в противном случае. Тогда в силу закона больших чисел (см., например, (1.5.6)) для всякого е)0 Р~) ' ", ~ — Р (А) ~) е~ — РО, Ж вЂ” Рсо, В этом смысле частота "ч+" +0м 2 Ф вЂ” Р(А) =— и, значит, 2З7 1 0 й, Именно эта формула и послужила основой для статистического определения значения числа и. В 1850 г. Р.
Вольф (Цюрих) брссал иглу 5000 раз и получил для и значение 3,1596. Повидимому, этот способ явился одним из первых методов (известных теперь под названием «метода Монте — Карло>) использования вероятностно-.статистических закономерностей в численном анализе. 7.
если (0„),~ 7 — последовательность неотрицательных случайных величин, то, согласно утверждению )) теоремы 2, М (~ч ', $„[Р) = ~ч" М ($„[ Р) (п, н,). 240 Гл, и, млтамАтичесю1е ОснОВАнпя теОРпи веРОятностеи В частности, если „„... — последовательность попарно непересекающихся множеств, то Р~(~~ В,!З'==х~лР(В„!Э) (п, п.). (22) Важно подчеркнуть, что зто равенство выполнено лишь почти наверное и, следовательно, условную вероятное! ь Р;В,' =У~) (ь!) нельзя рассматривать при фиксированном ь! как меру по В. Можно было бы подумать, что, за исключением некоторого множества ьл' меры нуль, Р ( ° '.Р)) (г!) является все же мерой для г! РЛ, Однако это, вообще говоря, не так в силу следующего обстоятельства.
Обозначиь! Рт (В,, В„...) то множество пс1,одоп г1, где для заданных В,, В, ... не выполнгно снопе!во счетной аддитивности (22). Тогда исключительное множество =.,"' есть Рг'* = (,! =г" (В„ВЯ, ...), (23) где объединение берется по всем непересекаю!цпмся множествам В,, В,, ... из г, Хотя Р-мера каждого множес!ва .=.!' (В,, В.„...) равна нулю, Р-мера множества у может оказаться (в силу несчетности объединения в (23)) ненулевой (Вспомним, что лебеговская мера отдельной точки равна нулю, а мера мпожества г~" = (О, 1), являющегося несчетной суммой одноточечных ьп!ожеств (х), 0 — х~1, равна единице).
В то же время было бы удобно, чтобы условная вероятность Р( ~ у) (!г) являлась мерой для каждого !ге—: . 11, поскольку тогда, например, подсчет условных вероятностей М($1=Р) можно бы!э бы осуществлять (см. далее теорему 3) просто с помощью ус(,сднения по мере Р(.,1:У)(ы): М (я гся) = ~ $ (и) Р (!(!г '. ) (и, и.) М(ф( У)(гг)=$ $(й)Р(!о; ЙЪ) (п. н.). (24) (ср, с (1.8.10)). Введем такое О п р е д е л е н и е 4. Функцшо Р (гп В), определенную для всех ы я 11 и В е= 7, назовем регулярной условной вероятностью относительно Р, если: а) для каждого !ген Р.