1625915143-9358bde957c0693ae60a95b83ad382f6 (843873), страница 5
Текст из файла (страница 5)
Мы знаем общее правило нахождения вероятности события в дискретном пространстве; чтобы воспользоваться им, нам необходимо сначала для каждого элементарного исхода задать его вероятность.Возьмем конкретный элементарный исход, т.
е. цепочку длины n, состоящую изсимволов «У» и «Н», причем будем предполагать, что «У» встречается в ней k раз.Именно такие исходы формируют интересующее нас событие в задаче. Например,возьмем такую цепочку: ω =<УНН...Н>.Для понимания того, какой должна быть вероятность такого элементарного исхода, введем n вспомогательных событий B1 , B2 , . . . , Bn , причем мы их будем строить,глядя на выбранную нами конкретную цепочку.
Пусть B1 состоит из цепочек, у которых на первом месте стоит «У», а на остальных местах может стоять что угодно, B2состоит из цепочек, у которых на втором месте стоит «Н», B3 — из цепочек, у которых на третьем месте стоит «Н», и т. д. — все, как у выбранного нами элементарногоисхода ω.Введенные события должны быть независимыми в нашей модели, потому, что онинезависимы по условию эксперимента, так как B1 относится только к первому испытанию, B2 — только ко второму и т. д., а разные испытания не влияют друг на друга.Таким образом, в нашей модели должно выполнятьсяP(B1 B2 . .
. Bn ) = P(B1 )P(B2 ) . . . P(Bn ).Но, следуя построению, событие B1 B2 . . . Bn состоит из одного единственного элементарного исхода ω =<УНН...Н>. С другой стороны,P(B1 ) = p, P(B2 ) = 1 − p, P(B3 ) = 1 − pи т. д. Поэтому для данного элементарного исхода ω должно выполнятьсяP(ω) = P(B1 ) . . . P(Bn ) = pk q n−k ,где q = 1 − p, k — число успехов.Задав вероятности элементарных исходов, мы завершили построение вероятностной модели. Она и называется схемой Бернулли.Ясно, что элементарные исходы будут равновероятными только при p = q = 1/2.В этом случае каждый элементарный исход будет иметь вероятность 1/2n , и тольков этом случае мы вправе использовать классическое определение вероятности.Для нахождения вероятности того, что успехов будет ровно k в n испытаниях, мыдолжны просуммировать вероятности всех элементарных исходов, у которых успехвстречается k раз, а таких исходов, как нетрудно видеть, Cnk .
ПоэтомуP(Sn = k) = pk q n−k + pk q n−k + . . . + pk q n−k = Cnk pk q n−k .1, . . . , n} называется биномиальным расСовокупность чисел {Cnk pk q n−k , k = 0, Pnk k n−k— разложение по биномупределением (поскольку (p + q)n = 1 =k=0 Cn p qНьютона).В заключение этого параграфа выясним, при каком k вероятность P(Sn = k)максимальна. Для этих целей рассмотрим отношениеαk =P(Sn = k + 1)P(Sn = k)17и выясним, при каких k имеет место αk ≥ 1 (это будет означать неубывание P(Sn = k)при возрастании k) и при каких значениях k выполняется αk ≤ 1, что соответствует невозрастанию вероятностей. На этом пути и отыщем точку максимума.
Итак,запишем неравенствоαk =Cnk+1 pk+1 q n−k−1(n − k)p=≥ 1,kkn−kCn p q(k + 1)qчто эквивалентно np − q ≥ k(p + q) = k. Таким образом, если k ≤ np − q, тоP(Sn = k + 1) ≥ P(Sn = k),т. е. вероятности возрастают (вернее, не убывают), и, наоборот, при k ≥ np − q вероятности не возрастают. Поскольку число np − q не обязано быть целым, то нетрудновидеть, что максимальное значение для P(Sn = k) будет достигаться приk = [np − q] + 1 = [(n + 1)p].1.6.Условные вероятностиПусть A — событие, вероятностью которого мы интересуемся. Оно может произойти в результате некоторого эксперимента; мы не знаем точно, как экспериментзавершился, однако определенной информацией уже располагаем: нам сообщили, чтонекоторое другое событие B уже произошло.Какова же теперь вероятность события A?Ясно, что знание того, что B произошло, может сильно повлиять на результат.Например, при бросании игральной кости вероятность того, что выпала шестерка(событие A), равна 1/6.
Однако если заранее известно, что выпало четное числоочков (событие B), то следует ожидать, что шестерка выпадает уже с вероятностью1/3.Тем самым мы приходим к необходимости введения нового понятия.Определение. Условной вероятностью (или: вероятностью события A при условии, что B произошло) называетсяP(A/B) =P(AB).P(B)Вернёмся к примеру с игральной костью.
Имеем здесьA = {6}, B = {2, 4, 6}, AB = {6},11/ 6= ,1/ 23что соответствует нашим интуитивным представлениям.Сделаем несколько замечаний в связи с данным определением.1. Поскольку P(B) стоит в знаменателе, то необходимо всегда требовать, чтобыP(B) > 0. Условная вероятность не вводится, если P(B) = 0.2. Если P(B) > 0, то независимость событий A и B эквивалентна условию P(A) =P(A/B) — это очевидно. В общем, так оно и должно быть: событие B (условие) никакне должно влиять на A, если A и B независимы.3.
Если в результате эксперимента событие B уже произошло, то ни один из элементарных исходов из дополнительного множества B̄ уже реализоваться не может.P(A/B) =18Таким образом, пространство возможных исходов эксперимента сужается до размеров множества B. Отражением этого факта и является формула для P(A/B). В неймножитель 1/P(B) выполняет нормирующую роль: суммарная вероятность всех возможных теперь исходов должна равняться единице.
А использование в числителевероятности пересечения множеств A и B соответствует тому, что из элементарныхисходов, входящих в A, произойти теперь могут только те, которые входят одновременно и в B.Сказанное можно проследить на примере бросания наугад точки, скажем, в квадрат Ω. Пусть λ(A) — площадь множества A ⊂ Ω. ТогдаP(A) =λ(A)λ(Ω)— отношение площадей. Для условной вероятности имеемP(A/B) =P(AB)λ(AB)/ λ(Ω)λ(AB)==,P(B)λ(B)/ λ(Ω)λ(B)это тоже отношение площадей, но только роль всего пространства исходов выполняетсобытие B.1.7.Формула полной вероятностиПусть нас интересует вероятность некоторого события A и предположим, что наряду с A есть некий набор вспомогательных событий H1 , H2 , .
. . , Hn , которые принято называть гипотезами и которые удовлетворяют следующим двум требованиям.1) Hi Hj = ∅ (i 6= j);nSHi .2) A ⊂i=1Тогда справедлива формула полной вероятностиP(A) =nXP(A/Hi )P(Hi ).i=1Доказательство.ÃP(A) = P A ∩n[!HiÃ=Pi=1n[i=1!AHi=nXP(AHi ).i=1Поскольку P(A/Hi ) = P(AHi )/P(Hi ) (предполагаем, что P(AHi ) > 0, нет смысла использовать гипотезы с нулевой вероятностью), то остается выразить отсюда P(AHi )и подставить в формулу.Число используемых гипотез может быть и бесконечным — это ничему не противоречит.Формула полной вероятности обычно бывает полезна при решении задач, где имеет место «двойная» (или «двухуровневая») случайность. С помощью этой формулымы фиксируем сначала ситуацию на одном уровне (т.
е. считаем, что одна из гипотез реализовалась) и перебираем все возникающие при этом возможности на другомуровне; затем ведем перебор возможностей первого уровня — это соответствует суммированию по переменной i.19Пример. На предприятии работает n рабочих, которые делают одинаковые изделия. За смену первый изготовил k1 изделий, второй — k2 , . . . , n-й рабочий изготовилkn изделий. Обозначим k = k1 + k2 + .
. . + kn — общее количество деталей, изготовленных за смену.Известно, что изделие, изготовленное первым рабочим, с вероятностью p1 оказывается бракованным, для второго рабочего вероятность брака равна p2 и т. д.В конце смены все изделия ссыпали в один бункер. Какова вероятность, что наугадвыбранное из бункера изделие окажется бракованным?Обозначим через A событие, вероятностью которого мы интересуемся. Задачабыла бы тривиальной, если бы мы знали, кем выбранное изделие изготовлено. А таккак мы не знаем, то строим облегчающие предположения (гипотезы). Пусть событиеHi означает, что выбранное нами изделие изготовлено i-м рабочим, i = 1, 2, .
. . , n.Ясно, что любое событие из H1 , H2 , . . . , Hn исключает другие. Кроме того,n[Hi = Ω ⊃ A.i=1Тем самым выполнены все требования, предъявляемые к гипотезам. С помощьюклассического определения вероятности находимP(Hi ) =Ck1iki= .1CkkЕсли же известно, что изделие изготовлено i-м рабочим, то вероятность, что оноявляется бракованным, равна P(A/Hi ) = pi по условию задачи. Тем самым получаемпо формуле полной вероятностиP(A) =nXi=11.8.piki.kФормула БайесаФормула Байеса используется в той же ситуации, что и формула полной вероятности, т. е.
если имеется событие A и набор гипотез H1 , H2 , . . . , Hn , удовлетворяющихуказанным выше требованиям.Вероятности гипотез P(H1 ), P(H2 ), . . . , P(Hn ) принято называть априорными,т. е. изначальными, доопытными. Если же событие A уже произошло, то условныевероятности гипотез P(H1 /A), P(H2 /A), . . . , P(Hn /A) могут сильно отличаться отаприорных и называются апостериорными, т. е. послеопытными, учитывающимирезультаты эксперимента.Для многих практических целей бывает полезно находить апостериорные вероятности гипотез, и делается это с помощью формулы Байеса.
Она состоит в следующем:для любого i = 1, . . . , nP(A/Hi )P(Hi ).P(Hi /A) = Pnj=1 P(A/Hj )P(Hj )Для доказательства достаточно воспользоваться формуламиP(Hi /A) =P(Hi A), P(Hi A) = P(A/Hi )P(Hi )P(A)20и уже полученной формулой полной вероятности для P(A).Вернемся к предыдущему примеру. Представим себе, что взятое наугад изделиеоказалось бракованным. Какова вероятность, что его изготовил i–й рабочий? Поформуле Байеса получаемpi kkiP(Hi /A) = Pn.kjj=1 pj k2.Распределения2.1.Случайные величины. Функции распределенияПри изучении тех или иных случайных явлений или экспериментов нас интересует, как правило, не какой именно исход реализовался, а та или иная числоваяхарактеристика этого исхода. Например, в схеме Бернулли нам не так уж важно было, какая цепочка символов реализовалась, интерес вызывало только число успеховв этой цепочке.
Точно так же при стрельбе по плоской мишени мы не интересуемсяточными координатами центра пробоины. Для нас важно, сколько очков мы выбилипри стрельбе.Это наводит на необходимость введения понятия случайной величины.Определение. Случайной величиной X называется произвольная функция, заданная на пространстве элементарных исходов Ω и принимающая значения в R (значения ±∞ исключаются), т. е. каждому элементарному исходу ω ставится в соответствие число X(ω) ∈ R.Например, число успехов в n испытаниях Бернулли, которое мы обозначали Sn ,является случайной величиной.По-другому можно сказать, что случайная величина — это числовая переменная, значение которой меняется в зависимости от того, какой исход реализовался врезультате эксперимента.Изучение различных случайных величин — одна из основных задач теории вероятностей.