Л.С. Пономаренко - Контрольные и тесты по теории вероятностей (2015) (1115298), страница 3
Текст из файла (страница 3)
. . A10 ) = 1/10!.Окончательно, применив формулу (1.2) получаемP(A) = P(10[i=11−1.2Ai ) = 10 ·8!112·− C10+ ··· −=1010!10!111+ − ··· −≈ 1 − e−1 = 0.632.2! 3!10!¥Геометрические вероятностиВ геометрической вероятностной модели множетво элементарных исходов — некоторое измеримое множество на прямой (на плоскости, в трехмерном пространстве), имеющее конечную, отличную от 0 длину (площадь, объем). В качестве случайных событий рассматривается σ - алгебра всех измеримых подмножеств Ω, вероятность произвольного случайного события определяется следующим образомP(A) =mer(A),mer(Ω)(1.3)где mer(A) обозначает соответственно длину (площадь, объем) множества A.Рассмотрим несколько примеров вычисления геометрических вероятностей.Пример 1.14.
На отрезке AB длины l случайным образом выбираетсяточка C. Найдем вероятность события A — длины отрезков AC и CB,на которые точка C разделила исходный отрезок, отличаются не более,чем на l/3.В качестве множества элементарных исходов ω выберем отрезокΩ = [0; l] на числовой прямой. Тогда событие A — это подмножество элементарных исходов A = {ω : |ω −(l−ω)| < l/3}. Легко убедиться, что дляω ∈ A должно выполняться неравенство l/3 < ω < 2l/3. Следовательно,mer(A) = l/3, и1l/3= .¥P(A) =l313Рис.
1.1: Пример 1.15Пример 1.15. Пусть теперь на отрезок AB брошены две точки C иD. Эти точки разбивают отрезок на три части. Рассмотрим событие A— длина среднего отрезка меньше l/3, и вычислим вероятность данногособытия.В этом случае элементарный исход ω введем как точку ω = (x; y)на координатной плоскости, где x — координата точки C на [0; l], а y —кордината точки D, причем 0 ≤ x, y ≤ l. Тогда множество элементарныхисходов Ω = [0; l] × [0; l] — квадрат со стороною длины l, а событие A ={ω : |x − y| < l/3} — подмножество этого квадрата, изображенное нарисунке 1.1. Теперь mer(A) — это площадь множества A.
Легко видеть,что mer(A) = l2 − (2l/3)2 = 5l2 /9 и, значит,P(A) =1.3mer(A)5= .mer(Ω)9¥Независимость случайных событийОдним из ключевых понятий теории вероятностей является понятие независимости случайных событий.Определение 1.1. Случайные события A и B называются независимыми, если выполняется равенствоP(AB) = P(A) · P(B).Если события не являются независимыми, то их называют зависимыми. Отметим несколько важных свойств независимых событий.1. Случайное событие, вероятность которого равна 0 или 1, не зависитот любого другого событяя, в том числе и от себя.142.
Если события A и B независимы, то независимы также пары событий A и B, A и B, A и B.3. Если события A и B независимы и их вероятности больше 0, товероятность пересечения этих событий также больше 0.Несмотря на простоту приведенного выше определения независимости двух случайных событий, это понятие является более глубоким, чемнаши интуитивные представления о независимости. Проиллюстрируемданное замечание следующим примером.Пример 1.16. Симметричную монету бросают три раза. Рассмотримслучайные события A — в трех бросаниях выпадали и герб и решка,B — выпало более одного герба.
Проверим, являются ли эти событиянезависимыми. Для этого выпишем все возможные исходы данного эксперимента:ω1 = (1, 1, 1), ω2 = (1, 1, 0), ω3 = (1, 0, 1), ω4 = (0, 1, 1),ω5 = (1, 0, 0), ω6 = (0, 1, 0), ω7 = (0, 0, 1), ω8 = (0, 0, 0),где 1 обозначает появление герба, а 0 — появление решки. Все исходыравновероятны, поэтомуP(A) =63= ,84P(B) =41= ,82P(AB) =3= P(A) · P(B).8Мы видим, что события A и B независимы. Этот факт не очевиден, темболее, что при четырех бросаниях монеты это не так.¥Определение 1.2. События A1 , A2 , . . . , An называются взаимно независимыми (независимыми), если для произвольного поднабора событийAi1 , .
. . , Aik , где 2 ≤ k ≤ n, а индексы i1 , . . . , ik различны между собой,выполняеетсяP(Ai1 · . . . · Aik ) = P(Ai1 ) · . . . · P(Aik ).Нетрудно подсчитать число условий, требуемых в определении взаимной независимости n случайных событий. Оно равноCn2 + Cn3 + · · · + Cnn = 2n − 1 − n.Сформулируем критерий взаимной независимости n случайных событий. 33Часто данный критерий берется в качестве определения взаимной независимости.15Теорема 1.1. События A1 , A2 , . . . , An взаимно независимы тогда и только тогда, когдаnn\YδiP( Ai ) =P (Aσi i ) ,i=1i=1где δi , (0 ≤ i ≤ n) равны 0 или 1, а½Ai , если δi = 1,δiAi =Ai , если δi = 0.Приведем основные свойства взаимно независимых событий.1.
Если события A1 , A2 , . . . , An — взаимно независимы, то любой поднабор Ai1 , Ai2 , . . . , Aik — взаимно независимые события.2. Если независимые события A1 , A2 , . . . , An разбиты на непересекающиеся поднаборы A1 , A2 , . . . , Ar и Ar+1 , Ar+2 , . . . , An , то события B1и B2 , определяемые этими поднаборами,4 будут независимыми.Данное свойство справедливо, если события A1 , A2 , . . . , An разбиваются на k (k > 2) непересекающихся поднаборов, тогда события B1 , . . .
, Bk , определяемые данными поднаборами, будут взаимно независимыми.3. Если независимые события имеют ненулевые вероятности, то любые пересечения таких событий непусты и имеют отличные от 0вероятности.Пример 1.17. На первых трех этажах здания установлены автоматы,продающие кофе. Вероятность того, что в течение дня в аппарате на i-мэтаже закончится кофе, равна pi , i = 1, 2, 3. Найдем вероятность событияB — хотя бы на одном из автоматов, расположенных на первом и второмэтажах, кофе будет, а на третьем закончится.Введем случайные события A1 , A2 , A3 — на первом, втором, третьемэтаже закончится кофе. По условию задачи P(Ai ) = pi , и события A1 , A2 , A3взаимно независимы. Поскольку B = (A1 ∪A2 )∩A3 , то, воспользовавшисьсвойствами независимых событий, получимP(B) = P(A1 ∪ A2 ) · P(A3 ) = (1 − p1 + 1 − p2 − (1 − p1 )(1 − p2 ))p3 == (1 − p1 p2 )p3 .4¥Это означает, что B1 и B2 , принадлежат σ- алгебрам, порожденным соответсевующими поднаборами.161.4Условные вероятностиС понятием независимости случайных событий тесно связано понятиеусловной вероятности.
Когда о случайном эксперименте имеется дополнительная информация, часто требуется произвести пересчет вероятностей, учитывающий эту дополнительную информацию.Пример 1.18. Рассмотрим случайный эксперимент, состоящий в подбрасывании игральной кости. Выпадение шестерки возможно с вероятностью 1/6. Допустим известно, что при бросании игральной кости выпало четное число. Тогда фактически множество возможных исходов сокращается до трех, и вероятность выпадения шестерки станет равной1/3.¥Пример 1.19.
Из урны, содержащей 2 белых и 3 красных шара, поодному без возвращения извлекаются все шары. Вероятность извлечьвторым белый шар равна 2/5. Но если нам известно, что первый извлеченный шар был белым, то вероятность извлечь второй раз белый шарстанет равной 1/4.¥Сформулируем общее определение условной вероятности наступления события A при условии наступления события B. Ее обозначаютP(A|B).Определение 1.3. Условной вероятностью события A при условии, чтопроизошло событие B, называетсяP(A|B) =P(AB).P(B)Если случайные события независимы и P(B) > 0, то P(A) = P(A|B),то есть наступление (или ненаступление) события B не изменяет вероятность наступления события A.Приведем несколько простых формул, использующихся при решениизадач.Теорема 1.2.
Формула умножения вероятностейЕсли P(A1 A2 . . . An−1 ) > 0, тоP(A1 A2 . . . An ) = P(A1 )P(A2 |A1 )P(A3 |A1 A2 ) · . . . · P(An |A1 A2 . . . An−1 ).Теорема 1.3. Формула полной вероятностиЕсли события H1 , . . . , Hn образуют разбиение Ω и P(Hi ) > 0 (i = 1, n),то для любого события AnXP(A) =P(A|Hi )P (Hi ).i=117Теорема 1.4. Формула БайесаЕсли дополнительно к условиям предыдущей теоремы выполняется условие P(A) > 0, тоP(A|Hk )P(Hk )P(Hk |A) = Pn.i=1 P(A|Hi )P (Hi )Рассмотрим несколько примеров на применение этих формул.Пример 1.20.
Пусть в урне содержатся 2 белых и 3 красных шара, поодному без возвращения выбирают три шара. Найдем вероятность события B — первым вытащили белый шар, затем — красный, и последним— снова белый. Введем события Ai (i = 1, 2, 3) - при i-ом выборе появился белый шар. Тогда B = A1 A2 A3 . Применив формулу умножениявероятностей, получим2 3 11· · = .¥5 4 310Пример 1.21. Из урны, с таким же составом, как в предыдущем примере, потерян шар, после чего вынули один шар. Вычислим вероятностьтого, что он будет белого цвета.
Обозначим A — вынут шар белого цвета,H1 — потерян белый шар, H2 — потерян красный шар. События H1 , H2образуют разбиение Ω и P(H1 ) = 2/5, P(H2 ) = 3/5. Условные вероятности события по каждой из гипотез легко вычисляются:P(B) = P(A1 )P(A2 |A1 )P(A3 |A1 A2 ) =12P(A|H1 ) = ,P(A|H2 ) = .44По формуле полной вероятности получаем1 2 2 32· + · = .¥4 5 4 55Пример 1.22. Допустим, в предыдущем примере после потери шара,вынули белый шар. Найдем вероятность того, что был потерян белыйшар:P(A) = P(A|H1 )P(H1 ) + P(A|H2 )P(H2 ) =P(H1 |A) =P(A|H1 )P(H1 )2/201== .P(A|H1 )P(H1 ) + P(A|H2 )P(H2 )8/204Аналогичным образом вычиляемP(H2 |A) =36/20= .8/204Как видим, вероятности гипотез, вычисленне до опыта (их называютаприорными) отличаются от вероятностей тех же гипотез, вычисленныхпосле проведения опыта (от апостериорных).¥181.5Схема испытаний БернуллиВ этом разделе рассматривается еще одна часто используемая вероятностная модель.
Допустим, что некоторый случайный эксперимент (испытание) проводится n раз, и каждый раз нас интересует только появление (или непоявление) некоторого события, условно называемого успехом. Например, при бросании игральной кости нас интересует только:выпала шестерка или не выпала.Предположим, что упех при каждом испытании наступает с одной итой же вероятностью p. Тогда неуспех наступает в каждом испытании свероятностью q = 1 − p.Элементарный исход введем как упорядоченную последовательностьω = (1, 0, . . .
, 1),состоящую из 1 и 0, где 1 , стоящая на i-ом месте соответствует тому,что в испытании с номером i произошел успех, а 0 — неуспех. Всего элементарных исходов 2n , но в обшем случае эти исходы не равновероятны.Так в примере с бросанием игральной кости исход ω = (0, 0, . . . , 0), состоящий из одних нулей, будет наблюдаться гораздо чаще, чем исходω = (1, 1, . .