1625915153-62da7fb2e48a28563c377c8e71d63db2 (843881), страница 4
Текст из файла (страница 4)
Найти вероятность взаимного пробития друг друга трёх фигур, если на доске два ферзя и ладья.Формула Байеса.Имеется событие A и полная группа событий (гипотез) {Hk }. Каждое из этих событий имеет известную априорную вероятность. Наша задача – вычислить вероятностьP(Hk |A) при P(A) 6= 0, т. е. произвести апостериорный пересчет априорных вероятностей имеющихся гипотез.Теорема (формула Байеса). При вышеприведенных условияхP(Hk )P(A ∩ Hk ) P(HP(A|Hk )P(Hk )P(Hk ∩ A)k)= P= P.P(Hk |A) =P(A)P(A|Hi )P (Hi )P(A|Hi )P (Hi )i>0i>0Пример. Рассмотрим урновую модель: 3 белых и 3 черных шарика. Из урны «пропал» шар неизвестного цвета.
После чего при выборе наудачу двух шаров происходитсобытие A ={оба шарика оказались белыми}. По цвету потерянного шарика определим две гипотезы Hб и Hч . Тогда P(Hб ) = P(Hч ) = 1/2, а условные вероятностисобытия A при условии наступления одного из событий Hб или Hч будут P(A|Hб ) == 1/C52 , P(A|Hч ) = C32 /C52 . По формуле Байеса получаем P(Hб |A) = 1/4 и P(Hч |A) =3/4.Заметим, что условнаяPвероятность обладает свойствами обычной вероятности:P(Ω|B) = 1, P(∪Ai |B) = P(Ai |B) для любых попарно несовместных событий {Ai }.Понятие независимости событий.Одно из наиболее важных понятий теории вероятности – это понятие независимости событий. Следующее два определения вводят принципиальное понятие, выделяющее этот раздел математики из функционального анализа, в частности, из теории меры.Определение. События A и B (для определенности пусть P(B) 6= 0) называютсянезависимыми, если P(A|B) = P(A), то есть априорная и апостериорная относительноB вероятности события A совпадают.
Другими словами, информация об эксперименте,содержащаяся в событии B, не дает никакой существенной информации о событии A ине меняет его априорную вероятность.Замечание. Ясно, что если P(A) 6= 0, то приведенное определение будет инвариантным относительно перестановки событий A и B.
При этом мы получаем, что P(A ∩ B) =P(A)P(B). Полученное соотношение нередко используют в качестве определения независимости. При этом здесь уже не требуется никаких ограничений на вероятности рассматриваемых событий.Пример. Рассмотрим единичный квадрат. Пусть внутри этого квадрата выделеныдва измеримых подмножества: Ax – некоторая «вертикальная» (точнее, параллельная12одной из сторон квадрата) полоса, а By – «горизонтальная» – перпендикулярная Ax .Бросаем наудачу точку в этот квадрат. Событие A – попадание точки в полосу Ax , событие B – попадание точки в полосу By .
Покажем, что события A и B независимы.Пусть ∆1 – ширина полосы Ax , ∆2 – ширина полосы By . Очевидно, что P(A) == ∆1 , P(B) = ∆2 . В то же время, P(A ∩ B) = ∆1 · ∆2 . Таким образом, в нашем примеревыполнено равенство P(A ∩ B) = P(A)P(B), откуда и следует независимость событийA и B.Зависимые события в рассматриваемом квадрате построить гораздо проще, чем независимые. Например, зависимыми будут два непересекающихся множества ненулевоймеры.Упражнение. Проверить, что если в предыдущем примере в качестве пространства элементарных событий взять круг, то события A и B, вообще говоря, будут зависимыми.Определение.
Конечный набор событий A1 , . . . , An называется набором независимых в совокупности событий, если для любого конечного поднабора этих событий вероятность их совместного наступления факторизуется, т. е.P(Ai1 ∩ . . . ∩ Aim ) =mYP(Aij ) для любого {i1 , .
. . , im } ⊂ {1, . . . , n}.j=1Понятно, что из независимости в совокупности следует попарная независимость. Однако обратное утверждение, как показывает следующий пример, не всегда имеет место.Пример Бернштейна. Дан правильный тетраэдр. Одна его грань окрашена в красный цвет, другая – в зелёный, третья – в синий, а на четвертую грань нанесли все трицвета. Бросаем этот тетраэдр («игральную кость») с интенсивным вращением на плоскость. После его остановки фиксируем цвета его основания Рассмотрим события: R, G, B– появление красного, зелёного и синего цвета на нижней грани.
Легко проверить, чтоэти события попарно независимы (к примеру, P(R ∩ B) = 1/4 = P(R) · P(B) =1/2 · 1/2). Однако независимыми в совокупности эти события не являются, так какP(R ∩ B ∩ G) = 1/4 6= 1/2 · 1/2 · 1/2 = P(R) · P(B) · P(G).Для того чтобы мы могли рассматривать содержательные задачи, необходимо постулировать одну из основных аксиом теории вероятностей:Аксиома независимости. Причинно несвязанные (в бытовом смысле) событияявляются независимыми и в математическом (вероятностном) смысле.Схема Бернулли.Схема Бернулли описывает следующий стохастический эксперимент. В одинаковыхусловиях проводятся последовательно n испытаний, каждое из которых имеет два исхода («успех» и «неудача»).
Если вероятности успеха и неудачи одинаковы, то говорято симметричной схеме Бернулли. В схеме Бернулли основным является предположение о том, что любой набор событий в этой конечной цепочке испытаний объявляетсянезависимым в совокупности.Обозначим через p вероятность успеха (разумеется, в общем случае p 6= 1/2). Сформулируем теорему о распределении числа успехов в схеме Бернулли.13Теорема (формула Бернулли). Пусть Sn – число успехов в серии из n независимых однородных испытаний в схеме Бернулли. Тогда распределение этой величины имеет вид P(Sn = k) = Cnk pk (1 − p)n−k .Д ОКАЗАТЕЛЬСТВО . Вероятностное пространство – множество n-мерных векторов,компоненты которых – это 0 (неудача) или 1 (успех).
Посчитаем вероятность появлениявектора ω = (10100 . . . 01), в котором k единиц стоят на фиксированных местах. Введёмсоответствующие этому вектору события: A1 – появление 1 на первом месте, A2 – появление 0 на втором месте, A3 – появление 1 на третьем месте, . . . , An – появление 1 наn-м месте. Тогда!nn\YP(ω) = PAj =P(Aj ) = p(1 − p)(1 − p)p · . .
. · (1 − p)p = pk (1 − p)n−k ,j=1j=1где второе равенство написано на основе того, что события A1 , . . . , An независимы в совокупности.Для подсчёта P(Sn = k) надо учесть все векторы, содержащие k единиц. Таких векторов Cnk , и вероятности появления каждого из них одинаковы, поэтому мы имеем правовоспользоваться дискретной моделью:P(Sn = k) = Cnk P(ω) = Cnk pk (1 − p)n−k .Легко понять, что в случае симметричной схемы Бернулли (p = 1/2) мы находимся врамках классической вероятностной модели. Ясно также, что существует много экспериментов в схеме Бернулли с вероятностью успеха, отличной от 1/2.
Допустим, в отдельном тираже игры «Спортлото 6 из 49», в котором приняло участие n игроков, заполнивших свои карточки наудачу или по одному и тому же стохастическому алгоритму без каких-либо контактов друг с другом (иначе говоря, независимо друг от друга!), мыфиксируем только те карточки, в которых угаданы все 6 счастливых чисел. Вероятность6угадать 6 номеров из 6, помеченных тиражной комиссией, есть p = 1/C49≈ 7, 2 · 10−8 .Это и есть вероятность успеха в рассматриваемой схеме Бернулли.Упражнение.
В рассмотренной выше игре каковы шансы, что ровно 10 человек из 1000 игравших угадали 3 числа из 6, помеченных тиражной комиссией?Формула Бернулли задаёт дискретное распределение, называемое биномиальным:p̃k = Cnk pk (1 − p)n−k , k = 0, . . . , n.Связь гипергеометрического и биномиального распределений.Напомним, что к гипергеометрическому распределению нас привела урновая модель:в урне N1 белых и N2 чёрных шаров, производится выборка без возвращения объёма n.Тогда вероятность того, что она содержит k чёрных шаров (конечно, предполагается, что0 6 k 6 min{n, N2 } и n − k 6 N1 ) равнаp̃k =CNk 2 CNn−k1.CNn 1 +N214Посмотрим, как ведёт себя гипергеометрическое распределение, когда N1 → ∞, N2 →N2→ p, где p ∈ (0, 1). В этом случае можно считать, что N1∞, причем так, чтоN1 + N2и N2 настолько велики, что выбор конечного числа шаров не изменяет генеральную совокупность.
Но это значит, что вероятность вынуть чёрный шар на любом шаге равнаp0 = N2 /(N1 + N2 ). Тогда осуществление выборки объёма n соответствует последовательности из n испытаний в схеме Бернулли с вероятностью успеха p0 . Следовательно,справедливо приближённое равенство p̃k ≈ Cnk pk0 (1 − p0 )n−k .Докажем строго отмеченное соотношение. Именно, покажем, что в оговоренных выше условияхp̃k → Cnk pk0 (1 − p0 )n−k .Действительно,N2 (N2 −1)·...·(N2 −k+1) N1 (N1 −1)·...·(N1 −n+k+1)·k!(n−k)!=(N1 +N2 )(N1 +N2 −1)·...·(N1 +N2 −n+1)n!N2 −1N21··.. .
· NN21−k+1· N1N+N· . . . · N1N−n+k+1+N2k N1 +N2 N1 +N221 +N2Cn ·N1 +N2 N1 +N2 −1N1 +N2 −n+1· N1 +N2 · . . . · N1 +N2N1 +N2CNk 2 CNn−k1p̃k ==CNn 1 +N2=N1 →∞,N2 →∞−−−−−−−−→ CnkN2→pN1 +N2p · · · p · (1 − p) · · · (1 − p)= Cnk pk0 (1 − p0 )n−k .1 · 1 · ... · 1Полиномиальное распределение.В одних и тех же условиях проводятся n стохастических испытаний, каждое из которых имеет конечное число исходов (не менее двух!). Занумеруем эти исходы числами1, . . . , m. Вероятности этих исходов обозначим p1 , . .
. , pm соответственно. Какова вероятность того, что в результате проведенных n испытаний мы будем иметь ровно k1исходов 1-го типа,. . . , km исходов m-го типа (запятые в нашей записи играют роль пе(1)(m)ресечения)?PТаким образом,нас интересует значение P(Sn = k1 , . . . , Sn = km ). ОчеPmвидно, что mi=1 pi = 1. Согласно дискретной вероятностной модели, веi=1 ki = n ироятность любой фиксированной последовательности испытаний, содержащей соответственно k1 , . . . , km исходов типов 1, . .
. , m, равна pk11 · . . . · pkmm . Число различных такихпоследовательностей, как нетрудно убедиться с помощью принципа умножения, есть такназываемый полиномиальный коэффициентk2Cnk1 · Cn−k· . . . · C kmm−1P1n−=kin!.k 1 ! · . . . · km !i=1Итак, мы получили формулу для полиномиального распределенияP(Sn(1) = k1 , . . . , Sn(m) = km ) =15n!pk1 · . . . · pkmm .k 1 ! · . . . · km ! 1Задача о размещении частиц по ячейкам.Вкратце стохастический эксперимент состоит в следующем.
Происходит «бросание»n точек (дробинок) по r ячейкам согласно некоторому алгоритму. Нас интересует вероятность того или иного варианта их совместного размещения.1. Полиномиальный алгоритм. В одинаковых условиях бросаем дробинки по одной. Каждая дробинка с фиксированной вероятностью pi может попасть в i-ю ячейку.Тогда вероятность того, что в 1-й ячейке оказалось k1 дробинок,. . . , в r-й – kr дробинок даётся формулой для полиномиального распределения, выведенной в предыдущемпункте.В частности, если вероятность попасть в любую ячейку есть 1/r, то мы имеем дело сраспределением Максвелла.2.
Схема Бозе–Эйнштейна. Дробинки разбрасываются горстью по всем r ячейкам.При этом предполагается, что все варианты размещения дробинок по ячейкам равновозможны. Посчитаем число всевозможных размещений дробинок в ячейках. Заметим,что каждое фиксированное размещение можно описать вектором длины n + r + 1, состоящим из нулей и единиц, в котором r + 1 единиц играют роль перегородок междуячейками, а та или иная серия нулей (возможно, пустая) между двумя единицами – количество дробинок в соответствующей ячейке. Ясно, что при такой интерпретации двекрайние единицы можно из рассмотрения исключить (они присутствуют в любом варианте размещения).