Ульянов (новое издание) (1115355), страница 6
Текст из файла (страница 6)
Спрашивается, какова вероятность вытащить ровно k белых шаров, причёмсчитается, что в урне шаров нужного цвета хватит.Как это ни печально, но если вновь попытаться представить исходы экспериментакак цепочки из «Ч» и «Б», то ничего вновь не получится. Ситуация осложняется ещёи тем, что не вссякую цепочку, вообще говоря, удастся получить. Если в прошломэксперименте шары возвращались в урну и их всегда хватало, то в этот раз шаровнужного цвета ещё и не хватить может. Так что тут этот подход не годится ещё ипотому, что его использование грозит излишними трудностями.Снова перенумеруем все шары и рассмотрим все цепочки длины n из чисел, которые могут получиться в результате эксперимента.
Пусть всего шаров снова m, приэтом m > n, иначе задача исчезает. Пусть из этих m шаров опять mw > 0 белых иmb > 0 чёрных. Опять же, mw > k, иначе задача вновь исчезнет.Посчитаем все возможные цепочки: на первом месте может стоять m чисел, навтором — уже m − 1. На j-том месте — m− j + 1. Поскольку n-тое место — последнее,то последним в этом произведении окажется число m − n + 1. Итого в пространстверавновероятных элементарных исходов насчитываетсяkΩk = m · (m − 1) · .
. . · (m − n + 1) =m!исходов.(m − n)!Теперь зафиксируем позиции для белых шаров в цепочке, для первого места из«белых» имеется mw возможностей, для второго — mw − 1. Для k-го получаетсяmw − k + 1, на этом числе произведение остановится. Однако, осталось ещё n − kчёрных мест. Точно таким же образом получаем, что для фиксированных позицийполучается вариантовmw · (mw − 1) · .
. . · (mw − k + 1) · mb · (mb − 1) · . . . · (mb − (n − k) + 1) вариантов.23При этом выбрать k «белых» позиций можно по-прежнему Cnk способами. Теперьостаётся собрать все формулы в одну. Обозначим вероятность того, что белых шароввыпало ровно k штук как pk . Получаемmw · (mw − 1) · . .
. · (mw − k + 1) · mb · (mb − 1) · . . . · (mb − (n − k) + 1)m!(m − n)!mw !mw !mb !mb !n!n−kkCm(mw − k)! (mb − n + k)!k!(mw − k)! (n − k)!(mb − n + k)! Cmwb===nCmm!m!k!(n − k)!(m − n)!n!(m − n)!n−kkC Cm−m= mw n w .Cmpk = CnkНельзя забывать, что k 6 mw и k 6 n. Однако при этих условиях может оказаться,что n − k > mb , то есть надо вытащить чёрных шаров больше, чем их вообще естьв урне.
Поэтому для k получаем две границы: снизу max(0, n − m + mw ) и сверхуmin(mw , n).Определение 3.2. Набор вероятностей (pt , pt+1 , . . . , pl ), где l = min(mw , n) и t =max(0, n − m + mw ), называется гипергеометрическим распределением с параметрами n,m и mw .3.2Условная вероятностьПусть у нас имеется два события A и B. Пусть событие B вдруг произошло. И тутпотребовалось определить вероятность A! Та вероятность, что мы вычислим приуже произошедшем B, называется условной вероятностью.Пример. Экспериментатор подбрасывает монету дважды. Событие A — за эти дваброска выпал хотя бы один герб.
Событие B — выпала хотя бы раз решка. Точноизвестно, что B произойдёт. Требуется выяснить, чему при таком раскладе равнаP(A). Монетка правильная.Решение. Поскольку точно известно, что за два подбрасывания решка хоть разда появится, то элементарных исходов, среди которых нужно искать событие A,остаётся три: РГ, РР, ГР. Они равновероятны. Событие A из этих исходов содержитдва.
Получаем, пользуясь подходом классической вероятности, что P(A) = 2/3.Сама по себе вероятность A (кстати, всё равно что условная относительно Ωвероятность) равна 3/4, как и вероятность B. Вероятность события AB равна 1/2.Возможно, это не просто так случилось, что условная вероятность P(A|B) оказаласьравной P(AB)/ P(B).Определение 3.3. Условной вероятностью происхождения события A приуже произошедшем (при условии) B (обязательно P(B) > 0) называется величинаP(AB)= P(A|B) — это её обозначение.P(B)Замечание.
Эта формула не используется практически никогда. Используется ценное следствие: P(AB) = P(A|B) P(B) = P(B|A) P(A), которое имеет некий смысл,если потребовать P(A) 6= 0 6= P(B).24Определение 3.4. События A и B независимы ⇐⇒ P(AB) = P(A) P(B).Замечание. Связь со здравым смыслом и наглядностью, кажется, на этом утеряна. Но, если приглядеться, она есть. Посмотрим, что даёт формула для условнойвероятности при независимых событиях:P(A|B) =P(AB)P(A) P(B)== P(A), P(B) 6= 0, P(A) 6= 0.P(B)P(B)Произошло событие B или не произошло — вероятность события A от этого никакне меняется. То есть, не зависит от события B.
Точно так же всё это правильно длянезависимости вероятности события B от того, что там происходит с событием A:P(B|A) =P(AB)P(A) P(B)== P(B).P(A)P(A)Наглядного смысла можно попробовать найти здесь.Замечание. Событие с нулевой вероятностью независимо с любым другим событием:AB ⊆ B =⇒ P(AB) 6 P(B), P(B) = 0⇓P(AB) 6 P(B) = 0 =⇒ P(AB) = 0 = P(B) = P(B) P(A).Утверждение 3.1. События A и B независимы =⇒ A и B независимы.Доказательство. Вспомним, что A = AB ∪ AB, причём пересечение их пустое:AB ∩ AB = A ∩ A ∩ (B ∩ B) = A ∩ ∅ = ∅. Так что мы разложили событие в дванесовместных. Поэтому P(A) = P(AB) + P(AB), а тогда P(A) − P(AB) = P(AB).Теперь прямо показываем независимость:P(A) P(B) = P(A)(1 − P(B)) = P(A) − P(A) P(B) = P(A) − P(AB) = P(AB).Замечание.
Событие с вероятностью единица независимо с любым другим событием. Просто возьмём его отрицание и получим событие с вероятностью ноль. Ононезависимо с любым другим, а значит, независимо с любым другим и его отрицание.Пример. Пусть есть урна с N перенумерованных шаров (числами от 1 до N ). Из неёвыбирается шар и фиксируется его номер, причём у всех шаров шансов оказатьсяснаружи поровну.
Первый игрок ставит на множество A, второй — на множество B(A, B ⊂ {1, . . . , N }) чисел, пытаясь тем самым угадать номер шара, оказавшегосяснаружи урны. Вопрос в том, всегда ли существуют A и B, такие что события «номершара оказался в A» и «номер шара оказался в B» независимы. Примеры в духеA = ∅ или A = {1, . . . , N } интереса не представляют.Решение. Требуется отыскать подмножества Ω = {1, . . . , N }, непустые и не равныеΩ, A и B, такие что P(AB) = P(A) P(B). Поскольку все элементарные исходы тутравновозможны, пользуемся подходом классической вероятности:P(A) =kBkkAkkBkkAk, P(B) =, P(A) P(B) =.NNN2Рассмотрим два случая: N — простое и N — составное.25В первом случае в знаменателе P(AB) обязательно будет N , в числителе — числоот нуля до N − 1 (в силу того, что kAk < N ).
Знаменатель простой и никаких общихделителей с числителем не имеет, дробь несократима. А вот в знаменателе P(A) P(B)окажется N 2 , в числителе — произведение чисел, никаких общих делителей с Nвновь не имеющих. Дробь опять несократима. Так что ни при каких A и B добитьсяравенства P(AB) = P(A) P(B) не удастся.Во втором случае N составное, значит, его можно разложить на два множителя,каждый из которых не меньше двух.N = a · b, a, b ∈ N; a, b > 2 =⇒ min(a, b) > 2; a + b 6 2 · max(a, b) 6 abРазобьём всё множество N на два, одно — из a элементов (его обозначим A), второе — из b элементов (обозначим его B).
Как показано выше, a + b 6 ab = N . Значит,можно сделать это так, чтобы множества эти пересекались только в одном элементе.Более того, делается это неединственным образом (прибавим ко всем числам из Aи B единицу, возьмём остаток от деления на N и затем к тем числам, что получим, прибвавим единицу к каждому — получатся отличные от предыдущих наборычисел, так как N > 4 — составное число). Значит, получаем kABk = 1. Теперьнезависимость показывается прямо:P(A) P(B) =kAk kBkab1kABk= 2 === P(AB).N NNNNПример хорошо иллюстрирует тот факт, что интуитиция в вопросах зависимостиили независимости событий может подвести.
Вообще, ей не следует злоупотреблятьв этом курсе.Замечание. Если два несовместных события независимы, то у одного из них нулевая вероятность: 0 = P(AB) = P(A) P(B). Если два события несовместны и имеютненулевые вероятности, то они зависимы. Это согласуется с наглядным представлением о зависимости: если уж одно из событий «запрещает» другое, то вероятностнаясвязь между ними есть, а значит, они зависимы.Утверждение 3.2. Пусть (Ω, F, P) — вероятностное пространство и B — любоесобытие с ненулевой вероятностью.
Тогда (Ω, F, PB ) — вероятностное пространство, где PB (A) = P(A|B) ∀A ∈ F .Доказательство. Поскольку изменения коснулись из всей тройки только вероятности, то надо только для неё доказать присутствие трёх свойств:1. PB (A) = P(AB)/ P(B) > 0 — неотрицательность есть;2. PB (Ω) = P(B ∩ Ω)/ P(B) = P(B)/ P(B) = 1 — нормировка присутствует;3. счётная аддитивность тоже на месте:A1 , A2 , A3 , . . . ∈ F, ∀i, j ∈ N, i 6= j Ai Aj = ∅, BAi ∩ BAj = B ∩ Ai Aj = ∅Ã∞ !Ã!Ã∞!∞∞[[[111 XPBAi =P B∩Ai =PBAi =P(BAi )P(B)P(B)P(B) i=1i=1i=1i=1=∞XP(BAi )i=1P(B)=∞XPB (Ai ).i=1263.3Независимость множества событийОпределение 3.5. Пусть имеется конечное или счётное множество событийA = {Ai }. События Ai называются независимыми или независимыми в совокупностиmДля любого конечного подмножества B ⊆ A выполнено\YP(Ai ) =P(Ai ).i : Ai ∈Bi : Ai ∈BОпределение 3.6. Пусть имеется конечное или счётное множество событийA = {Ai }.
События Ai называются попарно независимымиm∀i, j : i 6= j P(Ai Aj ) = P(Ai ) P(Aj )В случае, когда событий всего два, независимость в совокупности и попарно —это одно и то же. В случае большего количества событий это неправильно. Этоиллюстрируется примером Бернштейна.3.3.1Пример БернштейнаПредставим тетраэдр, у которого одна грань покрашена в красный цвет, вторая — взелёный, третья — в синий, а четвёртая содержит рисунок, на котором присутствуютвсе три цвета одновременно (лучше без смешивания, в полосочку).
Тетраэдр подбросим и зафиксируем цвета, присутствующие на грани, на которую он упал. СобытиеR состоит в том, что на нижней грани присутствует красный, событие G — в том,что присутствует зелёный, событие B — в том, что там есть синий.Потребуем от тетраэдра, чтобы падения на любую из четырёх граней были равновероятными.
Посчитаем вероятности событий RG, GB, RB и RGB:P(RG) =kRGk1kGBk11kRGBk1= , P(GB) == , P(RB) = , P(RGB) == .4444444Теперь соответствующие произведения вероятностей:P(R) P(G) =kRk kGk2 21= · = , P(G) P(B) =4 44 441 1P(R) P(G) P(B) = · ·2 211, P(R) P(B) = аналогично;4411= .28Как видно, события R, G и B попарно независимы, но вот P(R) P(G) P(B) 6= P(RGB).Тем самым пример демонстрирует, что попарная независимость и независимостьв совокупности — это не одно и то же.
Но, разумеется, попарная независимостьследует из независимости случайных величин в совокупности. Далее независимостьсобытий возникнет при построении понятия независимости случайных величин (нас.33 и ??). Пока придётся его оставить.273.4Формула полной вероятностиПусть есть 2 студента, которые на момент начала экзамена знают 20 из 25 билетов,причём одни и те же. Требуется установить, у кого больше шансы вытянуть «счастливый» билет (один из 20 выученных): у первого или у второго. У всех билетовшансы оказаться в руках студента одинаковые.Вероятность вытянуть «счастливый» билет для первого считается очень просто:P(счастливый) = 20/25 = 4/5. Со вторым сложней: если первому повезло, то длявторого «счастливых» билетов останется 19 из 24, а если первому не повезло — 20из 24. Вопрос легко решается с помощью формулы полной вероятности.Определение 3.7.