Лекции по терверу - Горяйнов (1188226), страница 3
Текст из файла (страница 3)
При n = 2 равенство (3.3) совпадает с равенством (3.2). Допустим теперь, что равенство (3.3)выполняется для всех номеров, вплоть до n − 1. Обозначим A = A1 , . . . , An−1 ,B = An . Тогда, используя равенство(3.2) и предположение индукции, получаемP(A1 · . . . · An ) = P(A1 · . . . · An−1 )P(An |A1 · . . .
· An−1 )= P(A1 ) · P(A2 |A1 ) · . . . · P(An |A1 · . . . · An−1 ).Следующий результат известен какформула полной вероятности.Теорема 3.2. Пусть H1 , . . . , Hn — события, удовлетворяющиеследующимPnусловиям Hi Hj = ∅ при i 6= j, P(Hi ) > 0, i = 1, . . . , n, и i=1 P(Hi ) = 1. Тогдадля любого события A имеет место равенствоP(A) =nXP(Hi )P(A|Hi ).(3.4)i=1Доказательство. Введем в рассмотрение также событие H0 = Ω \ ∪ni=1 Hi .Очевидно, что P(H0 ) = 0 и D = {H0 , H1 , . .
. , Hn } является разбиением. ПосколькуA = AΩ = AH0 ∪ AH1 ∪ . . . ∪ AHnпредставляет собой объединение попарно непересекающихся множеств (попарно несовместных событий) и P(AH0 ) = 0, тоP(A) =nXP(AHi ).i=1Применяя теперь к каждому слагаемому в последней сумме теорему умножения P(AHi ) = P(Hi )P(A|Hi ), приходим к формуле (3.4).Формула (3.4) является эффективным инструментом при вычислении вероятностей сложных событий. При этом события H1 , . .
. , Hn в этой формулеобычно называют гипотезами.Теорема 3.3. [Формула Байеса] Пусть события H1 , . . . , Hn удовлетворяют условиям теоремы 3.2 и A ∈ A , P(A) > 0. Тогда для k = 1, . . . , n имеютместо равенстваP(Hk )P(A|Hk )P(Hk |A) = n.XP(Hi )P(A|Hi )i=1Доказательство. Непосредственно из определения условной вероятностии теоремы умножения получаемP(Hk ) =P(Hk A)P(Hk )P(A|Hk )=.P(A)P(A)Остается знаменатель записать по формуле полной вероятности (3.4) и мы приходим к требуемому утверждению.10В. В. ГОРЯЙНОВВероятности гипотез P(Hk ) называют обычно априорными вероятностями,а условные вероятности P(Hk |A) — апостериорными.
Таким образом, формулаБайеса позволяет переоценить априорную вероятность гипотезы при наличии информации, что произошло событие A.Независимость. Понятие независимости относится к одному из основныхв теории вероятностей. С информационной точки зрения под независимостьюсобытия B от события A естественно понимать то, что знание о наступлениисобытия A не влияет на вероятность наступления события B. Это выражаетсяравенством P(B|A) = P(B). При таком определении мы должны предполагать,что P(A) > 0. Если при этом и P(B) > 0, то из независимости B от A следуетP(A|B) =P(AB)P(A)P(B|A)== P(A).P(B)P(B)Это означает, что тогда и событие A не зависит от события B, т. е.
свойствонезависимости двух событий является симметричным. Кроме того, независимость событий A и B в названном выше смысле сразу же следует из равенстваP(AB) = P(A)P(B).(3.5)Определение 3.2. Для произвольных двух событий A, B ∈ A будем говорить, что они независимы, если выполняется равенство (3.5).Заметим, что в отличие от информационного подхода к определению независимости мы здесь не требуем условия положительности вероятностей событий A и B.Предложение 3.1. Если события A и B независимы, то независимы также пары событий A и B, A и B, A и B.Доказательство.
Утверждение достаточно доказать для пары A и B. Используя равенство (3.5), получаемP(AB) = P(A \ AB) = P(A) − P(AB) = P(A)(1 − P(B)) = P(A)P(B).Определение 3.3. Будем говорить, что события A1 , . . . , An независимы всовокупности, если для любых k = 2, . . . , n и 1 6 i1 < i2 < . . . < ik 6 nвыполняются соотношенияP(Ai1 · . . . · Aik ) = P(Ai1 ) · . . . · P(Aik ).(3.6)Заметим, что из попарной независимости событий не следует, вообще говоря, независимость в совокупности. Кроме того, при проверке независимостив совокупности не достаточно ограничиться проверкой лишь самых длинныхцепочек в равенстве (3.6). Сказанное подтверждается следующими двумя примерами.Пример 1. Пусть Ω = {ω1 , ω2 , ω3 , ω4 }, где все элементарные события ωiравновероятны.
Определим A = {ω1 , ω2 }, B = {ω1 , ω3 }, C = {ω1 , ω4 }. Этисобытия попарно независимы, но не выполняется равенствоP(ABC) = P(A)P(B)P(C).11ЛЕКЦИИ ПО ТВПример 2. Подбрасывается две игральные кости. Рассмотрим три события:A = {на первой кости выпалаB = {на первой кости выпалаединица,четверка,пятерка},двойка илипятерка илишестерка},C = {сумма выпавших очков на двух игральных костях равна девяти}.В этом случае выполняется равенствоP(ABC) = P(A)P(B)P(C),но нет даже попарной независимости.Определение 3.4.
Классы событий F1 , . . . , Fn называются независимыми,если для любого набора A1 ∈ F1 , . . . , An ∈ Fn события A1 , . . . , An независимыв совокупности.Заметим, что условие независимости алгебр F1 , . . . , Fn можно сформулировать просто: для любых A1 ∈ F1 , . . . , An ∈ Fn должно выполняться равенствоP(A1 · . . . · An ) = P(A1 ) · .
. . · P(An ).В действительности, здесь содержатся все цепочки из формулы (3.6), поскольку выбор в качестве одного или нескольких событий A1 , . . . , An достоверногособытия Ω приводит к более короткой цепочке.(1)(1)(n)(n)Теорема 3.4. Пусть D1 = {D1 , . . . , Dk1 }, . . . , Dn = {D1 , .
. . , Dkn } — разбиения пространства Ω и A (D1 ), . . . , A (Dn ) — порожденные ими алгебры событий. Тогда A (D1 ), . . . , A (Dn ) независимы, если для любых i1 , . . . , in , 1 6i1 6 k1 , . . . , 1 6 in 6 kn , выполняются равенства(1)(n)(1)(n)P(Di1 · . . . · Din ) = P(Di1 ) · . . . · P(Din ).(3.7)Доказательство. Нам нужно доказать, что если A1 ∈ A (D1 ), . . . , An ∈A (Dn ), то выполняется равенствоP(A1 A2 . .
. An ) = P(A1 )P(A2 ) . . . P(An ).Согласно условию теоремы, это равенство выполняется в случае, когда в качестве A1 , . . . , An выбраны атомы разбиений. Поскольку любое событие алгебры в нашем случае представляет собой объединение атомов соответствующегоразбиения, а сами атомы одного разбиения взаимно не пересекаются, то длядоказательства теоремы достаточно установить, что при выполнении равенствP(AH1 . .
. Hm ) = P(A)P(H1 ) . . . P(Hm ), P(BH1 . . . Hm ) = P(B)P(H1 ) . . . P(Hm )для некоторых H1 , . . . , Hm и двух непересекающихся A, B следуетP((A ∪ B)H1 . . . Hm ) = P(A ∪ B)P(H1 ) . . . P(Hm ).Последнее очевидно, поскольку при этих условияхP((A ∪ B)H1 .
. . Hm ) = P(AH1 . . . Hm ) + P(BH1 . . . Hm )= P(A)P(H1 ) . . . P(Hm ) + P(B)P(H1 ) . . . P(Hm )и теорема доказана.= P(A ∪ B)P(H1 ) . . . P(Hm )12В. В. ГОРЯЙНОВ§ 4. Независимые испытания. Схема БернуллиДопустим, что проводится серия из n независимых экспериментов (испытаний), в каждом из которых с вероятностью p, 0 < p < 1, может наступитьи с вероятностью q = 1 − p может не наступить некоторое событие A.
Появление события A обычно называют успехом, а не появление — неудачей.Основной вопрос в схеме Бернулли состоит в вычислении вероятности события Bn (k), которое заключается в том, что в проведенной серии испытанийпроизошло ровно k успехов, k = 0, 1, . . . , n.Для решения поставленной задачи построим вероятностное пространство(Ω, A , P), соответствующее схеме Бернулли. Каждый результат серии экспериментов можно представить n-мерной точкой ω = (δ1 , . . . , δn ), где δi принимает значение 1 в случае успеха в i-том испытании и значение 0 в случаенеуспеха.
В силу независимости испытаний вероятность элементарного события ω = (δ1 , . . . , δn ) будет определяться равенствомPnP({ω}) = pi=1δi n−qPni=1δi.(4.1)Если ω ∈ Bn (k), то из (4.1) следует, что P({ω}) = pk q n−k . Замечая теперь, чтоBn (k) состоит из Cnk элементарных событий, приходим к формулеP(Bn (k)) = Cnk pk q n−k .(4.2)События Bn (k), k = 0, 1, . . . , n, образуют разбиение.
Это подтверждается равенствомnnXXP(Bn (k)) =Cnk pk q n−k = (p + q)n = 1.k=0k=0Формула (4.2) выражает распределение вероятностей числа успехов в n независимых испытаниях. Это распределение называют биномиальным.При больших значениях n реализация формулы (4.2) сопряжена с трудоемкими вычислениями. Поэтому ее пытаются заменить приближенными формулами. Следующий результат относится к случаю, когда p мало, а n велико. Всвязи с малостью p этот результат иногда называют законом редких событий.Теорема 4.1. [Пуассона.] Если n → ∞ и p → 0 так, что np → λ, 0 < λ <∞, то при всех k = 0, 1, 2, . . . выполняется соотношениеP(Bn (k)) = Cnk pk q n−k →λk −λe .k!Доказательство. Из преобразованийn!1 (n − 1) · .
. . · (n − k + 1) k kpk q n−k =n p (1 − p)n−kk!(n − k)!k!nk−11(np)k1k−1=1−· ... · 1 −(1 − p)−k (1 − p) p npk!nnи предельного соотношенияlim (1 − p)1/p = e−1p→0следует утверждение теоремы.ЛЕКЦИИ ПО ТВ13Заметим, что в условиях теоремы Пуассона 4.1 имеет место оценка2kP(Bn (k)) − λ e−λ 6 λ ,λ = np,k!nт. е. результат применим, когда np2 мало.Доказанная теорема относится к так называемым предельным теоремам всхеме Бернулли. Распределение вероятностейλk,k = 0, 1, 2, . . . ,k!к которому стремится в условиях теоремы биномиальное распределение, называют пуассоновским распределением. В случае, когда вероятность успехафиксирована, а число экспериментов стремится к бесконечности, используютпредельные теоремы Муавра— Лапласа.pk = e−λТеорема 4.2. [Локальная теорема Муавра-Лапласа.] Пусть в схеме Бер√нулли 0 < p < 1 фиксировано, σ = npq, x = x(k) = (k − np)/σ, k = 0, 1, 2, .
. ..Тогда для любого M > 0 равномерно по всем k таким, что |x(k)| 6 M , приn → ∞ имеет место асимптотическое равенство21P(Bn (k)) = √ e−x /2 (1 + o(1)).σ 2πДоказательство. В основе доказательства теоремы лежит формула Стирлинга√θn! = 2πn · nn · e−n · e 12n ,0 < θ < 1.Из этой формулы следует, что √1ln n! = ln 2πn + n ln n − n + O.nПусть k таково, что |x(k)| 6 M . Тогда из равенстваxq k = np + xσ = np 1 +σследует, что k → ∞ при n → ∞ (σ → ∞). Аналогично, из равенстваxp n − k = nq − xσ = nq 1 −σвидно, что (n − k) → ∞ при n → ∞. Следовательно, к (n − k)! и k! такжеможно применить формулу Стирлинга.