Ю.В. Прохоров, Л.С. Пономаренко - Лекции по теории вероятностей и математической статистике (1115359), страница 4
Текст из файла (страница 4)
Если A ⊂ B, то P(A) ≤ P(B).Доказательство. Поскольку событие B = A∪(B\A) можно представитькак объединение несовместимых событий, тоP(B) = P(A) + P(B \ A) ≥ P(A).5. Для любого события A6. P(A) = 1 − P(A).0 ≤ P(A) ≤ 1.Задача 3.1. Докажите свойства вероятности 4, 5.7. Если A1 , . . .
, An – произвольные случайные события, тоP(n[Ai ) ≤nXi=1P(Ai ).(3.1)i=1Это свойство называется свойством полуаддитивности вероятности.Доказательство. Введем событияB1 = A1 ,B2 = A2 \ A1 = A2 ∩ A1 ,B3 = A3 \ (A1 ∪ A2 ) = A3 ∩ A1 ∩ A2...Bn = An \ (A1 ∪ · · · ∪ An−1 ) = An ∩ A1 ∩ · · · ∩ An−1 .1) Заметим, что события B1 , .
. . , Bn попарно несовместимы. Действительно, пусть i < j, тогда по построению Bi ⊂ Ai , Bj ⊂ Ai . но этоозначает, что Bi ∩ Bj = ∅.1Это замечание выполняется также для общей теории, где свойства P1–P3 будутслужить определением вероятности (с заменой конечной аддитивности на счетную).162) Рассмотрим событияn[F =Bi ,C=i=1n[Ai .i=1Покажем,что F = C.Пусть ω ∈ C, тогда существует такое i, что ω ∈ Ai . Возьмем наименьшее такое i.
Обозначим его i0 . Тогда ω ∈ Ai0 , но ω ∈/ A1 , . . . , Ai0 −1 , аnSзначит, ω ∈ Bi0 , ω ∈Bi = F. Следовательно, C ⊂ F.i=1Докажем теперь обратное включение. Пусть ω 0 ∈ F. Тогда найдетnSся такое j0 , что ω 0 ∈ Bj0 ⊂ Aj0 . Но это означает, что ω 0 ∈Aj =j=1C. Следовательно, F ⊂ C, и стало быть, F = C.Из доказанного вытекает, чтоP(n[i=1Ai ) = P(n[Bj ) =j=1nXP(Bj ) ≤nXP(Aj ).j=1j=1Замечание. В общей теории сходное доказательство будет применено и к бесконечным последовательностям случайных событий A1 , A2 .
. ..В этом случае полуаддитивность вероятности можно сформулироватьследующим образом.7. Пусть A1 , A2 . . . — произвольная последовательность случайных событий. ТогдаP(∞[Ai ) ≤∞Xi=1P(Ai ).i=1Задача 3.2. Докажите для произвольных событий A1 , . . . , An , чтоP(A1 ∪ · · · ∪ An ) =nXP(Ai ) −i=1+XXP(Ai ∩ Aj )+1≤i<j≤nn+1P(Ai ∩ Aj ∩ Ak ) − · · · + (−1)P(A1 ∩ · · · ∩ An ).1≤i<j<k≤n173.2Свойства математического ожидания случайных величинВ рассматриваемой схеме конечных вероятностных пространств случайной величиной называется произвольная числовая функция X = X(ω),зависящая от элементарного исхода. Математическое ожидание мы определили какXEX =X(ω)p(ω).(3.2)ωСформулируем основные свойства математического ожидания.1.
E IA = P(A).2. E(X + Y ) = E X + E Y.3. E(c · X) = c · E X, где c – произвольная константа.4. Если X(ω) ≥ 0 для всех ω, то E X ≥ 0.Проведем для примера доказательство свойства 2.Доказательство. Согласно определениюXXEX =X(ω)p(ω), E Y =Y (ω)p(ω).ω(3.3)ωСкладывая математические ожидания в (3.3), получимX(X(ω) + Y (ω))p(ω) = E(X + Y ).EX + EY =ωЗамечание. Математическое ожидание можно рассматривать каклинейный функционал, определенный на множестве случайных величин,заданных на одном вероятностном пространстве.2 Линейный функционал, для которого выполняется свойство 4, называют неотрицательным.В качестве линейного неотрицательного функционала, можно привестиследующий пример.R1Пусть X(ω) — непрерывная функция на [0, 1].
Тогда X(ω)dω обла0дает всеми перечисленными свойствами математического ожидания.В действительности связь между понятиями математического ожидания и интеграла более глубокая. Общее понятие математического ожидания в теории вероятностей соответствует понятию интеграла Лебега в2В общей теории к этим свойствам будет добавлено некоторое свойство "непрерывности"математического ожидания.18функциональном анализе. Но пока мы ограничиваемся простым случаемконечного вероятностного пространства.Как правило, в теории вероятностей важно знать не зависимость случайной величины X(ω) от ω ∈ Ω, а важно знать ее распределение. Дляслучайных величин с конечным числом различных между собой значений ( а мы имеем дело пока именно с такими случайными величинами),распределением называют набор значений x1 , .
. . , xn и соответствующихэтим значениям вероятностей p1 , . . . , pn , гдеpi = P{X(ω) = xi },i = 1, ..., n.Иногда мы будем задавать распределение случайной величины X таблицейx1p1x2p2......xnpn .Обратите внимание на то, что в этой таблице указываются все различныемежду собой значения случайной величины X, а сумма вероятностейвсегда равна 1.Приведем несколько утверждений, позволяющих вычислять E X, используя распределение случайной величины X.Определение 3.1. Класс B = {B1 , . . . , Bq } называется конечным разqSбиением Ω, если при всех i 6= j Bi ∩ Bj = ∅ и Ω =Bi .i=1Пусть есть два разбиения:B = {B1 , .
. . , Bq },C = {C1 , . . . , Cr }.Составим всевозможные пересечения Bi ∩ Cj , 1 ≤ i ≤ q,Таких пересечений q ṙ. Получили новое разбиение1 ≤ j ≤ r.A = {Bi ∩ Cj },которое называют пересечением разбиений и обозначаютA = B × C.Лемма 3.1. Пусть X(ω) – случайная величина, заданная на конечномвероятностном пространстве, B = {B1 , . . . , Bq } – некоторое разбиение Ω,причем X(ω) постоянна на каждом из Bj и X(ω) = x0j , если ω ∈ Bj .ТогдаqXX=x0j P(Bj ).Ej=119Доказательство.
Поскольку случайная величина X(ω) постоянна на каждом Bj разбиения , то ее можно представить в видеX(ω) =qXx0j · IBj (ω).j=1Возьмем математические ожидания от обеих частей этого равенства ивоспользуемся свойствами математического ожидания. ПолучимE X(ω) =qXx0j· E IBj (ω) =qXx0j · P(Bj ).j=1j=1С каждой случайной величиной можно связать естественное разбиение. Пусть распределение X(ω) задается таблицейx1p1x2p2......xnpn .(3.4)Обозначим Aj = {ω : X(ω) = xj }, pj = P(Aj ), j = 1, . . . , n. СобытияAj образуют разбиение множества элементарных исходов Ω и являютсяаналогом линий уровня в математическом анализе.Следствие 3.2.1. 1.
E X =nPxj pj .j=12. Если случайная величина Y = h(X), то E Y =nPh(xj ) · pj .j=1Следовательно, для вычисления математического ожидания случайной величины совсем необязательно знать зависимость X(ω), а достаточно знать ее распределение.3.3Вероятность появления хотя бы одногоиз n событийПусть A1 , . . . , An – произвольные случайные события. Обозначим N (ω) –случайную величину, равную числу наступающих событий среди A1 , . .
. , An .Для 0 ≤ k ≤ n событие {N (ω) = k} эквивалентно тому, что найдутся1 ≤ i1 < i2 < · · · < ik ≤ n такие, чтоω ∈ Ai1 , Ai2 · · · Aik , но ω ∈/ Aj , если j 6= i1 , i2 , . . . ik .20Задача 3.3. Для любого n вычислите вероятность P{ω : N (ω) = k}.Событие C =nSAi означает, что наступит хотя бы одно из событийi=1A1 , . . . , An , т.е.n[Ai = {ω : N (ω) ≥ 1}.i=1Для вывода формулы для вероятности события C воспользуемся свойствами индикаторов случайных событий и свойствами математическихожиданий.
ВведемS1 =S2 =S3 =nPP(Ai ),i=1PP(Ai Aj ),1≤i<j≤nPP(Ai Aj Ak ),1≤i<j<k≤n...Sn = P(A1 A2 · · · An ).Вероятности событий, связанных со случайной величиной N (ω), выражаются через величины S1 , . . . , Sn . Для индикатора события C имеемnYIC (ω) = 1 − IC (ω) = 1 − IA1 ∩···∩An (ω) = 1 − (1 − IAj (ω)) = 1−j=1− 1−nXj=1!IAj (ω) +XIAi (ω) · IAj (ω) − · · · + (−1)n IA1 (ω) · . . . · IAn (ω) .1≤i<j≤nВозьмем математическое ожидание от обеих частей этого равенства. Изсвойств аддитивности математического ожидания следуетn+1P(C) = S1 − S2 + S3 − . .
. + (−1) Sn .(3.5)Мы получили формулу для вероятности объединения n случайных событий.Задача 3.4. Докажите, что обрывая сумму в (3.5) на каком-либо члене,получим неравенства сверху и снизу:S1 − S2 ≤ P(C) ≤ S1 ,S1 − S2 + S3 − S4 ≤ P(C) ≤ S1 − S2 + S3и т.д.21Замечание. Подробнее о вычислении вероятностей событий {N (ω) =k} можно прочитать в учебнике В. Феллера, том 1.3Вернемся к примеру 3 лекции 1, в котором рассматривались случайные перестановки. Всего существует n! перестановок n различных чисел.Припишем каждой из них вероятность n!1 . Обозначим Ak – событие, состоящее в том, что число k в перестановке встречается на k-ом месте, вэтом случае будем говорить, что k – неподвижная точка.Используя полученные формулы, вычислим вероятность того, чтоесть хотя бы одна неподвижная точка.Поскольку(n − 1)!, 1 ≤ i ≤ n,P(Ai ) =n!(n − 2)!, i 6= j, .
. .P(Ai Aj ) =n!то11S1 = n·P(Ai ) = 1, S2 = Cn2 ·P(Ai Aj ) = , S3 = Cn3 ·P(Ai Aj Ak ) = , . . .2!3!Таким образомP(n[i=1Ai ) = 1 −111+ − . . . + (−1)n+1 · .2! 3!n!(3.6)Сравнивая это выражение с разложением для11− + ··· ,2! 3!получим, что выражение (3.6) – это сумма первых n слагаемых в разложении для 1 − e−1 .
Поскольку ряд сходится быстро, то получим хорошееприближениеe−1 = 1 − 1 +P(n[Ai ) ≈ 1 − e−1 ≈ 1 − 0.36788 = 0.63212.i=1Уже при n = 7 точное значение вероятности совпадает с приведеннымприближенным значением в 5 знаках после запятой.В учебнике В.Феллера приводится способ вычисления вероятностейтого, что имеет место в точности k совпадений и показано, чтоe−1.P{N (ω) = k} ≈k!Так для n = 10 результаты приведены в таблице3Эта книга выдержала несколько изданий, в том числе и на русском языке. Первыйтом посвящен дискретным вероятностным моделям, а второй – непрерывным.22N =k0123456789P{N = k}0.367880.367880.133940.061310.015340.003060.000520.000070.000010.00000Эти результаты можно использовать в задачах угадывания: пусть имеется несколько наборов из 10 карт (Т,К,Д,В,10,9,8,7,6,5).
Тогда вероятности угадать определенное число карт вычисляются по приведеннымформулам и указаны в таблице.23Глава 4Независимость случайныхсобытий и случайных величин4.1Условная вероятность. Независимость двухслучайных событийПонятие независимости встречается во многих разделах математики: этолинейная независимость векторов в линейной алгебре, функциональнаянезависимость систем функций в математическом анализе и т.д. Чтобы подчеркнуть различие понятия независимости в теории вероятностей ее называют статистической или стохастической независимостью.Но поскольку в нашем курсе будет рассматриваться только такая независимость, то в дальнейшем мы будем говорить просто о независимостислучайных величин или о независимости случайных событий.С понятием независимости в теории вероятностей тесно связано понятие условной вероятности.
Приведем для начала некоторые наглядныесоображения, поясняющие эти понятия.Пусть n раз подбрасывают 2 игральных кости, событие A происходит, если на первой кости выпала 1, событие B, если на второй выпала5. Результаты опыта будем отмечать в таблице, ставя знак +, если всоответствующем опыте наблюдалось наступление события, и знак −,если это не так. К примеру, после 6 проведенных испытаний мы моглиполучить следующую таблицуномер испытанияAB1 2 3 4 5 6+ + + − − ++ − − + + −Пусть n –это число проведенных испытаний ( в примере n = 6),24nA – число испытаний, в которых наблюдалось событие A(nA = 4), nB– число испытаний, в которых произошло событие B(nB = 3), nAB –число испытаний, в которых наступили оба события (nAB = 1).Тогда nnAB- относительная частота наступления события B в ряду техAиспытаний, в которых произошло событие A. Поскольку при большомчисле испытаний относительная частота наступления события близка квероятности этого события, то мы можем записатьnAB=nAnABnnAn≈P(AB).P(A)Определение 4.1.