Ю.В. Прохоров, Л.С. Пономаренко - Лекции по теории вероятностей и математической статистике (1115359), страница 3
Текст из файла (страница 3)
При этомпервому игроку достаются первая, пятая, девятая и т.д. карты из колоды, второму – вторая, шестая и т.д.Первому игроку достанутся все карты червовой масти, если на местах1, 5, 9, . . . стоят числа 1, 2, . . . , 13 в том или ином порядке. Посколькувсего исходов s = 52!, благоприятствующих – 4 · 13! · 39!, тоP(B) =4 · 13! · 39!≈ 6.3 · 10−12 .52!Хотя это событие и маловероятно, но возможно, что игроки в бриджмогли наблюдать его.33Подробнее о вычислении вероятностей при игре в бридж можно прочитать в [9]81.2.5Абсолютно случайные последовательностиРассмотрим в качестве элементарных исходов ω = (δ1 , δ2 , . . .
δn ) –цепочкидлины n, где δi – это либо 0, либо 1, причем появление 0 или 1 на каждом месте равновозможно.4 Всего таких исходов будет s = 2n . Вероятность каждого отдельного исхода равна P(ω) = 21n . При больших nэти вероятности очень малы, так при n = 100 P(ω) ≈ 10−30 , а приn = 1000 P(ω) ≈ 10−300 .Такие последовательности играют важную роль в теории информации, в частности используются при кодировании и защите информации.Сформулируем ряд свойств таких последовательностей в виде задач.Задача 1.3. Пусть ω = (δ1 , . . . , δn ) – абсолютно случайная последовательность длины n, и 1 ≤ m1 < m2 < . . . < mk ≤ n – некоторая последовательность длины k.
Тогда новая подпоследовательностьω 0 = (δm1 , δm2 , . . . , δmk ) – также абсолютно случайная последовательность, но длины k.Поясним утверждение на примере. Пусть n = 5, m1 = 1 m2 = 2 иω = (0, 0). Тогда P(ω 0 ) = 212 . Действительно, ω 0 может быть получена излюбой из 8 последовательностей:0(00000)(00100)(00001)(00101)(00010) (00011)(00110) (00111).Вероятность события A, для которого эти исходы являются благоприятствующими, равна231P(A) = 5 = 2 .22Для реализации абсолютно случайных последовательностей используют либо физические датчики, либо последовательности так называемых псевдослучайных чисел, полученных по определенному вычислительному алгоритму и потому не являющихся случайными в прямомсмысле, но обладающих схожими свойствами.5 Существуют таблицы случайных чисел, самая значительная из них "Миллион случайных чисел".6Заметим, что если бросать монету и отмечать выпадение герба цифрой 1, а решки – цифрой 0, то получится последовательность нулей и4В дальнейшем такие последовательности из 0 и 1 будем называть абсолютнослучайными последовательностями.5См.
подробнее [3].6A million random digits with 100000 normal deviates, Rand Corporation, Glencoe,Illinois, 1955.9единиц, но обычно полученные таким образом результаты не удовлетворяют критериям случайности. Это связано либо с тем, что монета неявляется идеально симметричной, либо с особенностями бросающего монету.Задача 1.4. Пусть новая последовательность ω 0 длины n − 1 полученаиз ω следующим образом: смены 0 и 1 соответствуют в новой последовательности 1, а отсутствие перемены – 0.
Скажем, если ω = (01101),то ω 0 = (1011). Тогда ω 0 также абсолютно случайная последовательностьдлины n − 1.Задача 1.5. Рассмотрим фиксированную последовательностьε0 = (0, 0, 1, 0, 1) и случайную последовательность ε1 = (δ1 , . . . , δ5 ). Сложив их почленно по mod 2, получим последовательность ε2 = (δ 0 1 , . .
. , δ 0 5 ).Тогда эта последовательность также абсолютно случайна.Задача 1.6. Рассмотрим буквы русского алфавита, отождествив предварительно е с ё. Их окажется 32. Закодируем их, ставя в соответствиекаждой букве её порядковый номер минус 1, записанный в двоичнойсистеме и дополненный нулями, чтобы получилась цепочка длины 5:А(00000), Б(00001), В(00010),...,Я(11111). Если взять произвольный текст,то из страницы текста получится некоторая последовательность ε0 . Сложим теперь ее по mod2 со случайной последовательностью такой же длины ε1 . Тогда в силу утверждения предыдущей задачи полученная последовательность ε2 будет абсолютно случайной. Расшифровать основнойтекст можно, сложив ε2 + ε1 = ε0 (mod 2).Это один из способов кодирования секретной информации.77Использовался в горячей линии Москва – Вашингтон.10Глава 2Случайные величины ислучайные событияВ предыдущей главе мы познакомились с примерами, в которых вероятности вычислялись прямым подсчетом.
Для дальнейшего развития теории нам понадобятся новые понятия, новые обозначения.В теории вероятностей принята своя терминология, отличная от используемой, скажем, в математическом анализе. В учебнике А. Н. Ширяева "Вероятность"([10]стр.149-150, второе издание) можно найти таблицусоответствия некоторых терминов.2.1Случайные величиныРассмотрим конечное вероятностное пространство (Ω, A, P). Напомним,чтоΩ — это конечное множество, состоящее из s элементарных исходовω1 , .
. . , ωs ,A — класс всех подмножеств, называемых случайными событиями,P — вероятность или распределение вероятностей на классе A.Определение 2.1. Случайной величиной, заданной на конечном вероятностном пространстве, называется любая функция, зависящая от элементарного исхода ω и принимающая числовые значения.Обозначать случайные величины будем заглавными буквами концалатинского алфавита X = X(ω), Y = Y (ω), Z = Z(ω), . .
. или греческимибуквами ξ = ξ(ω), η = η(ω), ζ = ζ(ω), . . . Аргумент ω часто опускают.Замечание. В более сложных случаях, когда пространство ω состоитиз бесконечного числа элементарных исходов, все значительно усложня11ется. Общее определение вероятностного пространства и случайной величины появится позже (см. главу 9).Определение 2.2. Математическим ожиданием случайной величиныX(ω), определенной на конечном вероятностном пространстве, называется числоXX(ω) · p(ω).EX =ω∈AОбозначение E X происходит от первой буквы английского слова expectation– ожидание. В отечественной литературе для обозначения математического ожидания также широко используется MX.Определение 2.3. Индикатором случайного события A называется случайная величина1, если ω ∈ AIA (ω) =0, если ω ∈/ A.Для индикатора события AXX1 · p(ω) = P(A).IA (ω)p(ω) =E IA (ω) =ωωТаким образом математическим ожиданием индикатора случайного событ ия является его вероятность.Случайные события обычно обозначают первыми заглавными буквами латинского алфавита: A, B, C, .
. . . Наряду с отдельными случайными событиями мы будем рассматривать классы (множества) случайныхсобытий, для обозначения которых будем использовать рукописные заглавные буквы: A, B, C . . .2.2Операции над случайными событиями1. Включение событий:A ⊂ B (A ⊆ B), если из условия ω ∈ A следует, что ω ∈ B. В теориивероятностей в этом случае говорят, что событие A влечет наступлениесобытия B. Если A ⊂ B, а B ⊂ A, то A = B.2. Объединение событий:A ∪ B = {ω : ω ∈ A или ω ∈ B} – это событие, состоящее изисходов, которые принадлежат или A, или B, или одновременно двумэтим событиям.3. Пересечение событий:12A ∩ B = {ω : ω ∈ A и ω ∈ B} – это событие, состоящее из техэлементарных исходов, которые одновременно принадлежат A и B.
Этуоперацию также обозначают как A · B = AB.4. Разность событий:A \ B = {ω : ω ∈ A, но ω ∈/ B} – событие, состоящее из элементарных исходов, принадлежащих A, но не принадлежащих B.5. Отрицание:A = Ω \ A – это событие состоит из всех элементарных исходов, которые не принадлежат A, A также называют дополнением к A или событием, противоположным A.5. Симметрическая разность:A 4 B = (A \ B) ∪ (B \ A) – событие, состоящее из исходов, которые содержатся или в A, или в B, но не принадлежат обоим событиямодновременно.События называются несовместимыми, если у них нет общих исходов, т.е.
A ∩ B = ∅.Для несовместимых событий симметрическая разность этих событийсовпадает с их объединением.Задача 2.1. Докажите следующие свойства операций над случайнымисобытиями:1) коммутативность:A ∩ B = B ∩ A,A ∪ B = B ∪ A;2) ассоциативность:A ∪ (B ∪ C) = (A ∪ B) ∪ C = A ∪ B ∪ C,A ∩ (B ∩ C) = (A ∩ B) ∩ C = A ∩ B ∩ C;3) дистрибутивность:A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C),A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C);4) принцип двойственности:A ∪ B = A ∩ B,A ∩ B = A ∪ B.132.3Операции над индикаторамиОперациям над случайными событиями соответствуют операции над индикаторами этих событий.Задача 2.2.
Докажите, что1) IA∩B (ω) = IA (ω) · IB (ω),2) IA (ω) = 1 − IA (ω),3) IA∪B (ω) = IA (ω) + IB (ω) − IA∩B (ω),4) IA4B (ω) = |IA (ω) − IB (ω)| = IA (ω) + IB (ω)(mod 2).Приведем для примера доказательство свойства 3 индикаторов случайных событий:IA∪B (ω) = 1 − IA∪B (ω) = 1 − IA∩B (ω) == 1 − IA (ω) · IB (ω) = 1 − (1 − IA (ω)) · (1 − IB (ω)) = IA (ω) + IB (ω) − IA∩B (ω).Задача 2.3.
Докажите обобщение этого утверждения для n событий, аименноI Sni=1Ai(ω) =nXi=1IAi (ω) −XIAi Aj (ω) + · · · + (−1)n+1 IA1 A2 ...An (ω).1≤i<j≤nЗадача 2.4. Докажите свойства симметрической разности:1)A4(B4C) = (A4B)4C,2)A ∪ B = (A4B)4(A ∩ B).Пусть A1 , .
. . , An – произвольные n случайных событий.Определение 2.4. Событие F определяется по событиям A1 , . . . , An ,если индикатор события F есть функция от индикаторов этих событий,т.е.IF = H(IA1 (ω), . . . , IAn (ω)),где H(·) – функция, определенная в вершинах единичного n− мерногокуба.В этом случае, зная, какие из событий A1 , . . . , An наступли и какие ненаступили, можно однозначно судить о том, наступило или нет событиеF.14Глава 3Свойства вероятности иматематического ожидания3.1Свойства вероятностиИз определения вероятности P(A), A ∈ A для конечных вероятностных пространств следует, что вероятность обладает следующими свойствамиР1.
P(A) ≥ 0;Р2. P(Ω) = 1, P(∅) = 0;Р3. Для попарно несовместимых случайных событий A1 , . . . , AnP(n[Ai ) =nXi=1P(Ai ).i=1Последнее свойство называют свойством конечной аддитивности вероятности. Напомним, что попарная несовместимость событий означает,что Ai ∩ Aj = ∅, если i 6= j.Первые два свойства вероятности очевидны. Докажем свойство Р3.Доказательство проведем по индукции по числу событий n.Пусть n = 2. ТогдаP(A1 ∪ A2 ) =Xω∈A1 ∪A2p(ω) =Xp(ω) +ω∈A1Xp(ω) = P(A1 ) + P(A2 ).ω∈A2Заметим, что возможность изменения порядка суммирования в данномслучае сомнений не вызывает, поскольку все суммы содержат конечноечисло слагаемых.15Пусть свойство выполняется для n − 1 события A1 , . . . , An−1 , тогда( n−1 !!)!nn−1n[[[[XAi = PAiAn = PAi + P(An ) =PP(Ai ),i=1i=1i=1i=1что и доказывает свойство Р3.Все остальные свойства, приведенные ниже, могут быть получены изсвойств Р1, Р2, Р3.14.