Секей Г. Парадоксы в теории вероятностей и математической статистике (1990) (1151962), страница 5
Текст из файла (страница 5)
ссылку ниже). Он доказал следующую поразительную теорему: игрок, который подает первым, имеет одинаковые шансы выиграть в А! партиях раньше своего соперника независимо от того, подают ли игроки поочередно или подает тот, кто выигрывает предыдущую партию '). ') Эту теорему комбинаторными методами раньше доказал Кингстон (см. К(пяжоп д Сь Сшпрапзоп о! Бсобпя зуз!сгпз !п й«о-зшеб согпреш(опз, А СоглЬ.
7(гаагу (А), 20, 367 — 362, ((976)). Андерсону принадлежит простое доказательство теоремы с использованием идеи Ферма — Прим. перев. д) Литература Апаегаоп С. Ц "Хо1е оп Нае аачап1апе о1 1бе Пг»1 аегче", А Сотбгпа!олсо! Тбеогу (А) 23, 363, (1977). зогаап К. Сбор!ага оп Гбе С!ача!го! Со!оа!аа о) Ргобобг!Шеа, Акааегп1аг К1ааб, Впааре»1, 1972. 4.
Парадокс независимости а) История парадокса Сначала определим понятие независимости для двух случайных событий А и В. Обозначим их вероятности через Р(А) и Р(В), и пусть Р(АВ) — вероятность того, что наступят и А, и В. (Символ Р широко используется для обозначения вероятности события, поскольку не только в английском, но и во многих других языках начальной буквой слова «вероятность» является Р— ргоЬаЬ!11(аз в латинском, ргоЬаЬ!1!(е во французском, ргоЬаЬ1- 1!баб в испанском, ргоЬаЬ1!!(а в итальянском языке и т. д.) Пусть А — произвольное событие и  — событие, имеющее положительную вероятность. Вероятность события А при условии, что событие В произошло, иными словами, условную вероятность А относительно В, будем обозначать Р(А ~В) и определять отношением Р (А ! В) = Р (АВ)(Р (В).
Два события А и В называются независимыми, если справедливо равенство Р(А!В) =Р(А), т. е. если условная вероятность равна безусловной. Если записать предыдущее соотношение в виде Р(АВ)=Р(А) Р(В), (е) то мы получаем простое равенство, симметричное по А и В, в котором даже не надо предполагать, что вероятность Р(В) положительна. Следовательно, предпочтительнее начать со следующего определения: два события А и В независимы, если выполнено равенство (а). Математическое определение независимости, как правило, согласуется с нашим обычным представлением о независимости.
Например, если мы бросаем две кости, то события «шестерка на первой кости» и «шестерка на второй кости», очевидно, независимы как в общепринятом смысле, так и математическом. Это согласование, однако, наблюдается яе всегда. С. Н.
Бернштейн обратил внимание на следующий парадокс. б) Парадокс Предположим, что бросают две правильные монеты. Пусть событие Л вЂ” «на первой монете выпал герб», событие  — «на второй монете выпал герб» и событие С вЂ” <на одной (и только на одной) монете выпал герб». Тогда события А, В и С попарно независимы, но любые два из них однозначно определяют третье. в) Объяснение парадокса Во-первых, А и В, очевидно, независимы, поскольку результаты первого бросания не зависят от результатов второго.
С другой стороны, события А и С (а также В и С) на первый взгляд кажутся зависимыми, но так как Р(ЛС) = Р(А) Р(С) = 1/4 и аналогично Р(ВС) =Р(В).Р(С), они на самом деле независимы. Справедливо также, что любые два события определяют третье, поскольку каждое событие (А, В и С) происходит тогда и только тогда, когда происходит ровно одно из двух других событий. Этот парадоксальный феномен показывает, что попарная независимость событий не означает их независимость в совокупности. Если мы хотим выразить последнее, то должны предполагать больше, чем попарную независимость.
События из некоторой совокупности называются взаимно независимыми, если для любого конечного набора событий из этой совокупности Ль Аз, ..., А, выполняется свойство мультипликативности Р(А,А,... А„) =Р(А,) Р(А,)..... Р(А„), (««) т. е. если вероятность совместного события равна произведению индивидуальных (маргинальных) вероятностей. г) Залечанил (1) Если события Ль Аь ..., Л„не независимы, то можно утверждать лишь, что — (1 — 1/п)"(Р(А~А, ... А„)— — Р(А1)Р(Л,) °... Р(А„) ( (и — 1)п-"и" — 'Е (й) Несколько простых парадоксов можно разрешить только с помощью понятия независимости. Рассмотрим следующую задачу.
Юноша собирается сыграть три теннисных матча со своими родителями, и он должен победить два раза подряд. Порядок матчей может быть следующим: «отец — мать — отец» или «мать — отец — мать». Юноше нужно решить, какой порядок для него предпочтительнес, учитывая, что отец играет лучше матери. С первого взгляда кажется, что второй порядок предпочтительнее для юноши, так как в этом случае он дважды играет со своей матерью. Одяако при этом юноша должен побелить в единственном матче, который он играет против отца, в противном случае у него не будет двух побед подряд.
Может быть, лучше выбрать первый варианте Если юноша выигрывает у отца с вероятностью р и с вероятностью о — у матери, то р < д, так как отец играет лучше матери. Выбрав первый вариант, юноша должен выиграть либо первый и второй матчи— и вероятность этого ро, либо второй и третий матчи — и вероятность такого исхода ор. Таким образом, вероятность того, что произойдет одно из этих двух событий, равна рд + др — рдр (рор необходимо вычесть, так как в противном случае дважды учитывается вероятность выигрыша юноши в трех матчах). Аналогично если юноша выбирает второй возможный вариант, то вероятность того, что он победит два раза подряд, равна др+ рд — ярд. Поскольку р < о, получаем ро+ др — рор ) ) яр+ рч — ярд, откуда следует, что для юноши лучше выбрать вариант «отец — мать — отецъ! (ш) Можно также определить независимость случайных величин.
Пусть Хь Хь ...— произвольные случайные величины, принимающие действительные значения. Эти величины называются взаимно независимыми (или, кратко, независимыми), если для произвольных действительных значений хь х,, ... события Ам = (Х, < х,), А.„= (Х, < х,), ... взаимно независимы. Функция Р(х) = Р(Х < х) называется функцией распределения случайной величины Х, и функция Р(х, у °, ге)=Р(Х < х, у< у, ..., ят< ге) называется совместной функцией распределения случайных величин Х, У, ..., йт.
Теперь мы можем определить совместную независимость для произвольного (конечного или бесконечного) множества случайных величин следующим образом: множество случайных величин называется независимым, если для произвольного конечного подмножества Я этого множества совместная функция распределения случайных величин из Я равняется произведению их индивидуальных (маргинальных) функций распределения. Если функция распределения Р(х) и совместная функция распределения Р(х, у, ...) могут быть записаны в виде « Р (х) = ~ ) (х) йх О Р(х, у, ..., тэ)= ~ ~ ...
~ ~(х, у, ..., ге)йхйу... Йв, то функции )(х) и )(х, у, ..., й) называются плотностями вероятности. Если плотности вероятности существуют, то незави- симость означает, что совместная плотность равна произведению индивидуальных плотностей. (ш) Если плотность вероятности ((х) случайной величины Х существует, то математическое ожидание Х равно Е(Х) = ~ х((х)йх. Математическое ожидание случайной величины (Х вЂ” Е(Х))' называется дисперсией величины Х.
Положительное значение квадратного корня из дисперсии называется стандартным отклонением и является мерой разброса случайной величины Х вокруг ее среднего значения. (Существуют и другие меры разброса, но наиболее важной безусловно является стандартное отклонение. Впервые термины «стандартное отклонение» и <дисперсия» использовались К. Пирсоном (!898 г.) и Р. Фишером (1920 г.) соответственно.) Если ((х) — плотность случайной величины Х, то ее дисперсия ° ч Рв(Х)= ~ (х — Е(Х)Я(х)агх.
Если Х и У независимы, то Е(ХУ)=Е(Х) Е(У) и Рв(Х+ У)= =Р'(Х)+Рв(У) (при условии, что у Х и У дисперсии существуют) . Равенство Е (Х + У) = Е(Х) + Е ( У) имеет место без предположения о независимости Х и У. д) Литература Зоне А. чеп а ае1 о1 а!шоа1 бе1егннп1вис Мберенбея1 гапбош чамаЫев", Алло!в о! Ргок 2, 161 — 162, (!974). Ч(апя У. Н. З()ерепбеп1 гапбогп чаг1аЫеа тчпЬ шберелбен1 внЬве1в", Тае Атег!спп МоЯ.
Монга!у, 86, 290 — 292, (1979). Следующая статья посвящена довольно лгобопытному соотнощениго между невависимостыо и крявыми Пеано: Но!ьгоо)г 4. А. й. "ШосЬав11с 'шберелбенсе апб красе-Шипя снгчев", Тае Атедсоп Мо(а. Мол!Д!у, 88, 426 — 432, (!981). 5. Парадоксы бриджа и лотереи а) История парадокса История азартных игр начинается с древнейших времен. Они получили настолько широкое распространение, что некоторые государства и религии считали своим долгом азартные игры запретить. Фридрих П, император Священной Римской империи, в 1232 г. запретил игру в кости.
(В то время это была, видимо, единственная популярная азартная игра.) Луи ТХ, король Франции, в 1255 г. издал закон, по которому игровые кости нельзя было даже изготавливать. В еврейском Талмуде игроков считали ворами, преследовала игроков и христианская церковь. Среди современных азартных игр наиболее распространены, несомненно, карточные игры.