Секей Г. Парадоксы в теории вероятностей и математической статистике (1990) (1151962), страница 14
Текст из файла (страница 14)
Обозначим множество этих значений через г', и пусть А = (а,, ам ..., а„) и В= (Ьь Ьь ..., Ь„) — две (конечные) последовательности элементов из У. Введем следующие обозначения: 1/Р(Х'=Ь|), если 1<1< гп, 1 </<л, п~=Ьь Ас = 0 в противном случае и А В =Ап1ы .. г)тт+йиг(ю ... с(тт ~+...+г1 и. Пусть Тз и Тэ обозначают число Х-величин до первого появления последовательностей А и В в Хь Хм ... соответственно. Тогда математическое ожидание величины Тл равно А А, а вероятность того, что Т, меньше, чем Тэ (в предположении, что ни А, ни В не содержат в себе другой последовательности) вычисляется по формуле (  — А А)/(А А+   — А  — В ° А). Например, для серии à — Р при бросании правильной монеты имеем 4~=0 или г(и =2.
Если А = (ГРГР) и В = (РГРР), то А А = 20, В В = 18, А В = 10 и В А = О, так что вероятность того, что А произойдет быстрее В, равна 18/28 = 9/14, что и утверждалось выше. Сформулируем теперь более изощренную теорему (до сих пор не опубликованную). Предположим, что мы ждем появления всех возможных серий à — Р длины л, которые могут появиться при бросании правильной монеты (таких серий всего 2"), и пусть т„означает это (случайное) время ожидания. Тогда 1пп Р (т„/2" — !ои 2' < х) = ехр ( — е-я).
л-~ (й) Если при бросании правильной монеты мы хотим получить заданную последовательность длины 3 (например, ГГР), мы должны бросать монету в среднем не менее 8 раз. Число необходимых бросаний будет наименьшим для получения любой следующей последовательности: (ГГР), (РГГ), (РРГ), (ГРР).
(В каждом таком случае среднее число необходимых бросаний равно 8, а во всех других случаях оно больше 8.) Сравним эти серии следующим образом: а) вероятность того, что серия (ГГР) появится быстрее, чем (РГГ), равна 1/4. 8) (РГГ) появится раньше, чем (РРГ), с вероятностью 1/3, у) (РРГ) произойдет быстрее, чем (ГРР), с вероятностью 1/4, и наконец, 6) вероятность того, что (ГРР) наступит раньше, чем (ГГР) равна 1/3. Таким образом, начав с серии (ГГР), мы опять вернулись к ней, хотя на каждом шаге вероятности сравнения были строго меньше 1/2. (Лаго (Л Вкоп-Уеп й. УД тагнпка!е арргоаск 1о Ше в1пбу о! осспггепсе о1 веяпепсе ранегпз !и гереа1еб ехрег!теп1з".
Аппо(з о( Ргозогйир, В, 1171 — 1176, (1960).) г) Парадокс условной вероятности Существуют события А, В и С такие, что а) условная вероятность события А при условии, что событие В произошло, меньше, чем условная вероятность события А при условии, что В не произошло; р) условная вероятность А при условии, что произошли оба события В и С, больше условной вероятности А при условии, что С наступило, а В нет; 7) условная вероятность А относительно В и дополнения к С больше условной вероятности А при условии, что ни В, ни С не произошли. Символически эти три утверждения можно записать следующим образом: Р (А ( В) ( Р (А ) В), Р(А ) ВС) > Р(А ) ВС) и Р (А ) ВС) > Р (А ( ВС).
Это представляется парадоксальным, потому что можно подумать, что Р(А(В) есть среднее величин Р(А)ВС) н Р(А)ВС) и, аналогично, Р(А)В) — среднее величин Р(А ~ВС) н Р(А ~ВС), а среднее двух меньших величин должно быть меньше среднего двух ббльших величин. Объяснение этого ошибочного заключения состоит в том, что Р(А~!В) и Р(А~!В) являются взвешенными средними указанных выше вероятностей, причем соответствующие веса в обоих случаях различны: Р (А ( В) = Р (С ( В) Р (А ( ВС) + Р (С ) В)-Р (А ( ВС), в то время, как Р (А ) В) = Р(С ( В) Р (А ( ВС) + Р (С ( В) Р-(А ) ВС).
Тем не менее, если события В и С независимы, то Р(С~)В) = =Р(С~(й) и Р(ЦВ) = Р(Ц(В), так что в этом случае парадоксов не возникает. (Лата В!унг С. Й. "Оп Ь!трапа'з рагабох апб Ше ваге Иппк рппс!р!е". Х. Атег. ЗгоГ!зг. Авзоа, 67, 364 — Збб, (!972).) д) Парадокс случайных времен ожидания Предположим, что два случайных события происходят через (случайное) время Х и У. Парадоксально, но может так слу- читься, что Х > У с вероятностью по крайней мере 0.99, однако Х стохастически меньше, чем У '), т. е. вероятность того, что Х < 7, больше вероятности события У < ! при любом фиксированном времени 1 (или, другими словами, функция распределения случайной величины Х всюду больше, чем функция распределения У). Например, это так, если У равномерно распределена на интервале (О, 1), Х = У + (1 — У)/1000 с вероятностью 0.99 и Х = У/1000 с вероятностью 0.01.
[Такая парадоксальная ситуация невозможна, если Х и У независимы: пусть Р и 6 обозначают нх функции распределения; для простоты предположим, что функция 6 непрерывна и существует обратная к ней функция 6-'. Тогда функция распределения случайной величины Х = 6 — '(Р(Х)) совпадает с 6. Поскольку Р > 6, имеем Х > Х. Следовательно, Р(Х > У) < Р(Х > У) = 1/2, так как Я и У независимые одинаково распределенные случайные величины, т, е, Р(Х > У) должно быть намного меньше, чем 0.99, На самом деле эта вероятность не превосходит 0.5.] Следующий парадокс аналогичен предыдущему.
Пусть Х и У две независимые случайные величины, причем Х стохастически меньше У. Тогда можно подумать, что шах(Х, Х+ У) также стохастически меньше шах(У, Х+ У), но это неверно. Например, в случае, когда Х и У принимают только значения — 1, О, 1 с вероятностями 1/4, 1/2, 1/4 и 1/4, 1/4, 1/2 соответственно. (Литл В!уш С.
и. "Бове ргоЬаЬг(иу рвгабохез 1п сио(се (гош агпопк гапоош айегпа(!техн (с комментариями Д. Линдли, И. Гуда, Р. Уинклера и Дж. Пратта), Х. Агпвг. 5(о1, Авзос., 87, Збб — 388, (1972). См. также 8!АМ йет., Арп! 1970.) е) Парадокс транзитивности Два игрока А и В играют в следующую игру. На первом шаге игрок А расставляет числа по своему вкусу на 3-х игральных костях, записывая по одному числу из набора 1, 2, 3,...,18 на каждой грани костей (каждое число должно быть использовано только один раз). На втором шаге В, внимательно изучив зти 3 кости (занумерованные игроком А), выбирает одну из них.
На третьем шаге А выбирает одну из оставшихся 2-х игральных костей. На последнем шаге и А, и В бросают свои игральные кости и побеждает тот, у кого выпало большее число. Можно подумать, что эта игра более выгодна игроку В, поскольку независимо от того, как А занумерует 3 кости, В всегда ') Для ограниченных случайных величин Х, У считаем, что Х стохастически меньше У, если Р(Г), функция распределении величины Х, всюду не меньше 6(Г), функции распределения у, и найдется значение Гв такое, что Е(гв) ) а(гв). — Прим. перев.
может выбрать лучшую из них (или одну из лучших). Следовательно, шанс победить у В составляет по крайней мере 50 ~/,. Однако справедливо именно противоположное: А может так занумеровать кости, что он побеждает с вероятностью 21/36 (что больше 50 т«), независимо от того, какую кость выбирает В. Это происходит из-за системы нумерации «поражения по кругу», при которой каждая кость побеждает ровно одну из других двух костей, что означает, что среди костей нет «лучшей».
Пусть 1, П и П! обозначают три кости, и предположим, что игрок А занумеровал кости следующим образом: он записал числа 18, 1О, 9, 8, 7, 5 на гранях кости 1 17, 16, !5, 4, 3, 2 на гранях кости П 14, 13, 12, 11, 6, 1 на гранях кости П1 Нетрудно вычислить, что на кости 1 появится число, большее, чем на кости П, с вероятностью 21/36. Аналогично на кости П выпадет число, большее, чем на кости П1, с вероятностью 2!/36. И вероятность появления ббльшего числа при бросании кости П1, чем при бросании кости 1, также равна 21/36. Следовательно, вероятность «поражения по кругу» равна 2!/36. Итак, если А занумеровал кости таким образом, то его позиция предпочтительней по сравнению с В. (Если В выберет кость 1, П или П1, и А возьмет соответственно кость П1, 1 или П, то у А больше шансов победить,) Можно также доказать, что вероятность «поражения по кругу» не может быть больше 21/36.
Суть этого парадокса заключается в том, что случайные величины не всегда можно упорядочить таким образом, что одна будет больше другой с вероятностью, превосходящей 50%, потому что нет транзитивности. В случае, когда одно и то же число можно записать на нескольких гранях, например, 1, 4, 4, 4, 4, 4 на кости 1 2, 2, 2, 5, 5, 5 на кости П 3, 3, 3, 3, 3, 6 на кости П1 то вероятность «поражения по кругу» также равна 21/36. Сформулируем парадокс в более общем виде.
Пусть Хь Хь ..., Մ— произвольные числа, зависящие от случая (т, е, случайные величины). Обозначим вероятности событий Х~ ( Хм Хг < Хм ... ...; Х, ( Х~ через рь рь ..., р, соответственно. Тогда пнп(рь рь ..., р„) есть вероятность «поражения по кругу». Пусть я„ обозначает эту вероятность. Чем больше й„, тем интереснее становится парадокс. Можно легко показать, что л„никогда не превзойдет (и — 1)/л, и эта величина является наименьшим верхним пределом. Вычисление наименьшего верхнего предела для й» значительно сложнее, если предполагается, что случайные величины Хь Х»,..., Х„независимы как исходы при бросании кости.
Пусть 1 обозначает наименьший верхний предел в этом случае. Усыскин вычислил (Анна(з о! 31аПз!., 35, 857 — 862, 1964), что 1» = !/2, !»=(~/5 — 1)/2 (соотношение золотого сечения), 1» = 2/3 и т. д. Последовательность (!' ) монотонно возрастает и сходится к 3/4. Можно показать, что скорость сходимости имеет порядок и-'. ж) Парадокс измерения регулярности игральной кости При бросании правильной игральной кости одна и та же грань появится два раза подряд в среднем при 7 бросаниях и три раза подряд при 43 бросаниях (см.