Секей Г. Парадоксы в теории вероятностей и математической статистике (1990) (1151962), страница 28
Текст из файла (страница 28)
Сначала возьмем выборку из одного элемента из каждого распределения. Тогда вероятность правильного выбора равна Р(Х~ < Ха и Ха с Хз)= Р (Хз = 2 5) + Р (Ха = 1) Р (Х~ = О) Р (Хг = О) = 5/8 Посмотрим теперь, что произойдет, если увеличить объем одной из выборок (например, для Хз) до 2 (остальные выборки оставить без изменений)7 Тогда вероятность правильного выбора равна Р (Х| < Хз и Хз < Хз) = 7/16 где Хз — арифметическое среднее двух элементов выборки. Таким образом, если раньше вероятность правильного выбора была больше 50 ~з, то теперь она уменьшилась и составляет менее 50 з/,. (Лпгз Сыпз тгг. К., 1.зт К. Тье Атепсзп 31знзнс)зп, !973.) Знаменитый парадокс Ф.
Эджворта (1888 г.) касается аналогичной проблемы: если Х1 и Хз являются независимыми случайными величинами с одинаковыми плотностями вероятности /(х — О), симметричными относительно 0, то может так случиться, что Х~ ближе к О, чем Х = (Хг+ Хз)/2, в том смысле, что Р()Х1 — 0)~(з) ) Р()Х вЂ” 0(<з) для любого положительного е. Например, так будет в случае, когда 3 1 ~(")=9 (1+(.)) потому что плотность вероятности случайной величины Х1 в точке 0 больше, чем плотность величины Х. (Лиге 309(ег $. М. "Ап Еаяепогщ спг(озпгп", Аппаы о) 31аз(з(., 8, 931— 934, (1980).) е) Парадокс равенства математических ожиданий Предположим, что математические ожидания трех нормально распределенных случайных величин с одинаковыми дисперсиями равны ть тз и тз. Может так случиться, что используя, например, (-критерий Стьюдента, мы примем гипотезы т1 — — тг и те= гп, (при некотором уровне значимости), но отвергнем т1 — — тзг (Задача проверки гипотезы о равенстве математических ожиданий при наличии двух выборок объема и решается с помощью статистики Х вЂ” У 21)' где Х и Р— выборочные средние, а В' — выборочное стандартное отклонение.
Статистика ( имеет распределение Стьюдента с параметром 2п — 2.) Этот парадокс положил начало многим исследованиям по одновременной проверке нескольких гипо- тез (дисперсионный анализ и т. д.). (Лнгл Ногаев Д 1., 1львапп Е. 1.. "Тве еИс1епсу о1 ногае попрагапге1г!с согпрещогв о1 1йе Ьевг", Аппа1в о! Мапг. 51анв1., 27, 324 — 335, 1933). сье11е Н.
Тйе Апа!ув!в о1 Уаг1апсе, %!1еус Ыен Уогй, 1959. (Инеетсв русскнй неревод: Шеффе Г. Днсперснонний аннана.— Мл ГИФМЛ, 1963.]) ж) Парадоксальная оценка для математического ожидания нормального распоеделения Мы хотим, используя выборку объема и, оценить неизвестное математическое ожидание (одномерного) нормального распределения с единичным стандартным отклонением. Известно, что арифметическое среднее Х выборки дает оценку, обладающую многими хорошими свойствами. Например, эта оценка имеет наименьшую дисперсию, является несмещенной, допустимой и минимаксной при квадратичной функции потерь. Однако, несмотря на эти свойства, если нам нужно получить лишь оценку, которая близка к 0 насколько это возможно, то существует оценка О, лучшая в том смысле, что Р((0 — 0(<(Х вЂ” О() ) 1/2 для любого возможного значения О.
Оценкой такого типа яв- ляется следующая 6=Х вЂ” — гп(п(!Iп Х, Ф( — п~п Х)) 2 пlп если Х) О, и 0=Х+ =ш(п(1/п Х, Ф( — 1/и Х)), 2 ч/Хг если Х ( О, где Ф обозначает функцию стандартного нормаль- ного распределения. з) Парадокс проверки нормальности Мы хотим проверить гипотезу о том, что данная выборка Х!, Хь ..., Х„получена из распределения с непрерывной функцией распределения Р(х).
Пусть Рв(х) = — „~ 1 ггхг~» обозначает эмпирическую (кумулятивную) функцию распределения выборки. Если гипотеза верна, то по теореме Колмогорова )пп Р(1/л зпр)Р„(х) — Р(х))<х)= й ( — 1)ге-!'М=К(х). и-Зз\ ! -и Используя этот результат, легко построить критерий с уровнем доверия а. (Если величина 1/л зпр) Р„(х) — Р(х) ) больше кри. тического значения хо, для которого К(хе) = а, то гипотеза отвергается.) В случае, когда нужно проверить нормальность вероятностного распределения, сначала следует по выборке обычным образом оценить математическое ожидание и стандартное отклонение через Х и 1)', затем применить указанный выше критерий Колмогорова для нормального распределения Р(х) с математическим ожиданием Х и стандартным отклонением ()'. Можно было бы ожидать„что при достаточно больших л подстановка вместо неизвестных параметров величин Х и 1л' не повлечет за собой значительных изменений.
Однако изменения произойдут существенные. Например, при 95 !)(г уровне доверня критическое значение хв в критерии Колмогорова равно 1.36, в то же время точный анализ показывает, что истинное критическое значение равняется 0.9. Обьяснеиие этого парадокса достаточно просто. Из-за подстановки функция Р(х) н эмпирическая функция Р,(х) стали блкже друг к другу, поэтому целесообразно выбрать меньшее критическое значение. (Лагг Опгып Б. "Боте теьхойв о! сопв1гпсипп езас1 1ез(з", Вготе(гйо, 48, 4! — 45, (196!). Кас М., К!е!ег 7., иго!гогзиз Л.
"Оп (евм о! поппащу апй оьхег 1евм о( коойпевз о! !!1 Ьавей оп Мв(апсе те(ьойз", Аиие!з о( Мо(Л. Бгигп!., 26, !89 — 2! 1, (1966). Баг)гай! К. "Оп !ев(!пк !ог попав!!(у", Ргос. БЫ Вегае!еу Бутр. ои Моив БГеиз!. иий Ргоэ., !. 373-387, (!967).) и) Парадокс линейной регрессии Предположим, что случайная величина Х измеряется с ошибкой е, имеющей математическое ожидание О. Другими словами, результат измерения У = Х+ в является очень простой линейной регрессией по Х.
Есть ли для Х «лучшая оценка», чем измеренная величина У7 Удивительно, но в некоторых частных случаях ответ оказывается утвердительным. По крайней мере существует оценка Х, для которой Е(Х вЂ” Х)' меньше, чем Е(У вЂ” Х)'=Ее'. Предположим, например, что Х и е некоррелированы и регрессия Х по У также линейна. Тогда оценка х= Ва —,„,"Е(х)+ —,„, У ()в (в) ))з (Х) лучше, чем У.
(В вырожденном случае, когда Вз(а) = О, полу- чаем Х= У.) к) Парадокс Сетурамана Существуют статистические функции А и В такие, что несмещенная оценка неизвестного параметра О, построенная по А, имеет дисперсию меньшую, чем оценка, построенная по В (при любом действительном значении параметра О). С другой стороны, при проверке нулевой гипотезы 0 = Оо (например, при альтернативной гипотезе О ) Ос) критерий на базе функции А не обязательно будет лучше критерия, построенного по В. Последний может быть локально лучше (в некоторой окрестности нулевой гипотезы). Если, например, элементы выборки Хь Х„ ..., Х„ равномерно распределены на интервале (О; 20), то оценка максимального правдоподобия для 0 запишется в виде (7= — шах(Х„Ха, ..., Х„), 1 и ее небольшое изменение приводит к несмещенной оценке В= — ли.
вл+ 2 2л+ 1 Следующая оценка А также является несмещенной, но имеет меньшую дисперсию А= "+ (4((+У), где У=шш(Хп Х„..., Х„). Однако прн проверке гипотезы О = Ое критерий, основанный на В, является локально более мощным. (Лага Бе!Ьпгапгап 3.
лйопй!снпк сгпег!а о( 'Кооепезз' о( з!апзнсз" Яап)гвуа, 22, 187 — 190, (!961).) л) Парадокс минимаксной оценки Понятие минимаксной оценки было введено в замечании (й) к парадоксу !/12. Минимаксные оценки, как правило, согласуются со здравым смыслом.
Однако следующий пример Х. Рубина показывает обратное. Если $ункция потерь задается равенством 7.(р, с) = ппп((р — с)а/р ! 2), то единственной минимаксной оценкой неизвестной вероятности р ~ О является оценка, тождественно равная О. Поэтому для любой выборки неизвестный параметр следует оценивать нулем (значением, которое заранее исключено из возможных значений параметра р). Замечание. Для функции потерь Е(р„с) = (р — с)' минимаксная оценка запишется в виде ° н+ »/42 л+ ~л где н — объем выборки, н — частота события с неизвестной вероятностью.
м) Парадокс Роббинса Хорошо известно, что при наличии выборки нз одного наблюдения Х «лучшей» оценкой параметра пуассоновского распределения является само Х. (Это несмещенная оценка максимального правдоподобия с минимальной дисперсией.) Но как оценить параметры Оь Ов, ..., О» для й независимых пуассоновских распределений на основе соответствующих наблюдений Хь Хв, ..., Хь если мы хотим, чтобы величина Е(Д (Ог — Ог)в) была минимальнойг Существует ли оценка лучшая, чем Ог = = Хгу Х.
Роббинс первым указал на то что, хотя й пуассоновских распределений независимы, все же можно найти лучшие оценки, учитывающие не только «свои» наблюдения, но и другие. Если й велико, и У(Х) обозначает число наблюдений, равных Х, то в силу результата Роббинса оценка Ог = (Х;+ +1)М(Хг+1)/У(Х») лучше, чем 6»=Х» Суть парадокса заключается в следующем: наблюдения, которые не связаны с оцениваемым параметром, могут влиять на качество его оценки (сравните с парадоксом П/2 (!!) ). (Лаге Поьыпв Н. тдп егор!Пса! Вауев'арргоасв !о »1»11»!!с»", Ргое.
Зггв Вег»е!еу. Яулгр, ол Мог!» В!оп»1. ол»Г Ргои, 1, 157 — !бв, 195б.) и) Парадокс байесоеской модели Пусть плотность вероятности ! (х) случайной величины Х является смесью двух положительных плотностей вероятности 1в(х) и 1!(х): 1» (х) = ргв(х) + (1 — р) 1г(х), где О ~ 1р < 1. Значение параметра р неизвестно, и при достаточно большом и мы надеемся определить его с любой заданной точностью по независимым наблюдениям Хь Хв, ..., Х„(распределения величин Х; и Х совпадают). Для решения задачи мы хотим воспользоваться теоремой Байеса: выберем число рв, О < рв < 1, и предположим, что априорная плотность вероятности величины Х равна ро(о(х) + (1 — ре) (! (х).
Тогда аоостериорная плотность вероятности величины Х (при наличии выборки Х!, Хв, ..., Х„) запишется в виде р„(о(х) + (1 — р„)1!(х), где Р» Ре Ц 1а (Х!) 1 — Р» 1 — Ре ПГР'!) ' Используя элементы выборки, действительно можно найти значение параметра р с любой заданной точностью, если »»~»» 1 Р» 1 Р Иш — "= Р (с вероятностью 1).