Секей Г. Парадоксы в теории вероятностей и математической статистике (1990) (1151962), страница 27
Текст из файла (страница 27)
Нулевая гипотеза состоит в том, что О=О«(где О« — некоторое заданное число), а альтернативная — в том, что О чь Оо Пусть л л Х = — „' ~ Хо В' = — „', ~ (Х, — Х)! ! ! ! ! х — в й'/ч/я Такие гипотезы различаются с помощью 1-критерия Стьюдента. Согласно 1-критерию нулевая гипотеза принимается или отвер- гается в зависимости от того, близко значение статистики 1, к 0 или нет. В 1940 г. Г. Данциг показал, что при заданной вероятности ошибки 1-го рода вероятность ошибки 2-го рода для любого решающего правила зависит от неизвестного стандартного отклонения а. Парадоксально, но пятью годами позже К. Стейн доказал, что если объем выборки и не фиксировать заранее, а определять по уже полученным элементам выборки (как в последовательном анализе Вальда), то существует г-критерий, для которого (при заданной вероятности ошибки 1-го рода) вероятность ошибки 2-го рода не зависит от неизвестного стандартного отклонения а (а зависит лишь от разности 9 в йе).
е) Объяснение парадокса На первом шаге возьмем выборку Хь Хь ..., Х„где лев некоторое фиксированное число. Выборочная дисперсия опреде- ляется формулой (ух,'- — '(фх,) ~. Предположим, что объем всей выборки и зависит от величины з и заранее фиксированного числа е следующим образом'. а=шах[[ — 1+1, не+ 1~, где скобки ( ) означают целую часть действительного числа. Выберем положительные числа аь аь ..., а так, что ~ а,=1, Г-! а,=аз= ... =а„и з ~, а!=а, и попытаемся различить зти ! ! гипотезы с помощью статистики Ее я! Во + в — в! !/е '!/е где 2 е (Х вЂ” Е) ! 1 !/е Очевидно, при заданном з случайная величина 1 нормально распределена с математическим ожиданием 0 и дисперсией л а'Х а',/а=а'/з'. С другой стороны, распределение величины ! ! (по — 1) зз/оз (для произвольного о) совпадает с распределением суммы квадратов п,— 1 независимых стандартных нормальных случайных величин (т.
е. с хи-квадрат распределением 7[з !), не зависящим от ш Следовательно, распределение величины ! также не зависит от о, так что !' зависит лишь от  — Ое, но не от о. г) Замечания (!) Распределение случайной величины 1„ не является нормальным, так как Ре не число, а случайная величина.
(Если бы значение стандартного отклонения было известно, и мы подставили бы это значение вместо 0', то распределение случайной величины 1, стало бы стандартным нормальным.) Это замечательное наблюдение и анализ случайной величины 1„ в 1908 г. опубликовал Стьюденг, он же Уильям Д. Госсец (С 1899 г. он работал в Дублине на пивоваренном заводе Гиннесса, и его начальник настоял на том, чтобы Госсет писал под псевдонимом.) В течение долгого времени никто не осознавал важности статьи Стьюдента. (Даже в 1922 г.
Р. Фишер был единственным, как утверждал Стьюдент, кто использовал 1-распределение. В действительности, именно Фишер впервые обозначил распределение Стьюдента через ! в своей книге, вышедшей в 1925 г. Сам Стьюдент использовал символ з, но не для обозначения величины 1„, а для (и — 1)1„.) (В) Определение момента прекращения наблюдений в последовательном анализе является сутью современной теории оптимальных остановок для различных процессов. Рассматривая выборку как процесс, мы тем самым устанавливаем связь между математической статистикой и теорией стохастических процессов, которая будет обсуждаться в следующей главе.
Эта взаимосвязь оказывается полезной для обоих направлений. В наши дни фундаментальные теоремы Вальда из последовательного анализа являются частным случаем общей теории стохастических процессов с остановкой (см. книгу Ширяева А. Н.). д) Литература Сьом У., йоЬЫпз Н., 51еятнпб ТГ. Сгеа! ахресгаиолз: Таеогу о[ Орита! 8!сир!ля, Нопйшоп М]Шп Со., Вомоп, 1971.
[Имеется перевод: Роббинс Г., Снгмунд Д., Час И. Теория оптимальных правил остановив,— Мс Наука, 1977.] РА!зьег й. А. 3!а!писа! Меыобз о[ Кезеагсй втогйегз, Опчег апб Воуб, Вб!пьпгКЬ, 1925. [Имеется перевод: Фишер Р. А. Статистические методы для исследователей. — Мс Госстатиздат, 1958.] Ширяев А. Н. Статистический последовательный анализ. — Мс Наука, 1969. Зппп С. "А Ьчо загор1е 1ез1 1ог а 1!пеаг Ьуро1Ьез!з мьозе ромас М 1пберепбеп1 о! Ьйе чапапсе", Аллаы о[ Маиь 8!а!!з!., 18, 243 — 258, [1945).
Япйеп1 "ТЬе ргоЬаые еггог о! а гпеап", В1олгегг!йо, 6, 1 — 24, (1908). %а)6 А. "6едпеппа! апа1уяз о! Ма(пк!са1 йа(а: ТЬеогу, Леыис(еа йерог1. зер1., 1943. )Ча!6 А. Яедиеп((о! Ало(узы, )Ч!1еу, Ыеи Уогй, 1947. [Имеется перевод; Вальд А. Последовательный анализ. Мл Физматтиз, !960.1 13. Е(це несколько парадоксов а) Парадокс типичного и среднего Понятие среднего, например средняя зарплата, часто используется как синоним типичного. На самом деле если в некоторой стране есть всего лишь несколько очень богатых семей и большое количество бедных, чьи доходы соответственно огромны и малы, то арифметическое среднее их доходов вовсе нетипично.
Например, медиана доходов дает более реалистичную картину. (Медиана означает такой доход, что число людей с большим доходом, равно числу людей, имеющих меньший доход.) Кроме средней зарплаты есть и другие средние характеристики, вводящие в заблуждение. «Средний человеки (1'Иолгтв глоуга) — одна из них. Неудивительно, что исследования бельгийского ученого Л. А. Ж. Кетле по этому вопросу стали источником горячих споров. Худшее в «среднем человекев не его серость, а возникающие противоречия.
Например, средний рост не соответствует среднему весу и т. д. Только по одной этой причине можно усомниться в справедливости слов Дж. Рейнольдса (первого президента Королевской академии художеств в Лондоне), когда он сказал, что в среднем источник прекрасного. (Литл Япй(е1е! Ь. А. Л Еззо( ие Рйуз!дие зос!и!е, (1836); 6'Аотте тоуел, РЬуз!Чпе зос!а!е, Чо!. 2, Вгпхепез, !869), Несмотря на свою непоследовательность, книга Кетле (1835) рассматривается как веха, если вообще не как начало количественного анализа общественных явлений. Ф.
Гальтон, К. Пирсон и Ф. Эджворт ценили Кетле как гениального первооткрывателя регрессионного подхода. Под влиянием его книги Гальтон занялся научными исследованиями. Однако у Кетле есть и другие заслуги перед наукой. В 1820 г. он основал Королевскую обсерваторию Бельгии и стал ее первым директором. Он был также великолепным организатором: в 1834 г. по его предложению было создано Статистическое общество в Лондоне, он был инициатором проведения Первого международного конгресса по статистике в Брюсселе в 1853 г.
б) Парадокс оцгнивания Квадрат оценки, вообще говоря, не совпадает с оценкой квадрата. Например, если Т, т. е. среднее значение результатов наблюдений Хь Х„..., Хги является оценкой некоторого параметра, то очевидной оценкой для квадрата параметра будет Хе, что, вообще говоря, отличается от арифметического среднего квадратов результатов наблюдений.
Это же справедливо, если заменить квадрат любой другой нелинейной функцией. (Лига Сагпар П. Вол!га! Роипвоиоп о1 РгоЬомшу, Кои(!ееяе апв Кеяап Раи( й(4. Вгоаеиау Ноиае, 1опеоп, !950.) в) Парадокс точности измерения Предположим, что нам нужно найти длину двух различных стержней с помощью двух измерений.
Прибор, которым мы можем измерять длину, дает результат со случайной ошибкой, имеющей стандартное отклонение о. Парадоксально, но измерение каждого стержня в отдельности не является лучшим способом. Стандартное отклонение результата будет меньше, если сначала измерить общую длину Т стержней, приложив конец одного стержня к концу другого, а затем положить стержни рядом и найти разницу их длин 1). Тогда приближенные длины стержней соответственно равны Т+(7 Т вЂ” Π— и 2 2 Стандартное отклонение этих длин равно о/ ь/2, что действительно меньше, чем о. (Лага Но1ещпх Н. "Бове !гпргочевеп(а !и иге!Кмпп апе ожег ехрег!веп1а! 1еспп!Чиеа", Аппа!а о1 Ма(Ь.
Б(а1!а1., 16, 297 — 306, (!944).) г) Парадоксальное оценивание вероятности Оценкой для неизвестной вероятности обычно служит относительная частота. Например, если при ста бросаниях монеты решка выпала 47 раз, то оценкой для вероятности выпадения решки будет 47/100. Однако, если при 1О бросаниях более илн менее правильной монеты решка ни разу не появилась, то нет оснований считать вероятность выпадения решки равной О. При наличии некоторой априорной информации (например, что монета более или менее правильная) оценивание через относительную частоту, вообще говоря, не является лучшим способом. Наша априорная информация хорошо выражается через бета-распределение, зависящее от двух параметров а и Ь.
Плотность вероятности бета-распределения равна 0 вне интервала (О, 1) и пропорциональна х'-'(1 — х)а ' на (О, 1); (а ) О, Ь ) 0). Математическое ожидание и дисперсия бета-распределения соответственно равны а иЬ в+Ь (о+Ыа(в+Ь+1) ' Решая эту систему уравнений, получаем, что наша аириорная информация относительно лг и г( может быть выражена через а и Ь (например, если монета правильная, то т = 1/2, следовательно, а = Ь) . Если априорное распределение является бета-распределением с параметрами (а, Ь), то по теореме Байеса алостериорное распределение также будет бета-распределением. (Это свойство объясняет широкую применимость бета-распределения.) Если в п экспериментах событие, имеющее неизвестную вероятность, произошло Ь раз, то параметрами апостериорного распределения будут (а + Ь, Ь + а — гг), следовательно, апостериорное математическое ожидание запишется в виде а+в а+Ь+а что дает более содержательную и лучшую оценку для неизвестной вероятности, чем относительная частота Ь/и.
Очевидно, при достаточно больших л величина М практически не отличается от относительной частоты, однако, например, когда л = 10, й = 0 и а = Ь = 100, имеем М = 100/210 ж 0.48; в то же время относительная частота равна О, что совершенно не. лепо. (Лата Соов 1. 3. ТЬе Еа]]шаиоп о1 РгоЬаышу, М1Т Ргааа, СаагЬг!ода, 1965.] д) Чем больше даниьгх, тем хуже вьгводы Довольно естественно считать, что большее количество данных позволяет получать лучшие результаты. Однако следуюший парадокс, кажется, показывает противоположное. Пусть Хь Ха и Ха обозначают независимые случайные величины, и предположим, что распределения величин Х~ и Ха совпадают: и Х~ и Ха равны либо О, либо 2 с равными вероятностями, следовательно, математические ожидания у обеих случайных величин одянаковы и равны 1. Пусть случайная величина Х, принимает значения 1 и 2.5 с равными вероятностями, так что ее математическое ожидание равно 1.75.
Вся эта информация неизвестна математику, который сделал выборки из этих распределений, чтобы найти распределение с наибольшим математическим ожиданием. Очевидно, в качестве искомого распределения нужно взять распределение с наибольшим выборочным средним.