Главная » Просмотр файлов » Секей Г. Парадоксы в теории вероятностей и математической статистике (1990)

Секей Г. Парадоксы в теории вероятностей и математической статистике (1990) (1151962), страница 28

Файл №1151962 Секей Г. Парадоксы в теории вероятностей и математической статистике (1990) (Секей Г. Парадоксы в теории вероятностей и математической статистике (1990)) 28 страницаСекей Г. Парадоксы в теории вероятностей и математической статистике (1990) (1151962) страница 282019-07-28СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 28)

Сначала возьмем выборку из одного элемента из каждого распределения. Тогда вероятность правильного выбора равна Р(Х~ < Ха и Ха с Хз)= Р (Хз = 2 5) + Р (Ха = 1) Р (Х~ = О) Р (Хг = О) = 5/8 Посмотрим теперь, что произойдет, если увеличить объем одной из выборок (например, для Хз) до 2 (остальные выборки оставить без изменений)7 Тогда вероятность правильного выбора равна Р (Х| < Хз и Хз < Хз) = 7/16 где Хз — арифметическое среднее двух элементов выборки. Таким образом, если раньше вероятность правильного выбора была больше 50 ~з, то теперь она уменьшилась и составляет менее 50 з/,. (Лпгз Сыпз тгг. К., 1.зт К. Тье Атепсзп 31знзнс)зп, !973.) Знаменитый парадокс Ф.

Эджворта (1888 г.) касается аналогичной проблемы: если Х1 и Хз являются независимыми случайными величинами с одинаковыми плотностями вероятности /(х — О), симметричными относительно 0, то может так случиться, что Х~ ближе к О, чем Х = (Хг+ Хз)/2, в том смысле, что Р()Х1 — 0)~(з) ) Р()Х вЂ” 0(<з) для любого положительного е. Например, так будет в случае, когда 3 1 ~(")=9 (1+(.)) потому что плотность вероятности случайной величины Х1 в точке 0 больше, чем плотность величины Х. (Лиге 309(ег $. М. "Ап Еаяепогщ спг(озпгп", Аппаы о) 31аз(з(., 8, 931— 934, (1980).) е) Парадокс равенства математических ожиданий Предположим, что математические ожидания трех нормально распределенных случайных величин с одинаковыми дисперсиями равны ть тз и тз. Может так случиться, что используя, например, (-критерий Стьюдента, мы примем гипотезы т1 — — тг и те= гп, (при некотором уровне значимости), но отвергнем т1 — — тзг (Задача проверки гипотезы о равенстве математических ожиданий при наличии двух выборок объема и решается с помощью статистики Х вЂ” У 21)' где Х и Р— выборочные средние, а В' — выборочное стандартное отклонение.

Статистика ( имеет распределение Стьюдента с параметром 2п — 2.) Этот парадокс положил начало многим исследованиям по одновременной проверке нескольких гипо- тез (дисперсионный анализ и т. д.). (Лнгл Ногаев Д 1., 1львапп Е. 1.. "Тве еИс1епсу о1 ногае попрагапге1г!с согпрещогв о1 1йе Ьевг", Аппа1в о! Мапг. 51анв1., 27, 324 — 335, 1933). сье11е Н.

Тйе Апа!ув!в о1 Уаг1апсе, %!1еус Ыен Уогй, 1959. (Инеетсв русскнй неревод: Шеффе Г. Днсперснонний аннана.— Мл ГИФМЛ, 1963.]) ж) Парадоксальная оценка для математического ожидания нормального распоеделения Мы хотим, используя выборку объема и, оценить неизвестное математическое ожидание (одномерного) нормального распределения с единичным стандартным отклонением. Известно, что арифметическое среднее Х выборки дает оценку, обладающую многими хорошими свойствами. Например, эта оценка имеет наименьшую дисперсию, является несмещенной, допустимой и минимаксной при квадратичной функции потерь. Однако, несмотря на эти свойства, если нам нужно получить лишь оценку, которая близка к 0 насколько это возможно, то существует оценка О, лучшая в том смысле, что Р((0 — 0(<(Х вЂ” О() ) 1/2 для любого возможного значения О.

Оценкой такого типа яв- ляется следующая 6=Х вЂ” — гп(п(!Iп Х, Ф( — п~п Х)) 2 пlп если Х) О, и 0=Х+ =ш(п(1/п Х, Ф( — 1/и Х)), 2 ч/Хг если Х ( О, где Ф обозначает функцию стандартного нормаль- ного распределения. з) Парадокс проверки нормальности Мы хотим проверить гипотезу о том, что данная выборка Х!, Хь ..., Х„получена из распределения с непрерывной функцией распределения Р(х).

Пусть Рв(х) = — „~ 1 ггхг~» обозначает эмпирическую (кумулятивную) функцию распределения выборки. Если гипотеза верна, то по теореме Колмогорова )пп Р(1/л зпр)Р„(х) — Р(х))<х)= й ( — 1)ге-!'М=К(х). и-Зз\ ! -и Используя этот результат, легко построить критерий с уровнем доверия а. (Если величина 1/л зпр) Р„(х) — Р(х) ) больше кри. тического значения хо, для которого К(хе) = а, то гипотеза отвергается.) В случае, когда нужно проверить нормальность вероятностного распределения, сначала следует по выборке обычным образом оценить математическое ожидание и стандартное отклонение через Х и 1)', затем применить указанный выше критерий Колмогорова для нормального распределения Р(х) с математическим ожиданием Х и стандартным отклонением ()'. Можно было бы ожидать„что при достаточно больших л подстановка вместо неизвестных параметров величин Х и 1л' не повлечет за собой значительных изменений.

Однако изменения произойдут существенные. Например, при 95 !)(г уровне доверня критическое значение хв в критерии Колмогорова равно 1.36, в то же время точный анализ показывает, что истинное критическое значение равняется 0.9. Обьяснеиие этого парадокса достаточно просто. Из-за подстановки функция Р(х) н эмпирическая функция Р,(х) стали блкже друг к другу, поэтому целесообразно выбрать меньшее критическое значение. (Лагг Опгып Б. "Боте теьхойв о! сопв1гпсипп езас1 1ез(з", Вготе(гйо, 48, 4! — 45, (196!). Кас М., К!е!ег 7., иго!гогзиз Л.

"Оп (евм о! поппащу апй оьхег 1евм о( коойпевз о! !!1 Ьавей оп Мв(апсе те(ьойз", Аиие!з о( Мо(Л. Бгигп!., 26, !89 — 2! 1, (1966). Баг)гай! К. "Оп !ев(!пк !ог попав!!(у", Ргос. БЫ Вегае!еу Бутр. ои Моив БГеиз!. иий Ргоэ., !. 373-387, (!967).) и) Парадокс линейной регрессии Предположим, что случайная величина Х измеряется с ошибкой е, имеющей математическое ожидание О. Другими словами, результат измерения У = Х+ в является очень простой линейной регрессией по Х.

Есть ли для Х «лучшая оценка», чем измеренная величина У7 Удивительно, но в некоторых частных случаях ответ оказывается утвердительным. По крайней мере существует оценка Х, для которой Е(Х вЂ” Х)' меньше, чем Е(У вЂ” Х)'=Ее'. Предположим, например, что Х и е некоррелированы и регрессия Х по У также линейна. Тогда оценка х= Ва —,„,"Е(х)+ —,„, У ()в (в) ))з (Х) лучше, чем У.

(В вырожденном случае, когда Вз(а) = О, полу- чаем Х= У.) к) Парадокс Сетурамана Существуют статистические функции А и В такие, что несмещенная оценка неизвестного параметра О, построенная по А, имеет дисперсию меньшую, чем оценка, построенная по В (при любом действительном значении параметра О). С другой стороны, при проверке нулевой гипотезы 0 = Оо (например, при альтернативной гипотезе О ) Ос) критерий на базе функции А не обязательно будет лучше критерия, построенного по В. Последний может быть локально лучше (в некоторой окрестности нулевой гипотезы). Если, например, элементы выборки Хь Х„ ..., Х„ равномерно распределены на интервале (О; 20), то оценка максимального правдоподобия для 0 запишется в виде (7= — шах(Х„Ха, ..., Х„), 1 и ее небольшое изменение приводит к несмещенной оценке В= — ли.

вл+ 2 2л+ 1 Следующая оценка А также является несмещенной, но имеет меньшую дисперсию А= "+ (4((+У), где У=шш(Хп Х„..., Х„). Однако прн проверке гипотезы О = Ое критерий, основанный на В, является локально более мощным. (Лага Бе!Ьпгапгап 3.

лйопй!снпк сгпег!а о( 'Кооепезз' о( з!апзнсз" Яап)гвуа, 22, 187 — 190, (!961).) л) Парадокс минимаксной оценки Понятие минимаксной оценки было введено в замечании (й) к парадоксу !/12. Минимаксные оценки, как правило, согласуются со здравым смыслом.

Однако следующий пример Х. Рубина показывает обратное. Если $ункция потерь задается равенством 7.(р, с) = ппп((р — с)а/р ! 2), то единственной минимаксной оценкой неизвестной вероятности р ~ О является оценка, тождественно равная О. Поэтому для любой выборки неизвестный параметр следует оценивать нулем (значением, которое заранее исключено из возможных значений параметра р). Замечание. Для функции потерь Е(р„с) = (р — с)' минимаксная оценка запишется в виде ° н+ »/42 л+ ~л где н — объем выборки, н — частота события с неизвестной вероятностью.

м) Парадокс Роббинса Хорошо известно, что при наличии выборки нз одного наблюдения Х «лучшей» оценкой параметра пуассоновского распределения является само Х. (Это несмещенная оценка максимального правдоподобия с минимальной дисперсией.) Но как оценить параметры Оь Ов, ..., О» для й независимых пуассоновских распределений на основе соответствующих наблюдений Хь Хв, ..., Хь если мы хотим, чтобы величина Е(Д (Ог — Ог)в) была минимальнойг Существует ли оценка лучшая, чем Ог = = Хгу Х.

Роббинс первым указал на то что, хотя й пуассоновских распределений независимы, все же можно найти лучшие оценки, учитывающие не только «свои» наблюдения, но и другие. Если й велико, и У(Х) обозначает число наблюдений, равных Х, то в силу результата Роббинса оценка Ог = (Х;+ +1)М(Хг+1)/У(Х») лучше, чем 6»=Х» Суть парадокса заключается в следующем: наблюдения, которые не связаны с оцениваемым параметром, могут влиять на качество его оценки (сравните с парадоксом П/2 (!!) ). (Лаге Поьыпв Н. тдп егор!Пса! Вауев'арргоасв !о »1»11»!!с»", Ргое.

Зггв Вег»е!еу. Яулгр, ол Мог!» В!оп»1. ол»Г Ргои, 1, 157 — !бв, 195б.) и) Парадокс байесоеской модели Пусть плотность вероятности ! (х) случайной величины Х является смесью двух положительных плотностей вероятности 1в(х) и 1!(х): 1» (х) = ргв(х) + (1 — р) 1г(х), где О ~ 1р < 1. Значение параметра р неизвестно, и при достаточно большом и мы надеемся определить его с любой заданной точностью по независимым наблюдениям Хь Хв, ..., Х„(распределения величин Х; и Х совпадают). Для решения задачи мы хотим воспользоваться теоремой Байеса: выберем число рв, О < рв < 1, и предположим, что априорная плотность вероятности величины Х равна ро(о(х) + (1 — ре) (! (х).

Тогда аоостериорная плотность вероятности величины Х (при наличии выборки Х!, Хв, ..., Х„) запишется в виде р„(о(х) + (1 — р„)1!(х), где Р» Ре Ц 1а (Х!) 1 — Р» 1 — Ре ПГР'!) ' Используя элементы выборки, действительно можно найти значение параметра р с любой заданной точностью, если »»~»» 1 Р» 1 Р Иш — "= Р (с вероятностью 1).

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6458
Авторов
на СтудИзбе
304
Средний доход
с одного платного файла
Обучение Подробнее