Учебник_Бочаров_Печинкин (846435), страница 40
Текст из файла (страница 40)
Доказательство. В силу достаточности статистики 5' условное распределение, а значит, и условное математическое ожидание оценки д" прн условии Я не зависит от неизвестного параметра д (для произвольной статистики Я функция дз, вообще говоря, может зависеть от д), т.е, дз представляет собой оценку параметра д, причем зависящую только от Я. Далее, из равенства Мдч —— - М (М(д" ( Я)) = Мд" для условного математического ожидания немедленно следует несмещенность оценки дз.
Наконец, 19д* = М(д" — д)з = М(д" — д,*, + д.: — д)' = = М(дз — д)" + 2М ((дз — д)(д* — де)) + М(д* — де) . Используя опять свойство условного математического ожидания, получаем М ((ч9з — д)(д* — дч)) = М (М ((дз — д)(д* — дч) / Я))) = = М((дз — д)М((д — д*,) ~ 5)) = О. Поэтому 0д* = Ода ч- М(д* — дз) > Одз 188 Гл.
2. Оценки неизвесюных парамегпров Замечание 1 к теореме 3. Неравенство (13) превращается для некоторого д в равенство тогда и только тогда, когда д* = дв (почти всюду по мере г(х;д)). Замечание 2 к теореме 3. Утверждение теоремы остается в силе и для смещенной оценки д'. В частности, Мд* = Мдв. Смысл теоремы 3 заключается в том, что взятие условного математического ожидания, т.е. переход к оценке дз, зависящей только от достаточной статистики о, не ухудшает любую опенку д' при всех значениях неизвестного параметра д.
П р и м е р 18. Пусть Хн ..,, Մ— выборка из нормально распределенной генеральной совокупности с неизвестным средним д и известной дисперсией а . В примере 9 было показано, что оценка д' = Х1 даже не является 2 состоятельной опенкой д, хотя она н несмещенная. Рассмотрим статистику Я=Х1+..+Х,. Нетрудно показать, что статистика Я является достаточной для параметра д. Поэтому мы можем определить новую опенку дэ = М(д* о). Для ее вычисления заметим, что величины д* = Х~ и Я = Х1 + ... Ч- Х„ имеют двумерное нормальное распределение со средними Мд* = д и Мд = пд, дисперсиями 0д' = а~ и 05 = паз и ковариацией сои(д, д) = М((д* — д)(Я вЂ” пд)) = оз Но тогда, как известно из курса теории вероятностей, условное распределение д" при условии о' = в также является нормальным со средним значением д+ Рига(в — пд)(впал, как Раз н пРедставлЯющим собой значение М(д* ( о) при д = в.
Поскольку коэффициент корреляции р = соя(д*,д)/ч'0д" 0Я = = 1/тУп, то среднее значение условного распределения д* совпадает с в/и и окончательно получаем Я 1 дз —— — — — — (Х~ ч ... + Х„) = ш*. п п Иными словами, мы из совсем плохой оценки д* = Х~ получили эффективную (см. пример 11) оценку дэ =- тп . О Рассмотренный пример приоткрывает нам те возможности, которые несет с собой теорема 3. Однако, прежде чем сделать последний шаг, введем еще одно определение.
Назовем статистику Я = Я(ХН...,Х„) полнои для семейства распределений Г(х; д), если из того, что Мд(8) = Мд(д(ХН...,Х„)) = х ьо д(о(хн ...,х„)) р(хН д) ..Р(х„; д) с(х1 . йх„= 0 при всех д (мы для простоты предположили существование плотности распределения р(х; д)), следует, что функция д(в) тождественно равна нулю.
Теперь мы в состоянии сформулировать окончательный итог наших поисков. 2 Достаточные оценка !99 Теорема 4 (минимальность дисперсии оценки, зависящей от полной достаточной статистики). Пусть Я вЂ” полная достаточная статистика, а д* — несмещенная оценка неизвестного параметра д.
Тогда дч = М(д'$ Я) является единственной несмещенной оценкой с минимальной дисперсией. До к а з а т е л ь с т в о теоремы немедленно вытекает из предыдущих результатов Действительно, в силу теоремы 3 оценка с минимальной дисперсией обязательно должна находиться среди оценок, зависящих только от достаточной статистики В; в противном случае ее можно было бы улучшить с помощью условного математического ожидания. Но среди оценок, зависящих только от о, может быть максимум одна несмещенная. В самом деле, если таких оценок две.
д*, = д*,(Я) и д; = дз(В), то функция я =- р(В) = д( — дз имеет при всех значениях д математическое ожидание мя(В) =мд",-мд.*, =д-д=о, что в силу полноты статистики Я влечет за собой равенство о(з) нулю. Само же существование несмещенной оценки дь = М(д* ) Ь), зависящей только от Я, гарантируется существованием просто несмещенной оценки д*. гз Перейдем к обсуждению полученных результатов. Условие полноты статистики Ь', как мы видим, сводится к единственности несмещенной оценки д', зависящей только от статистики Я. Нам не известно общих теорем, которые давали бы простые правила проверки полноты произвольной статистики Я.
Однако, как мы увидим из примеров, в конкретных случаях кустарные способы обычно дают хорошие результаты. Сравнение размерностей полной статистики Я и опениваемого параметра д дает право говорить, что, как правило, статистика Я должна иметь ту же размерность, что и д, а поскольку мы ограничились одномерным параметром д, то Я также должна быть одномерной. Это приводит к следующим полезным определениям.
Оценка д* называется достаточной, если она является достаточной как одномерная статистика. Аналогично, назовем оценку д' полной, если она является полной статистикой. Сформулируем очевидное следствие нз теоремы 4, которое удобно применять во многих частных случаях. С л еде т в и е из теоремы 4. Если оиенкз д" несмещенная и зависит только от полной достаточной статистики Я, то она имеет минимальную дисперсию.
П р и м е р 19. Пусть Хы, Մ— выборка из генеральной совокупности, распределенной по нормальному закону с известным средним гп и неизвестным средним квадратичным отклонением д (д > О). Нетрудно показать, что статистика Я=(Х~ — т) +.. +(Մ— т) 190 Гл. 2. Оценки нвизввсюных паралгвгнров является достаточной для параметра д. Покажем, что она также полная.
Для этого вспомним (см. параграф 4 гл.!), что случайная величина Хз — — Я/дз имеет Х -распределение с п степенями свободы, а значит, статистика Я = д Х з я имеет плотность распределения рз(х) = „, е *Д" 2" д" Г ( — ) Пусть теперь д(а:) — такая функция, что Мд(9) = 0 при всех д. Положим 2 "т х'дз д1(х) =,„, д(х). Г( — "! 2 Тогда Мд(9) = — „~ д1(х) е гжзв ~ г(х = — „д~ ( — ) = О, о где д~(ол) — преобразование Лапласа функции д~(х). Отсюда, в частности, следует, что д~ (ол) = 0 для всех х ) О. Но из теории преобразований Лапласа известно, что в этом случае оригинал д1(х), а значит, и функция д(х) также должны тождественно равняться нулю, что и доказывает полноту статистики Я.
Рассмотрим теперь оценку (см пример 12) неизвестного среднего квадратичного отклонения д. Эта оценка несмещенная и зависит только от полной достаточной статистики чй Поэтому по следствию из теоремы 4 она имеет минимальную дисперсию, хотя, как было показано в примере 12, и не является эффективной по РаоКрамеру. П П р и м е р 20. Рассмотрим оценку д- п.ь ' Х. параметра д равномерного на интервале (О, д) распределения (см пример 13) В примере 13 показано, что эта оценка несмещенная.
Статистика Х„* является достаточной (см, пример !6). Покажем, наконец, что Х;, — полная статистика. Действительно, для любой функции д(х) Мд(9) = ~д(х) рхй(х) г(х = — „~д(х) х" ' дх. о о Отсюда, в частности, следует, что если Мд(Я) = 0 при всех д, то т х" ~д(х) = () д(у) у" 1ду) =- 0 о при всех х. Поэтому д(х) з— в 0 и статистика Х* полная. Таким образом, в силу следствия из теоремы 4 и в этом примере оценка д имеет минимальную дисперсию.
П !91 3. Метод моментов 3. Метод моментов Пусть мы имеем выборку Хы..., Х„из генеральной совокупности с теоретической функцией распределения Р(х), принадлежащей Й-параметрическому семейству с (х; ды..., да) с неизвестными параметрами дп...,да, которые нужно оценить. Поскольку нам известен вид теоретической функции распределения, мы можем вычислить первые й теоретических моментов. Эти моменты, разумеется, будут зависеть от к неизвестных параметров ды ...,да.
пм = МХ = т1(ды..., дя), гпз = МХ = тя(ды..., дя), т~,. = МХ = гпя(ды...,да), Суть метода моментов заключается в следующем: так как выборочные моменты являются состоятельными оценками теоретических моментов (см. пример 8), мы можем в написанной системе равенств при большом объеме выборки п теоретические моменты гпы ..., ть заменить на выборочные ты...,т~, а затем, решая эту систему относительно ды...,дш найти опенки неизвестных параметров.
Таким образом, в методе моментов оценки д|,, д~ неизвестных параметров ды..., дь определяются из системы уравнений т| — — т1(ды..., дя.), тз —— тз(ды..., д~,), т~ = ть(д*,... дь). Можно показать, что при условии непрерывной зависимости решения этой системы от начальных условий т*,,..., т' оценки, полученные методом моментов, будут состоятельными. Более того, справедлива следующая теорема.
Теорема 5 (асимптотическая нормальность оценок, полученных методом моментов). При некоторых условиях, наложенных на семейство Е(х;ды..., дь), совместное распределение случайных величин при и — ~ оо сходится к (многомерному) нормальному закону с нулевымн средними и матрнцей ковариаинй, зависящей от теоретических моментов тп ..., тая н матрицы (От,удд ). Доказательство.
Будем полагать, что выполнены следующие условия: а) параметры дь ..,, дя однозначно определяются своими моментами ть, пц,, 192 Гл. 2. Оценки неизвватнь9х паралзвтров б) существует теоретический момент 7пзь порядка 2к )это эквивалентно существованию дисперсий у выборочных моментов т,*,..., т„'); в) функция тп(д) = 1т9(д9,..., дь),..., ть9д9,...,дь)) дифференцируема по в = (д9,..., дь) с отличным от нуля якобнаном !дп7,79дд7 . Доказательство теоремы проведем для одномерного случая, предоставляя общий случай читателю. Оно является комбинацией следующих результатов. теоремы о дифференцируемости обратного отображения и центральной предельной теоремы. Действительно, поскольку существует дисперсия ОЛ, то при каждом истинном значении д параметра д в силу центральной предельной теоремы выборочное среднее т'=- — (Х9д .















