Ю.Н. Тюрин - Лекции по математической статистике (1124591), страница 13
Текст из файла (страница 13)
nθ(1 − θ) 45Пусть 1 − 2α - выбранная нами доверительная вероятность, z1−α означает (1 − α)-квантиль стандартногонормального распределения, так что Φ(z1−α ) = 1 − α.Тогда! S − nθ nP p < z1−α ≈ 1 − 2α. nθ(1 − θ) Это неравенство надо разрешить относительно θ, θ ∈ (0, 1). После тождественных преобразований получимдля этого неравенства эквивалентную форму2(Sn − nθ)2 − nθ(1 − θ)z1−α< 0.(1)Левая часть (1) - квадратный трёхчлен относительно θ, причем коэффициент при θ2 положителен.Поэтому решение имеет видθ(Sn ) < θ < θ(Sn ),где θ(Sn ), θ(Sn ) - суть корни квадратного трехчлена в (1).
Здесьqz2Sn (n−Sn )Sn + 1−α∓z+1−α2nθ(Sn ), θ(Sn ) =2n + z1−α2z1−α4.(2)Выражение (2) дает для θ доверительный интервал, доверительная вероятность которого приближенно равна1 − 2α.5.6. Регрессионная модельМетод центральных величин пригоден для того, чтобы строить доверительные области для параметровгауссовских линейных моделей. Рассмотрим регрессионную модельX = F θ + ε,(1)где X - наблюдаемый n-мерный вектор (столбец); θ = (θ1 , . . .
, θm )T - неизвестный параметр, θ ∈ Rm ; F - заданнаяn × m матрица, F = kF1 , . . . , Fm k; все ее столбцы F1 , . . . , Fm будем предполагать линейно независимыми; ε ∼N (0, σ 2 I) - вектор случайных ошибок.Как нам уже известно, в этой модели наилучшая несмещенная оценка θ̂ получается по методу наименьшихквадратов и равнаθ̂ = (F T F )−1 F T X.(2)Из теории гауссовских линейных моделей (точнее, из леммы 4.3.2 об ортогональных разложениях) вытекает,что |X − F θ̂|2 и θ̂ статистически независимы, причем|X − F θ̂|2 = σ 2 χ2 (n − m),(3)θ̂ ∼ N (θ, σ 2 (F T F )−1 ).Для построения центральной величины нам понадобится изложенная ниже лемма, а также еще одно семейство распределений.Лемма.Пусть ξ ∼ Np (a, A) , причем A−1 существует.
Тогдаξ T A−1 ξ = χ2 (p, ∆),где параметр нецентральности ∆ = aT A−1 a.Доказательство.Из линейной алгебры известно, что квадратичную форму с матрицей A линейным невырожденным преобразованием можно привести к каноническому виду. В данном случае, преобразованная матрица квадратичнойформы - единичная (ибо A > 0 и A невырожденная).Иначе говоря, существует невырожденная квадратная матрица, скажем, B, такая, чтоBAB T = I.Заметим, чтоA−1 = B T B.46Рассмотрим случайный вектор η = Bξ. Ясно, чтоη ∼ Np (Ba, BAB T ) = Np (Ba, I).Поэтому|η|2 = χ2 (p, ∆), где ∆ = |Ba|2 = (Ba)T Ba = aT A−1 a.С другой стороны:|η|2 = η T η = (Bξ)T Bξ = ξ T A−1 ξ.Лемма доказана. Применим эту лемму к гауссовскому вектору (2).
Получим, что(θ̂ − θ)T (F T F )(θ̂ − θ) = σ 2 χ2 (m).(4)Эф - распределение.Называемое также распределением Снедекора, распределением Фишера, распределением дисперсионногоотношения Фишера, и т.д.Определение Пусть случайные величины X1 и X2 независимы и распределены по закону хи-квадрат:X1 = χ2 (m1 , ∆), X2 = χ2 (m2 , 0).Случайная величинаF = F (m1 , m2 , ∆) =1m1 X 11m2 X 2(5)называется F - отношением (эф-отношением, дисперсионным отношением Фишера). Распределение (5)называют нецентральным эф-распределением с m1 и m2 степенями свободы и параметром нецентральности∆. Если ∆ = 0, распределение называют центральным. Слово «центральное» часто опускают и говорятпросто о эф-распределении с m1 и m2 степенями свободы и о случайной величине F (m1 , m2 ).Плотность эф-распределения можем вывести из определения (5) и вида плотности хи-квадрат.
Мы не будем кней обращаться, полагаясь на то, что необходимые сведения об эф-распределении (например, квантили) можнонайти в таблицах.Все же приведем плотность F (m1 , m2 , 0): m12m1m2B( m21 , m22 )x(1 +m12−1m1 +m2m12m2 x)для x > 0Легко видеть, что семейство распределений F (m1 , m2 , ∆) стохастически упорядочено по ∆ при любых m1 иm2 . Доказывают этот факт тем же способом, то и упорядоченности семейства χ2 (m, ∆) по ∆.Вернемся к доверительному оцениванию θ в модели (1).Из двух независимых случайных величин (3) и (4) составим эф-отношениеF (m, n − m) =1m (θ̂− θ)T (F T F )(θ̂ − θ)1n−m |X− F θ̂|2.(6)Выбрав доверительную вероятность 1 − α, с помощью таблицы квантилей для F (m, n − m) найдем (1 − α)квантиль, которую обозначим как F1−α (m, n − m).Теперь()1TT(θ̂−θ)(FF)(θ̂−θ)P m< F1−α (m, n − m) = 1 − α.12n−m |X − F θ̂|Заметим, чтоs2 :=1|X − F θ̂|2n−m(7)- это несмещенная оценка для σ 2 .Теперь видно, что (1 − α)-доверительное множество для θ, заданное неравенством{θ : (θ̂ − θ)T (F T F )(θ̂ − θ) < ms2 F1−α (m, n − m)},47(8)представляет собой внутреннюю часть (случайного) эллипсоида с центром в точке θ̂.
Эта область (внутренностьэллипсоида) накрывает неизвестное θ (точку θ ∈ Rm ) с вероятностью 1 − α.Можно указать доверительные интервалы и для отдельных параметров θi , θ = (θ1 , . . . , θm )T . Из (2) следует,что каждая координата θ̂i вектора θ̂ = (θ̂1 , . . . , θ̂m )T распределена по нормальному закону N (θi , σ 2 aii ), еслиположить (F T F )−1 = kaij k.С учетом (7) (и независимости θ̂i и s2 ) можно утверждать, что случайная величинаθ̂i − θt := √s aii(5.9)распределена по Стьюденту, с (n−m) степенями свободы. Исходя из этого, можно строить для θi доверительныеинтервалы так же, как мы делали это в пункте 5.3.Отметим, что если матрица F T F не ортогональна, то координаты вектора оценок θ̂ не независимы.
Поэтомуне являются независимыми и доверительные утверждения для отдельных θ1 , . . . , θm , когда эти утвержденияосновываются на центральных величинах (9). В этом случае вероятность того, что несколько доверительныхутверждений выполняются одновременно, нельзя получить, перемножая их индивидуальные доверительныевероятности.
Одновременные доверительные выводы о θ1 , . . . , θm надо получать иначе. Например, по методуШеффа (или Тьюки).6. Проверка статистических гипотез6.1. Постановка задачи, основные понятияНаблюдение X получено случайным выбором из генеральной совокупности X по некоторому вероятностному закону Р , который нам не известен. Относительно распределения Р известно лишь, что оно являетсяэлементом некоторого заданного множества P вероятностных распределений на измеримом пространстве X .Относительно истинного распределения Р высказано предположение, которое мы хотим проверить, опираясьна наблюдение X: Р обладает некоторыми определенными свойствами.
Эти свойства выделяют в множествеP некоторое подмножество P0 . Поэтому упомянутое подлежащее проверке предположение Н0 (в дальнейшем гипотеза Н0 ) звучит так: Р ∈ P0 , где P0 ⊂ P.Когда множество распределений P параметризовано с помощью какого-либо параметра θ, причем P = {Pθ :θ ∈ Θ}, тогда гипотеза Н0 тоже приобретает параметрическую формуH0 : θ ∈ Θ 0 ,где P0 = {Pθ : θ ∈ Θ0 }, Θ0 задано и Θ0 ⊂ Θ.Гипотеза Н0 либо верна, либо нет. В последнем случае выполнено альтернативное предположение о распределении (альтернатива):Р ∈SP1 .TПри этом P0 P1 = ∅, P1 P0 = P.
(Последнее, впрочем, не обязательно: гипотетическое и альтернативноемножество распределений не всегда в своем объединении составляют все возможные вероятностные распределения).В параметрической форме альтернатива Н1 имеет видTН1 : θ ∈ Θ 1 ,где P1 = {Рθ : θ ∈ Θ1 }, Θ1 задано, θ1 ∈ Θ и Θ0 Θ1 = ∅.По наблюдению X мы должны либо принять Н0 , либо Н0 отвергнуть (иногда в этом случае говорят: принятьН1 ). Мы расширяем эту задачу так: на множестве X мы должны определить функцию от х , х ∈ X , значениямикоторой могут быть «отвергнуть Н0 » или «не отвергать Н0 ». Затем мы применим эту функцию к наблюдаемомузначению X и в результате получим конкретное решение.ПустьS = {х : х ∈ X , по наблюдаемому х отвергаем Н0 }.Множество S, S ⊂ X , называют критическим множеством для гипотезы Н0 , или критерием.Поскольку гипотезы, о которых мы говорили, касаются распределения вероятностей, такие гипотезы называются статистическими, а критерии для их проверки - статистическими критериями.С любыми статистическими критериями неразрывно связаны возможные ошибки:• ошибка рода I: отвергаем Н0 , когда Н0 верна;• ошибка рода II: не отвергаем Н0 , когда Н0 неверна.48По своим последствиям эти ошибки обычно не равнозначны: ошибка I рода опаснее, т.к.
она заставляет насотказаться от правильного предположения. В то же время ошибка II рода (не отвергнуть гипотезу, когда она неверна) не закрывает возможности все же отвергнуть ложную гипотезу Н0 в результате дальнейших ее проверок.Поэтому при проверке статистических гипотез возможность ошибки первого рода стараются уменьшить. Желательно, впрочем, иметь такие статистические критерии, для которых малы (близки к 0) вероятности обеихошибок. Но поскольку это обычно невозможно, к выбору критерия S выдвигают такие требования:• Вероятность ошибки первого рода не должна превосходить выбранной (малой) величины, называемойуровнем значимости критерия S.• При этом условии вероятность ошибки II рода надо сделать как можно меньше.С большей определенностью говорить о свойствах статистического критерия помогает его функция мощности.Ее аргументом служит распределение вероятностей Q на X , Q ∈ P.Определение.Мощностью β(Q) критерия S называютβ(Q, S) = β(Q) = Q{Х ∈ S},т.е.