Ю.Н. Тюрин - Лекции по математической статистике (1124591), страница 12
Текст из файла (страница 12)
Рассмотрим случайную величину n x−aσ ∼ N (0, 1). Зададимся какой-либо(обычно близкой к 1) вероятностью, для удобства обозначив ее через 1 − 2α. Здесь α задано, 0 < α < 21 . Пустьz1−α обозначает (1−α)-квантиль стандартного нормального распределения. Иными словами, z1−α удовлетворяетуравнению Φ(z1−α ) = 1−α, где Φ(·) - функция стандартного нормального распределения, или функция Лапласа.Ввиду симметрии√ (относительно нуля) z1−α = −zα .Поэтому для n x−aσ справедливо утверждение√ x−aP {| n| < z1−α } = 1 − 2ασили(∗)σP {|x − a| < √ z1−α } = 1 − 2α.nИтак, с вероятностью 1 − 2α точность приближения x ≈ a не хуже, чемСоотношение (∗) можно преобразовать далее и написать, что√σ z1−α .nσσP {x − √ z1−α < a < x + √ z1−α } = 1 − 2α.nnИнтервал (случайный)σσ(x − √ z1−α , x + √ z1−α )nn(1)содержит неизвестное a (часто говорят — «накрывает» неизвестное a) с вероятностью 1 − 2α.Эту вероятность 1 − 2α называют доверительной вероятностью (иногда - коэффициентом доверия), а упомянутый случайный интервал - доверительным интервалом.На практике не следует ограничиваться одной какой-либо доверительной вероятностью и одним доверительным интервалом.
Чтобы лучше передать, как связаны x и a, следует вычислить доверительные интервалы длянескольких доверительных вероятностей, скажем, для 0.50, 0.90, 0.95 и 0.99. Чертеж, на котором выделены этидоверительные интервалы, дает нам наглядное представление о точности статистического приближения x ≈ a.Отметим некоторые очевидные, но важные свойства полученных доверительных интервалов.42• Эти интервалы тем лучше, чем меньше σ.В нашем примере σ 2 - дисперсия ошибки при измерении a. Ясно, что чем больше эта дисперсия, тем нижеи точность статистического вывода.• Интервалы тем шире, чем больше z1−α , которая, в свою очередь, возрастает при приближении 1 − α к 1.(И скорость роста тем выше, чем ближе α к нулю).Это свойство тоже легко объяснимо: чем выше требования к достоверности суждения, тем менее содержательно и информативно самое это суждение.• Наконец, на точность приближения x ≈ a влияет число наблюдений n: чем больше n, тем у́же доверительный интервал, т.е.
тем выше точность.√Заметим, однако, что длина доверительного интервала пропорциональна 1/ n. Так что если мы хотимповысить статистическую точность вдвое, нам придется увеличить количество независимых измеренийвчетверо. (А если в 10 раз, то - в 100). Притом, все эти измерения надо проводить в неизменных условиях.На практике большие выборки встречаются не часто.5.3. Нормальная выборка с неизвестной дисперсией. Распределение СтьюдентаПредыдущие результаты верны, но бесполезны, когда σ неизвестно, что чаще всего на практике и бывает.n1 PЕстественная мысль: заместить неизвестное σ его оценкой s, где s2 = n−1(xi − x)2 , и рассмотреть случайi=1ную величину√ x−a(1)nsЕе называют отношением Стьюдента (Student’s ratio - стьюдентова дробь, стьюдентово отношение). Легко2видеть, что распределение (1) не зависит от неизвестных параметров нормальной выборки (a, σq) и совпадает сt=1распределением отношения стандартной нормальной величины N (0, 1) к случайной величине n−1χ2 (n − 1),причем эти случайные величины независимы (см.
пункт 4.5).Распределение случайной величины (1) называют распределением Стьюдента с (n − 1) степенями свободы.Приведем общее определение.Определение: Пусть ξ0 , ξ1 , . . . , ξm (m - натуральное) суть независимые стандартные гауссовские случайные величины (т.е. ξ0 , ξ1 , . . . , ξm ∼ N (0, 1)). Стьюдентовским отношением (стьюдентовской дробью) называютслучайную величинуξ0 + µt = t(m, µ) = q,(2)122m (ξ1 + · · · + ξm )где µ ∈ R - произвольное число.Распределение случайной величины t(m, µ) называют распределением Стьюдента; число m называютчислом степеней свободы, а число µ - параметром нецентральности распределения Стьюдента.Если µ = 0, то распределение случайной величины t(m) = t(m, 0) называют центральным распределением Стьюдента.
Обычно этот эпитет опускают и распределение t(m) называют просто распределениемСтьюдента (с m степенями свободы).Распределение Стьюдента (центральное) снабжено разнообразными и подробными таблицами. Есть, в частности, таблицы квантилей. Пакеты статистических программ содержат команды, позволяющие получить всюнеобходимую информацию о распределении t(m).Функции плотности вероятности для t(m) и t(m, µ) известны (их можно найти в справочниках). Их аналитическими выражениями мы пользоваться не будем.
Для информации, приведу формулу плотности для t(m):1x2 − m+1(1+) 2√mmB( 12 , m2)(Из этой формулы и (2) при m = 1 следует, что распределение Стьюдента с одной степенью свободы совпадаетс распределением Коши).Отметим важное для дальнейшего свойство распределений Стьюдента:при каждом m семейство t(m, µ) стохастически упорядочено (стохастически монотонно возрастает)относительно µ. Это означает, что для любого x ∈ RP (t(m, µ1 ) > x) < P (t(m, µ2 ) > x),если µ1 < µ2 .43Доказательство.Доказательство почти очевидно:Из (2) следует, чтоrP (t(m, µ1 ) > x) = P (ξ0 + µ1 > xr= E(ξ0 + µ1 > z|z = x1 2χ (m)) =m1 2χ (m)).mДля завершения доказательства остается заметить, что для любого z ∈ RP (ξ0 + µ1 > z) < P (ξ0 + µ2 > z),если µ1 < µ2 , ξ0 ∼ N (0, 1).
Вернемся к поставленной задаче: построению доверительных интервалов для a (для среднего) по нормальнойвыборке (по выборке из N (a, σ 2 )). Ее решение теперь почти не отличается от рассмотренного в первом пункте.Единственное, что надо изменить: вместо нормальных квантилей ввести квантили распределения Стьюдента.Все же, повторим необходимые шаги.Выбираем доверительную вероятность 1 − 2α. По таблицам находим (1 − α)-квантиль распределения Стьюдента, с (n − 1) степенями свободы, которую обозначим через t1−α (n − 1), т.е. решение уравненияP (t(n − 1) < t1−α ) = 1 − α.Ввиду симметрии распределения Стьюдента, можно утверждать, что√ x−aP | n| < t1−α = 1 − 2α.sПреобразуя, получаем оценку точности для приближения x ≈ asP |x − a| < √ t1−α = 1 − 2αnи доверительный интервал (с доверительной вероятностью 1 − 2α) для assP x − √ t1−α < a < x + √ t1−α = 1 − 2α.nn(3)Все сделанные в предыдущем пункте замечания о свойствах доверительного интервала (5.2.1), остаютсяверными и для (3).
Равно как и рекомендации не ограничиваться каким-либо одним доверительным интервалом(и какой-либо одной доверительной вероятностью), но вычислять их несколько - для нескольких коэффициентовдоверия.Тем же приемом можно выводить для a и другие доверительные утверждения.Пример: Доверительные пределы (границы сверху или снизу).Выбираем доверительную вероятность 1−α. Если мы хотим получить для a границу сверху, берем α-квантильtα = tα (n−1); для границы сверху берем (1−α)-квантиль t1−α (n−1).
(Заметим, что из-за симметрии tα = −t1−α ).Далее, заметим, что для (1) выполняется соотношение√ x−aP tα < n= 1 − α.sОтсюда, поскольку tα = −t1−α , следует, чтоsP a < x + √ t1−α = 1 − α,n(2.9)так что x + √sn t1−α - это верхняя доверительная граница для a с коэффициентом доверия 1 − α.Нижняя (1 − α)-доверительная граница для a, равная x − √sn t1−α , получается аналогично.Пересечение двух полученных доверительных областей дает для a уже известный доверительный интервал(3) с доверительной вероятностью 1 − 2α.445.4. Центральные величиныОбсудим в общем виде тот прием, который мы применяли в пунктах 5.2 и 5.3.Пусть распределение наблюдения X определяется неизвестным параметром θ, θ ∈ Θ.
Предположим, чтосуществует случайная переменная G(X, θ), G(·, ·) - известная функция √от X и θ, распределение которой нам известно и не зависит от θ, когда θ ∈ Θ. (В предыдущем примере это было n x−as ). G(X, θ) называют центральнойслучайной величиной, а чаще (хоть и не совсем правильно) - центральной статистикой.Предположим для простоты, что распределение G(X, θ) непрерывно и пусть gα , α ∈ (0, 1), обозначает αквантиль G(X, θ). Теперь для всякого θ ∈ Θ и α ∈ (0, 1) справедливо соотношениеP (gα < G(X, θ)) = 1 − α.(1)(Точнее было бы в этом равенстве употребить символ Pθ для распределения вероятностей, зависящих отθ, θ ∈ Θ. Но, поскольку (1) выполняется для всех таких θ, индекс θ, которым мы обычно сопровождаем символвероятности P , здесь и далее можно опустить, не опасаясь недоразумений.)Решаем неравенство gα < G(X, θ) относительно θ.
Получим зависящее от X множествоS1−α (X) := {θ ∈ Θ : gα < G(X, θ)}.Ясно, что для всякого θ ∈ Θ(2)P (θ ∈ S1−α (X)) = 1 − α,так что S1−α (X) - это доверительная область для θ с доверительной вероятностью 1 − α.Если мы не собираемся ограничивать себя какой-либо одной доверительной областью (2), но использоватьвсе семейство S1−α (·), α ∈ (0, 1), тогда разумно потребовать от центральной величины G(X, θ), чтобы семейство{S1−α (X), α ∈ (0, 1)} было бы монотонным по вложению:если 0 < α1 < α2 < 1, тоS1−α1 (X) ⊃ S1−α2 (X)(3)Когда θ - одномерный параметр, достаточным условием для (3) служит монотонность G(X, θ) по переменнойθ (при каждом фиксированном X). Точнее: для (3) нужно, чтобы G(X, θ) монотонно убывала по θ.
В этом случаеS1−α (X) - полуинтервал (точнее, это пересечение Θ с полуинтервалом); его правый конец - это верхняя (1 − α)доверительная граница для θ, θ ∈ Θ.Другая система доверительных областей возникает из аналогичного (1) соотношенияP (G(X, θ) < g1−α ) = 1 − α.(4)Действуя как выше, т.е. решая неравенство относительно θ, получим для θ доверительную областьT1−α (X) = {θ ∈ Θ : G(X, θ) < g1−α }.В оговоренном выше одномерном монотонном случае множество T1−α (X) - это полупрямая (пересеченнаясTΘ). Ее левый конец для θ дает (1 − α)-доверительную границу сверху.
Пересечение областей S1−α (X) T1−α (X)дает для θ доверительную область (как правило, ограниченную) с доверительной вероятностью 1 − 2α.5.5. Испытания БернуллиВ этом случае нет точной центральной величины, но есть случайная величина, распределенная асимптотически свободно (имеется в виду, что распределение не зависит от неизвестных параметров, свободно от ихвлияния).Пусть θ - неизвестная вероятность успеха, θ ∈ (0, 1); Sn - число успехов, случившееся в n проведенныхиспытаниях Бернулли.По теореме Муавра - Лапласа, случайная величинаS − θndp n−→ N (0, 1)nθ(1 − θ)при n → ∞.Как обычно, мы заключаем из этой теоремы, что для достаточно больших n и z ∈ R! S − nθ nP p < z ≈ Φ(z) − Φ(−z).