С.С. Валландер - Лекции по статистике и эконометрике (1160549), страница 21
Текст из файла (страница 21)
. , ∆r и преобразуем выборку X1 , . . . , XN , положивXi∗ = ej , если Xj ∈ ∆j (j = 1, . . . , r).Пусть, как и в первом варианте,pj = P(Xi = ej ),а p0j — соответствующие гипотетические вероятности,p0j = P0 (Xi = ej ).ПредположениеH0∗ = {~p = p~0 }является простой гипотезой по отношению к преобразованной выборке~X1∗ , . . . , XN∗ и сложной — по отношению к исходной выборке X.Очевидно, что H0∗ действительно является следствием H0 : гипотезаH0 утверждает, что все теоретические вероятности вычисляютсяпо функции распределения F 0 , а гипотеза H0∗ — что некоторыевероятности, именно, вероятности попадания в промежутки ∆j ,вычисляются по функции распределения F 0 .Гипотезу H0∗ можно проверять при помощи критерия хи-квадрат,описанного выше.
Если она отвергается при некотором уровнезначимости ε, то и H0 следует отвергнуть — принятие H0 влечетпринятие и H0∗ как следствия. Сложнее обстоит дело в случае,когда H0∗ не отвергается. Формально при этом о справедливости илинесправедливости H0 мы не получаем никакого суждения. Единственное,что можно отметить, — что чем мельче промежутки ∆j , темПроверка статистических гипотез125"ближе"становится H0∗ к H0 . Доводов в пользу H0 оказывается меньше,чем в других задачах проверки гипотез.
Для выборки очень большогообъема (мы сейчас будем обсуждать этот вопрос подробнее), видимо,все-таки можно надеяться, что тест, основанный на статистике Π, дастудовлетворительный результат. Впрочем, указать фактический уровеньзначимости (даже асимптотически) весьма проблематично.Качество теста хи-квадрат в рассматриваемой ситуации достаточносильно зависит от выбора промежутков ∆1 , . . . , ∆r и от их числа. Как мыувидим в параграфе 8, теорема Пирсона и по форме, и по доказательствупохожа на теорему Муавра-Лапласа. Как известно, качество нормальнойаппроксимации теоремы Муавра-Лапласа определяется величиной N pq.Часто предлагают пользоваться ею при N pq > 20.
Не обсуждаяэту рекомендацию по существу (она заведомо имеет символическийхарактер), перенесем ее догматично на теорему Пирсона: N p0j (1 − p0j ) >20 при всех j = 1, . . . , r. Такой подход даст нам хоть какой-то ориентир.Прежде всего отметим, что добиться одновременного выполнениявсех этих неравенств проще всего в случае p01 = · · · = p0r = 1r . Грубаяоценка дает тогда r < N/20.
Примерно так обычно и рекомендуютдействовать. Отметим одну потенциальную опасность, подстерегающуюнеосторожных исследователей. Может возникнуть желание подобратьинтервалы ∆j , определяющие "группировку эмпирических данных",опираясь на сами эти данные. Разумеется, этот прием являетсяжульничеством, которое иногда может "обеспечить"значительнобольшее согласие с проверяемой гипотезой, чем фактическое.Можно доказать, что асимптотически, т.е.
при N → ∞, критерийхи-квадрат имеет уровень значимости ε, хотя и не в состоянии отличитьраспределение F 0 от других распределений, имеющих те же вероятностиинтервалов ∆1 , . . . , ∆r .Третийварианткритерияхи-квадрат:сложнаяпараметрическая гипотеза.Этот и следующий варианты мы рассмотрим очень бегло, отсылая задеталями к подробным учебникам математической статистики ([8], [1]).Рассмотрим сложную параметрическую гипотезу вида H0 = {F ∈(Fθ )}, где (Fθ ) — некоторое семейство распределений, зависящее отпараметра θ. Размерность параметра θ мы обозначим буквой s.Предлагается свести эту задачу к предыдущей, оценив предварительнопараметр θ по той же выборке и взяв в качестве F 0 распределениес соответствующим значением параметра, т.е.
взяв F 0 = Fθ̂ . Можно126Глава 4установить, что если оценка θ̂ асимптотически оптимальна (например,является оценкой максимального правдоподобия, построенной почастотам группировки, но не по исходной выборке!), то распределениестатистики Π слабо сходится к χ2r−s−1 (напомним, что s — размерностьпараметра). На широко распространенном жаргоне этот результатвыражают словами: "каждый оцененный по выборке параметр съедаетодну степень свободы".Четвертый вариант критерия хи-квадрат: независимостьпризнаков.Этот вариант относится к двумерным выборкам вида (Xi , Yi ), гдекаждая из величин Xi принимает одно из r значений e1 , . .
. , er , а каждаяиз величин Yi — одно из s значений f1 , . . . , fs . Проверяется гипотезанезависимости признаков X и Y . Положимpjk = P(Xi = ej , Yi = fk ),pj· =Xpjk ,kp·k =Xpjk .jГипотеза независимости имеет видH0 = {pjk = pj· · p·k при всех j и k}.Для проверки ее предлагается рассмотреть соответствующие кратностиnjk , nj· , n·k и образовать величинуÃ!2X njk − N p̂j· p̂·kpΠ=,Np̂·p̂j··kj,knгде p̂j· = Nj· и p̂·k = nN·k — оценки соответствующих вероятностей. Можнодоказать, что распределение случайной величины Π слабо сходится кχ2(r−1)(s−1) . Число степеней свободы согласуется с приведенным вышежаргонным тезисом:(rs − 1) − (r + s − 2) = (r − 1)(s − 1)(r+s−2 = (r−1)+(s−1) — количество вероятностей pj· и p·k , оцененныхпо выборке).4.8Доказательство теоремы Пирсона.На протяжении всего доказательства мы предполагаем, что основнаягипотеза H0 = {~p = p~0 } справедлива.Проверка статистических гипотез127Как было отмечено в предыдущем параграфе, случайный векторS∗ =SN − ESN√Nасимтотически нормален — его распределение слабо сходится кr-мерному нормальному распределению N(0, C).
Соответствующаяматрица ковариаций C (она найдена в предыдущем параграфе)вырождена, поскольку компоненты nj вектора SN линейно зависимы:n1 + · · · + nr = N.Для компонент вектора S ∗ , как следствие, выполняется соотношениеrXnj − N p0j√= 0.Nj=1Таким образом, его распределение сосредоточено в гиперплоскости{~x ∈ Rr : x1 + · · · + xr = 0}r-мерного пространства. В этой же гиперплоскости сосредоточенои предельное распределение N(0, C). Рассмотрим вспомогательныйслучайный вектор Z с компонентами1 nj − N p0j√Zj = q, j = 1, . . .
, r.0NpjЕго распределение сосредоточено в гиперплоскостиqpr{~x ∈ R : p01 x1 + · · · + p0r xr = 0}.(4.7)Очевидно, что вектор Z получается из S ∗ умножением на диагональнуюматрицу11D = diag( p 0 , · · · , p ).p0rp1Вычислим матрицу ковариаций вектора Z = DS ∗ :cov(Z) = E(ZZ T ) = E[(DS ∗ )(DS ∗ )T ]= DE(S ∗ (S ∗ )T )DT = DCD.128Глава 4ОтсюдаV(Zj ) = djj cjj djj = 1 − p0j ,cov(Zj1 , Zj2 ) = dj1 j1 cj1 j2 dj2 j2q= − p0j1 p0j2 (j1 6= j2 ).qОбозначая τj =p0j , мы можем записать матрицу DCD в видеDCD = 1r − ~τ ~τ 0 ,где ~τ — вектор, составленный из компонент τj , j = 1, .
. . , r.Распределение вектора Z слабо сходится к нормальному распределениюN(0, DCD). Мы сейчас проверим, что "если это нормальноераспределение рассматривать в гиперплоскости (4.7), то его матрицаковариаций окажется единичной". Расшифруем заключенное в кавычкивыражение. Пусть T — вспомогательный случайный вектор в Rr снулевым средним (ET = 0), имеющий матрицу ковариаций DCD, аe1 , . . . , er−1 — произвольный ортонормированный базис в гиперплоскости(4.7).
Введем одномерные случайные величины T̃j = e0j T (j = 1, . . . , r−1)и составим из них вектор T̃ в Rr−1 . Тогда матрица ковариаций вектораT̃ — единичная.Для доказательства рассмотримcov(T̃j1 , T̃j2 ) = E(T̃j1 T̃j2 ) = E(T̃j1 T̃j02 ) == E(e0j1 T T 0 ej2 ) = e0j1 DCDej2 = e0j1 ej2 − e0j1 ~τ ~τ 0 ej2 = e0j1 ej2(поскольку векторы e1 , . . . , er−1 лежат в гиперплоскости (4.7), ониортогональны вектору ~τ , т.е. выполняются равенства ~τ 0 ej2 = e0j1 ~τ =0). Таким образом, для любого такого вектора T̃ и в любомортонормированном базисе матрица ковариаций — единичная.Рассматривая вектор Z как вектор Z̃ в гиперплоскости (4.7),мы видим, что его распределение слабо сходится к стандартномунормальному распределению в этой гиперплоскости.Остается заметить, чтоΠ=rXj=1Zj2=r−1XZ̃j2 .j=1Отображение, переводящее вектор Z̃ в сумму квадратов его компонент,непрерывно.
Поэтому распределение величины Π слабо сходится кПроверка статистических гипотез129распределению суммы квадратов независимых N(0, 1)-величин, т.е.к хи-квадрат. Число степеней свободы определяется размерностьюгиперплоскости (4.7), т.е. равно r − 1.4.9Непараметрический критерий КолмогороваВ этом параграфе снова пойдет речь о проверке простой гипотезывида H0 = {F = F 0 }, где F 0 — конкретная непрерывная функцияраспределения. Включать F 0 в какое-либо параметрическое семействоне потребуется, поэтому и критерий называется непараметрическим.В основе его лежит максимальное расхождение эмпирической игипотетической функций распределения:0= sup |FN∗ (x) − F 0 (x)|.DNxДля удобства мы рассмотрим еще и аналогичноеэмпирической функции распределения от теоретической:отклонениеDN = sup |FN∗ (x) − F (x)|,xо котором мы можем рассуждать лишь умозрительно.
Оба отклонениясовпадают при выполнении гипотезы H0 .Основные утверждения, приводящие к критерию Колмогорова,формулируются следующим образом:Теорема 1. Пусть X1 , . . . , XN — выборка, имеющая√ непрерывноераспределение F . Тогда случайная величинаN DN имеет"универсальное"распределение KN , не зависящее от F .Теорема 2. При N → ∞ распределения KN слабо сходятся кпредельному распределению K.ПредельноераспределениеKназываетсяраспределениемКолмогорова. Оно выступает в качестве асимптотического шаблонав описываемой ниже статистической процедуре.Фактически, теоремы 1 и 2 уточняют для выборок с непрерывнымраспределением сформулированную в параграфе 1.4 теорему ГливенкоКантелли.
В частности,√ из них следует, что величина DN сходится кнулю со скоростью 1/ N .Теорема 1 будет доказана в конце параграфа. Теорему 2 можнорассматривать как утверждение о предельном поведении конкретнойпоследовательности распределений. Доказательство ее, довольно130Глава 4сложное технически, мало что дает пользователям. Мы не будемего приводить1 .Опишем процедуру критерия Колмогорова, опирающуюся на теоремы1 и 2. Для начала заметим, что "малые"значения величины0DNсвидетельствуют о хорошем согласии эмпирических данных сгипотетическим распределением.
По универсальному распределению KNвыберем табличное z = zε , зависящее от уровня значимости ε, такое, чтоKN (zε ) = 1 − ε. Тогда√√0P0 ( N D N > z ε ) = P0 ( N D N> zε ) = ε.Это соотношение приводит к тесту, имеющему уровень значимости ε:основная гипотеза H0 отвергается, если√0> zε .N DNЧаще всего ограничиваются более доступным с точки зрения наличиятаблиц упрощенным асимптотическим вариантом, когда zε находится потаблице предельного распределения K: K(zε ) = 1 − ε. Тогда критерийимеет уровень значимости ε асимптотически.Предостережение. У некоторых пользователей может возникнутьжелание аналогичным образом проверять и сложные параметрическиегипотезы, оценивая предварительно параметры по тем жеэмпирическим данным.
При использовании критерия Колмогороваэто недопустимо. На примере критерия хи-квадрат мы уже видели,что подобные манипуляции меняют предельное распределение. Тамэто изменение сводилось к уменьшению числа степеней свободы, но невыводило из семейства распределений хи-квадрат.