1625915143-9358bde957c0693ae60a95b83ad382f6 (843873), страница 17
Текст из файла (страница 17)
К сожалению, в общем случае для параметров других распределений таких хороших конструкций нет. Однако для параметров многих распределений удается построить асимптотические доверительные интервалы. Мы приведемздесь краткое описание этой конструкции, опуская строгое обоснование некоторыхвыводов.Пусть, как и ранее, X ⊂= Fθ , θ ∈ R — неизвестный параметр, для которогобудет строиться доверительный интервал.
Предположим, что этот параметр можновыразить через один из моментов распределения: θ = g(ak ), k ≥ 1, и пусть функция gдифференцируема и g 0 (ak ) 6= 0. Рассмотрим ММ-оценку θ∗ = g(a∗k ). В силу близоститочек a∗k и ak при больших n, можно воспользоваться линейным приближением всоответствии с формулой Тейлора:θ∗ = g(a∗k ) ' g(ak ) + (a∗k − ak )g 0 (ak )илиnθ∗ − θ1X k'X − ak =g 0 (ak )n i=1 iPni=1Xik − nak.nПредположим дополнительно, что существует a2k , √и обозначим σ 2 = DX1k = a2k − a2k .Умножим обе части полученного соотношения на n и поделим на σ. ТогдаPnkθ∗ − θ √i=1 Xi − nak√n'.σg 0 (ak )σ nПри больших значениях n распределение правой части близко к Φ0,1 в силу ЦПТ.Пусть число q таково, что Φ0,1 (−q) = ε/2. Тогда¯µ¯ ∗¶¯ θ −θ √ ¯P ¯¯ 0n¯¯ < q ' Φ0,1 (q) − Φ0,1 (−q) = 1 − ε.σg (ak )Как и ранее, нам нужно разрешить это неравенство относительно θ.
Однако существует трудность: стоящая в знаменателе величина σ|g 0 (ak )| также неизбежно зависитот θ: σ|g 0 (ak )| = h(θ). Предположим дополнительно, что h — непрерывная функция,тогда h(θ∗ ) ' h(θ). Поэтому при больших nµ ∗¶|θ − θ| √Pn < q ' 1 − ε.h(θ∗ )Тем самым мы получаем асимптотический доверительный интервал¶µqh(θ∗ )qh(θ∗ )∗∗<θ<θ + √' 1 − ε.P θ − √nnПример. Пусть X ⊂=√Πλ . Здесь λ = a1 , то есть можно взять k = 1, g(y) = y.0Тогда h(λ) = σg (ak ) = λ, и мы получаем для параметра λ асимптотический доверительный интервалÃ√√ !q Xq XX− √ , X+ √.nn798.8.1.Проверка гипотезПостановка задачи, основные понятияПусть X ⊂= F и распределение F неизвестно.
В этой ситуации естественно строитьразличные предположения, или гипотезы, относительно F . Гипотезы будем обозначать H1 , H2 , . . . . Гипотеза называется простой, если она однозначно определяетраспределение выборки. Все остальные гипотезы называются сложными.Например, H1 : X ⊂= Φ0,1 — простая гипотеза, H2 : X ⊂= Φα,σ2 — сложная, если2значения α и σ не конкретизированы.Чаще всего выдвигаются две взаимоисключающие друг друга гипотезы H1 и H2 ,одна из которых, по нашему предположению, верна, только мы не знаем, какая именно.
Первую из них, H1 , называют основной гипотезой, а вторую — конкурирующейгипотезой или альтернативой. Мы должны одну из гипотез принять и тем самымотвергнуть другую — в этом состоит наше решение. В дальнейшем решение будемформулировать относительно основной гипотезы H1 , поскольку это однозначно определяет наши действия относительно альтернативы.Нам необходимо вооружиться правилом, в соответствии с которым по выборкесразу же можно было бы определить, принимается H1 или нет. Такое правило называется критерием. Построение критерия означает, что все возможные значениявыборки разбиваются на две категории или, что то же самое, выборочное пространство Rn нужно разбить на две части:Rn = K ∪ K.Если X ∈ K, то гипотеза H1 отвергается, если X ∈ K, то принимается. МножествоK называется критическим, его задание полностью определяет критерий.Ситуации, которые могут возникнуть при принятии нами решения, отражены впредставленной ниже таблице.Принимаем H1Принимаем H2Верна H1ХорошоПлохоВерна H2ПлохоХорошоМы видим, что существуют две нежелательные ситуации, когда верна одна гипотеза, а мы принимаем другую в соответствии с выбранным критерием.
Как правило,избежать подобных ошибок не удается. Выход в следующем: нужно использоватьтакие критерии, для которых вероятности принятия ошибочных решений малы.В дальнейшем будем использовать обозначение Pi (A), если вычисляется вероятность при условии, что верна гипотеза Hi .Предположим, что проверяется простая гипотеза H1 : F = F1 против простойальтернативы H2 : F = F2 . Тогда вероятность отвергнуть верную (основную) гипотезу β1 = β1 (K) = P1 (X ∈ K) называется вероятностью ошибки первого рода.Аналогично, вероятность принять неверную гипотезу β2 = P2 (X ∈ K) называетсявероятностью ошибки второго рода.
Число 1−β2 называется мощностью критерия.Вычисление вероятности ошибочного решения при справедливости сложной гипотезы, как правило, невозможно: мы ведь не знаем, каким конкретно является распределение выборки.Далее мы рассмотрим некоторые критерии согласия. Они строятся для проверкигипотез видаH1 : F = F1 против H2 : F 6= F180(т. е.
мы должны проверить, согласуются ли данные наблюдений с предположением о том, что X ⊂= F1 ). Будем требовать, чтобы для рассматриваемых критериеввероятность ошибки первого рода была мала: β1 ≤ ε для заранее выбранного малого числа ε. В таких случаях говорят, что критерий имеет уровень 1 − ε. Частоприходится довольствоваться асимптотическим критерием уровня 1 − ε, то есть еслиlimn→∞ β1 ≤ ε.Поскольку конкурирующая гипотеза является сложной, то вероятность ошибкивторого рода мы рассматривать не будем.8.2.Критерий КолмогороваКритерий основывается на следующей теореме (приводится без доказательства).Теорема Колмогорова. Пусть X ⊂= F и F непрерывна. ОбозначимDn = sup |Fn∗ (y) − F (y)|.yТогда для любого y > 0 при n → ∞∞X√2 2P( nDn < y) → K(y) =(−1)m e−2m y .m=−∞Функция распределения K(y) называется функцией Колмогорова, она абсолютнонепрерывна; для нахождения ее значений имеются таблицы.Перейдем к построению критерия.Пусть X ⊂= F и проверяются гипотезы H1 : F = F1 против H2 : F 6= F1 , гдеF1 непрерывна.
Наша задача — построить асимптотический критерий уровня 1 − ε.Для начала вычислим величину Dn в предположении, что верна гипотеза H1 , т. е.F = F1 :Dn = sup |Fn∗ (y) − F1 (y)|.yВ силу теоремыКолмогорова, при больших n функция распределения случайной√величины nDn мало отличается от K(y), поэтому заранее по таблицам функцииКолмогорова мы можем найти такое число q > 0, что K(q) = 1 − ε.6K(y)1−εq0-y√Следовательно, если верна H1 , то P1 ( nD√n < q) ' K(q) = 1−ε.
Поэтому мы будемотвергать гипотезу H1 , если окажется, что nDn ≥ q, т. е. если расхождение междуэмпирической и гипотетической функциями распределения достаточно велико.Ясно, что при этом√√β1 = P1 ( nDn ≥ q) = 1 − P1 ( nDn < q) ' 1 − K(q) = ε.Критическое множество для построенного нами критерия выглядит так:√K = {(X1 , . .
. , Xn ) ∈ Rn : nDn ≥ q}.818.3.Критерий хи-квадрат ПирсонаПусть X ⊂= F и проверяются гипотезы H1 : F = F1 против H2 : F 6= F1 .По-прежнему наша задача состоит в построении асимптотического критерия уровня1 − ε. В предположении, что X ⊂= F1 , разобьем область возможных значений X1 нанекоторое количество непересекающихся промежутков:P1 (X1 ∈ ∆1 ∪ . . .
∪ ∆k ) = 1,где ∆i имеет вид ∆i = [ai , bi ), i = 1, . . . , k.Пусть νi — число наблюдений, попавших в ∆i , i = 1, . . . , k, ν1 + . . . + νk = n.Обозначим такжеpi = P1 (X1 ∈ ∆i ) = F1 (bi ) − F1 (ai ), i = 1, . . . , k.Из закона больших чисел следует, чтоνi P→ pi ,nn → ∞,при каждом i, если верна H1 . В качестве меры близости совокупностей {ν1 /n, . .
. , νk /n}и {p1 , . . . , pk } предлагается использовать величинуkk´2 XX1 ³ νi(νi − npi )2Ψn = n− pi =.pi nnpii=1i=1Теорема Пирсона. Если 0 < pi < 1 при всех i = 1, . . . , k, то для любого y > 0P1 (Ψn < y) → χ2k−1 (y),n → ∞.Доказательство этой теоремы весьма сложно, и по этой причине мы его не приводим.Займемся построением критерия.
Найдем число q такое, что χ2k−1 (q) = 1 − ε.Если верна гипотеза H1 , то с вероятностью, близкой к 1 − ε, значение случайнойвеличины Ψn должно быть меньше q. Поэтому мы отвергаем гипотезу, если Ψn ≥ q, ипринимаем ее в противном случае. Это значит, что мы принимаем H1 , если нет явногопротиворечия этой гипотезы с наблюденными значениями. Критическое множествовыглядит следующим образом:K = {(X1 , . . .
, Xn ) : Ψn ≥ q}.Для вероятности ошибки первого рода имеемβ1 = P1 (Ψn ≥ q) = 1 − P1 (Ψn < q) ' 1 − χ2k−1 (q) = ε.Замечание. Приближение P1 (Ψn < q) ' χ2k−1 (q) является вполне удовлетворительным для практических целей, если npi ≥ 10 для всех i. В противном случаеследует укрупнить разбиение (например, объединить два соседних интервала в один).Пример (данные взяты из книги: Крамер Г. Математические методы статистики.М., Мир, 1975).
В Швеции в 1935 году родились 88273 человека. Известны их днирождения. Нужно проверить гипотезу о том, что день рождения произвольно взятогочеловека с равными вероятностями может приходиться на любой день года.82Перенумеруем от 1 до 365 все дни 1935-го года и пусть Xi — номер дня рожденияi-го человека в соответствии с этой шкалой. Мы имеем выборку X1 , . . . , Xn , гдеn = 88 273, и тогда в соответствии с основной гипотезой H1P1 (X1 = k) =1,365k = 1, .
. . , 365.Чтобы применить критерий χ2 , воспользуемся естественным разбиением года по месяцам (k = 12):∆1 = [1, 31] (январь), ∆2 = [32, 59] (февраль), . . . .Данные по месяцам приведены в таблице.iνipisi17280313652695728365378836.2912.2719.8547884578926760977585891011127393 7203 6903 6552 713254.4820.7917.241.031.45 0.38 47.09 68.18 17.79...Здесь обозначено si =(νi − npi )2.