1625915143-9358bde957c0693ae60a95b83ad382f6 (843873), страница 14
Текст из файла (страница 14)
. . ≤ X(n) ,которая называется вариационным рядом. Элементы вариационного ряда называются порядковыми статистиками: X(1) — первая порядковая статистика, X(2) —вторая порядковая статистика и т. д. Вообще, в математической статистике принятофункции от выборки называть статистиками.Если известна функция распределения F выборки, то без труда можно найтираспределение порядковых статистик. Например:P(X(n) < y) = P(X1 < y, X2 < y, . .
. , Xn < y) = F n (y).Далее введем понятие эмпирической функции распределения.Определение. Эмпирической функцией распределения называетсяν(y),nгде ν(y) — число наблюдений Xi таких, что Xi < y. Другими словами,0, y ≤ X(1) ,kFn∗ (y) =, X(k) < y ≤ X(k+1) , k = 1, . . . , n − 1,n1, y > X(n) .Fn∗ (y) =Эмпирическая функция распределения по своему типу является дискретной, онаимеет скачки, равные 1/n, во всех точках Xi .∗6Fn(y)1X(1) X(2) X(3) . . .2/n1/n062X(n)-yТаким образом, эмпирическая функция распределения сама является случайной,поскольку ее скачки происходят в случайных точках.Пусть X ⊂= F .
Оказывается тогда, что если увеличивать число наблюдений, тоэмпирическая функция распределения Fn∗ (y) будет приближаться к F (y). Об этомговорится в следующем утверждении.Теорема Гливенко–Кантелли. Пусть X ⊂= F , тогда при n → ∞Psup |Fn∗ (y) − F (y)| → 0.yДоказательство. Мы докажем это утверждение в ослабленном варианте, без знака sup, т.
е. покажем, что для любого y при n → ∞PFn∗ (y) → F (y).Введем вспомогательные случайные величины(1, Xi < y,Zi =,i = 1, . . . , n.0, иначе,Случайные величины Z1 , . . . , Zn независимы, поскольку являются функциями отнезависимых наблюдений, и одинаково распределены по закону Бернулли:P(Zi = 1) = P(Xi < y) = F (y),P(Zi = 0) = 1 − F (y), i = 1, . . . , n.Кроме того, Z1 + . . . + Zn = ν(y). Поэтому по закону больших чиселFn∗ (y) =Z1 + .
. . + Zn P→ EZ1 = F (y),nчто и требовалось доказать.Эта теорема лежит в основе многих статистических выводов. Она дает нам право использовать при больших n эмпирическую функцию распределения Fn∗ вместонеизвестной теоретической (или истинной) функции распределения F .По выборке можно также строить приближения для неизвестной плотности распределения, если она существует. Простейшее из них называется гистограммой. Дляее построения возьмем какой-нибудь отрезок [a, b], содержащий все наблюдения, иразобьем его на k равных по длине отрезков ∆1 , ∆2 , . .
. , ∆k . Пусть длина каждого изэтих малых отрезков равна h. На каждом отрезке ∆i , как на основании, построимпрямоугольник с высотой, равной νi /nh, где νi — число наблюдений, попавших в ∆i ,i = 1, . . . , k, ν1 + . . . + νk = n.6∆1∆2∆3... 063∆k-Верхний контур этой фигуры, составленный из горизонтальных отрезков, и естьгистограмма. Попробуем понять, что она в некотором смысле приближает неизвестную плотность f распределения наблюдений. Если функция f непрерывна, то прибольших n в силу закона больших чиселZνi' P(X1 ∈ ∆i ) =f (t) dt ' f (t0 )h,n∆iгде t0 ∈ ∆i — некоторая средняя точка.
Иначе говоря, νi /nh приближенно равняетсязначению плотности f в некоторой внутренней точке отрезка ∆i .Гистограмма тем самым является ступенчатой функцией. Если же плотность fнепрерывна, то, как известно, лучший результат дает приближение ее непрерывнымифункциями. Мы можем модифицировать гистограмму, соединив отрезками прямыхсередины горизонтальных отрезков. Полученная таким способом ломаная будет ужеграфиком непрерывной функции, она называется полигоном частот.
Здесь середины крайних отрезков (соответствующих ∆1 и ∆k ) соединяются с осью абсцисс так,чтобы по-прежнему суммарная площадь под графиком равнялась единице.Отметим, что при построении гистограммы допускалось много произвола: ничегоне сказано об исходном отрезке [a, b], о количестве и длине малых отрезков ∆i . Совершенно не используется информация о том, как наблюдения располагаются внутриотрезков ∆i .
Поэтому гистограмма является весьма грубым приближением для плотности распределения выборки и ее рекомендуется использовать только на предварительных этапах обработки статистической информации с последующим применениемболее точных методов.Далее введем понятие выборочных моментов.Обозначим сначала ak = EX1k , k = 1, . . ., моменты порядка k для распределения F выборки (разумеется, если они существуют). Если F неизвестно, то, значит,и его моменты нам недоступны. Однако, как мы видели, распределение F можноприблизить эмпирическим распределением Fn∗ .Возникает вопрос: нельзя ли неизвестные нам моменты a1 , a2 , . . . теоретического распределения хорошо приблизить моментами, вычисленными по эмпирическойфункции распределения Fn∗ ? Оказывается, можно.При фиксированной выборке эмпирическое распределение табличным способомзадается так:ЗначенияX1 X2 X3 .
. .Вероятности 1/n 1/n 1/n . . .Следовательно, для эмпирического распределения момент порядка k должен находиться по формулеn1X kX .a∗k =n i=1 iМы будем называть его выборочным моментом в отличие от теоретического. Разумеется, выборочные моменты являются случайными величинами (так как строятсяиз наблюдений) и существуют для любого k. Выборочный момент первого порядкаобозначается чаще всегоX1 + .
. . + XnX=nи называется выборочным средним. Центральный выборочный момент второго порядка называется выборочной дисперсией и обозначаетсяnn1X1X 2S =(Xi − X)2 =X − (X)2 = a∗2 − (a∗1 )2 .n i=1n i=1 i264Эти обозначения будут часто использоваться в дальнейшем.6.6.1.Оценивание неизвестных параметровПостановка задачи. Несмещенность и состоятельностьПусть имеется выборка X (с этого начинается любая статистическая задача).В этом разделе мы будем предполагать, что X ⊂= Fθ , т. е. распределение выборкизависит от некоторого параметра θ, который нам неизвестен и который мы хотимоценить по выборке.
Параметр может быть как одномерным, так и многомерным.Определение. Оценкой неизвестного параметра θ называется любая функция отвыборки θ∗ = g(X1 , . . . , Xn ), в том или ином смысле приближающая θ.Если θ ∈ Rk , то и g : Rn → Rk .Среди распределений, рассматривавшихся нами ранее в качестве примеров, почтивсе обладали одним или двумя параметрами.Разумеется, в одной и той же ситуации можно построить бесконечно много различных оценок. Нам же хочется иметь хорошую оценку.
Что это значит?Рассмотрим несколько желательных свойств оценок.Определение. Оценка θ∗ параметра θ называется несмещенной, если Eθ∗ = θ.Это значит, что в среднем значение оценки совпадает со значением параметра,который она и призвана оценивать.Может возникнуть вопрос: как же мы будем вычислять Eθ∗ = Eg(X1 , . . . , Xn ),если распределение наблюдений зависит от неизвестного нам параметра?Мы здесь рассуждаем так: предположим, что истинное значение параметра равно θ, после чего начинаем вычислять Eθ∗ (чтобы подчеркнуть это предположение,символы матожидания, дисперсии и вероятности часто снабжают индексом θ: Eθ θ∗ ).Если в итоге этих вычислений мы вновь получим θ, это и будет означать несмещенность оценки.Определение.
Оценка θ∗ параметра θ называется асимптотически несмещенной,если Eθ∗ → θ при n → ∞.Величина Eθ∗ − θ называется смещением оценки.Асимптотической несмещенностью довольствуются, как правило, в тех случаях,когда обычной несмещенности достичь не удается или же если смещение настолькомало при больших n, что им можно пренебречь.Моменты распределения тоже могут рассматриваться как неизвестные параметры. Для их оценивания мы предполагали пользоваться выборочными моментами.Нетрудно видеть, что выборочные моменты являются несмещенными оценками длямоментов теоретических:Ea∗k =nak1(EX1k + .
. . + EXnk ) == ak .nnВ том числе EX = a1 , запомним это. Заодно вычислим дисперсию для X:DX =nσ 2σ21(DX+...+DX)==,1nn2n2nгде σ 2 = DX1 = a2 − a21 .65Оказывается, выборочная дисперсия S 2 не будет являться несмещенной оценкойдля σ 2 . Действительно,µ 2¶σσ22∗222ES = Ea2 − E(X) = a2 − (DX + (EX) ) = a2 −+ a1 = σ 2 − .nnОценка оказалась асимптотически несмещенной. Если n велико, то смещением−σ /n можно пренебречь. Можно поступить по-другому: вместо S 2 использоватьоценкуn1 Xn2S0 =(Xi − X)2 =S 2.n − 1 i=1n−12В этом случаеES02 =nES 2 = σ 2 ,n−1т. е.
оценка S02 является несмещенной.Определение. Оценка θ∗ одномерного параметра θ называется состоятельной,Pесли θ∗ → θ при n → ∞.Состоятельность означает, что при увеличении объема выборки (т. е. при накапливании все большего объема информации) значение оценки должно сближаться соцениваемым значением параметра. Так и должно быть по логике вещей.