Н.И. Чернова - Математическая статистика (1115306), страница 2
Текст из файла (страница 2)
Вместо числа X1 появится другое число — одно из значений случайнойвеличины ξ. То есть X1 (и X2 , и X3 , и т. д.) — переменная величина, котораяможет принимать те же значения, что и случайная величина ξ, и так же часто (стеми же вероятностями).
Поэтому до опыта X1 — случайная величина, одинаковораспределенная с ξ, а после опыта — число, которое мы наблюдаем в данном первомэксперименте, т. е. одно из возможных значений случайной величины X1 .Выборка X = (X1 , . . . , Xn ) объема n — это набор из n независимых и одинаковораспределенных случайных величин («копий ξ»), имеющих, как и ξ, распределение F.Что значит «по выборке сделать вывод о распределении»? Распределение характеризуется функцией распределения, плотностью или таблицей, набором числовых характеристик — E ξ, D ξ, E ξk и т. д.
По выборке нужно уметь строить приближения длявсех этих характеристик.1.2. Выборочное распределениеРассмотрим реализацию выборки на одном элементарном исходе ω0 — набор чиселX1 = X1 (ω0 ), . . . , Xn = Xn (ω0 ). На подходящем вероятностном пространстве введемслучайную величину ξ∗ , принимающую значения X1 , . . . , Xn с вероятностями по 1/n(если какие-то из значений совпали, сложим вероятности соответствующее число раз).Таблица распределения вероятностей и функция распределения случайной величины ξ∗выглядят так:ξ∗PX11/n......Xn1/nF∗n (y) =X 1количество Xi ∈ (−∞, y)=.nnXi <yРаспределение величины ξ∗ называют эмпирическим или выборочным распределением.Вычислим математическое ожидание и дисперсию величины ξ∗ и введем обозначениядля этих величин:E ξ∗ =nnX11XXi = X,Xi =nni=1D ξ∗ =nnX11X(Xi −X)2 = S2 .(Xi −E ξ∗ )2 =nni=1i=1i=1Точно так же вычислим и момент порядка knnX1X k1 kXi = Xk .X =E (ξ ) =n in∗ ki=1i=1В общем случае обозначим через g(X) величину1Xg(Xi ) = g(X).nnE g(ξ∗ ) =i=14Если при построении всех введенных нами характеристик считать выборку X1 , .
. . , Xnнабором случайных величин, то и сами эти характеристики — F∗n (y), X, S2 , Xk , g(X) —станут величинами случайными. Эти характеристики выборочного распределения используют для оценки (приближения) соответствующих неизвестных характеристик истинного распределения.Причина использования характеристик распределения ξ∗ для оценки характеристикистинного распределения ξ (или X1 ) — в близости этих распределений при больших n.Рассмотрим,дляпримера,nподбрасыванийправильногокубика.Пусть Xi ∈ {1, . . .
, 6} — количество очков, выпавших при i-м броске, i = 1, . . . , n.Предположим, что единица в выборке встретится n1 раз, двойка — n2 раз и т.д.Тогда случайная величина ξ∗ будет принимать значения 1, . . . , 6 с вероятностямиn6n1, ...,соответственно. Но эти пропорции с ростом n приближаются к 1/6nnсогласно закону больших чисел. То есть распределение величины ξ∗ в некотором смыслесближается с истинным распределением числа очков, выпадающих при подбрасыванииправильного кубика.Мы не станем уточнять, что имеется в виду под близостью выборочного и истинногораспределений.
В следующих параграфах мы подробнее познакомимся с каждой извведенных выше характеристик и исследуем ее свойства, в том числе ее поведение сростом объема выборки.1.3. Эмпирическая функция распределения, гистограммаПоскольку неизвестное распределение F можно описать, например, его функциейраспределения F(y) = P (X1 < y), построим по выборке «оценку» для этой функции.Определение 1. Эмпирической функцией распределения, построенной по выборкеX = (X1 , . .
. , Xn ) объема n, называется случайная функция F∗n : IR × Ω → [0, 1],при каждом y ∈ IR равная1Xколичество Xi ∈ (−∞, y)I(Xi < y).=nnnF∗n (y) =i=1Напоминание: Случайная функцияI(Xi < y) =1,если Xi < y,иначе0называется индикатором события {Xi < y}. При каждом y это — случайная величина,почему?имеющая распределение Бернулли с параметром p = P (Xi < y) = F(y).Иначе говоря, при любом y значение F(y), равное истинной вероятности случайнойвеличине X1 быть меньше y, оценивается долей элементов выборки, меньших y.5Если элементы выборки X1 , .
. . , Xn упорядочить по возрастанию (на каждомэлементарном исходе), получится новый набор случайных величин, называемый вариационным рядом:X(1) 6 X(2) 6 . . . 6 X(n−1) 6 X(n) .ЗдесьX(1) = min{X1 , . . . , Xn },X(n) = max{X1 , . . . , Xn }.Элемент X(k) , k = 1, . . . , n называется k-м членом вариационного ряда или k-й порядковой статистикой.Пример 1. Выборка: X = (0; 2; 1; 2,6; 3,1; 4,6; 1; 4,6; 6; 2,6; 6; 7; 9; 9; 2,6).Вариационный ряд: (0; 1; 1; 2; 2,6; 2,6; 2,6; 3,1; 4,6; 4,6; 6; 6; 7; 9; 9).Эмпирическая функция распредеF∗n (y)ления имеет скачки в точках выбор61ки, величина скачка в точке Xi равнаm/n, где m — количество элементоввыборки, совпадающих с Xi .Можно построить эмпирическуюфункцию распределения по вариационному ряду:y1 2 3 4 5 6 7 8 9 1000,если y 6 X(1) ,kF∗n (y) =Рис.
1: Пример 1, если X(k) < y 6 X(k+1) ,n1при y > X(n) .Другой характеристикой распределения является таблица (для дискретных распределений) или плотность (для абсолютно непрерывных). Эмпирическим, или выборочныманалогом таблицы или плотности является так называемая гистограмма.Гистограмма строится по группированным данным. Предполагаемую область значений случайной величины ξ (или область выборочных данных) делят независимо отвыборки на некоторое количество интервалов (не обязательно одинаковых). Пусть A1 ,. . . , Ak — интервалы на прямой, называемые интервалами группировки. Обозначимдля j = 1, . .
. , k через νj число элементов выборки, попавших в интервал Aj :νj = { число Xi ∈ Aj } =nXI(Xi ∈ Aj ),здесьkXνj = n.(1)j=1i=1На каждом из интервалов Aj строят прямоугольник, площадь которого пропорциональна νj . Общая площадь всех прямоугольников должна равняться единице. Пустьlj — длина интервала Aj . Высота fj прямоугольника над Aj равнаfj =νj.nljПолученная фигура называется гистограммой.Пример 2.
Имеется вариационный ряд (см. пример 1):(0; 1; 1; 2; 2,6; 2,6; 2,6; 3,1; 4,6; 4,6; 6; 6; 7; 9; 9).Разобьем отрезок [0, 10] на 4 равных отрезка. В отрезок A1 = [0; 2,5) попали 4элемента выборки, в A2 = [2,5; 5) — 6, в A3 = [5; 7,5) — 3, и в отрезок A4 = [7,5; 10]попали 2 элемента выборки. Строим гистограмму (рис. 2). На рис. 3 — тожегистограмма для той же выборки, но при разбиении области на 5 равных отрезков.6668/750.10123456789 10-y01Рис. 2: Пример 223456789 10yРис. 3: Пример 2Замечание 1. В курсе «Эконометрика» утверждается, что наилучшим числом интервалов группировки («формула Стерджесса») является k = k(n) = 1 + [3.322 lg n].Здесь lg n — десятичный логарифм, поэтому k = 1+[log2 10 log10 n] = 1+[log2 n],т.
е. при увеличении выборки вдвое число интервалов группировки увеличивается на 1.Заметим, что чем больше интервалов группировки, тем лучше. Но, если брать числоинтервалов, скажем, порядка n, то с ростом n гистограмма не будет приближаться кплотности.Справедливо следующее утверждение:Если плотность распределения элементов выборки является непрерывной функцией,то при k(n) → ∞ так, что k(n)/n → 0, имеет место поточечная сходимостьпо вероятности гистограммы к плотности.Так что выбор логарифма разумен, но не является единственно возможным.1.4.
Выборочные моментыЗнание моментов распределения также многое может сказать о его виде и свойствах.Введем выборочные аналоги неизвестных истинных моментов распределения.Пусть E ξ = E X1 = a, D ξ = D X1 = σ2 , E ξk = E Xk1 = mk — теоретическиесреднее, дисперсия, k-й момент. Мы уже знакомы с соответствующими характеристиками выборочного распределения E ξ∗ = X, D ξ∗ = S2 , E (ξ∗ )k = Xk .Теоретические характеристикиD ξ = D X1 = σ2Эмпирические характеристикиn1 PX=Xi — выборочное среднееn i=1n1 P(Xi − X)2 — выборочная дисперсия,S2 =n i=1либоn1 P(Xi − X)2 —S20 =n − 1 i=1несмещенная выборочная дисперсияE ξk = E Xk1 = mkXk =E ξ = E X1 = an1 PXk — выборочный k-й моментn i=1 iСписок числовых характеристик и их оценок можно продолжать, рассмотрев, например, центральные, абсолютные и т.
п. моменты. В общем случае1Xg(Xi ).nnмоментE g(ξ) будем оценивать величинойg(X) =i=171.5. Сходимость эмпирических характеристик к теоретическимМы ввели три вида эмпирических характеристик, предназначенных для оцениваниянеизвестных теоретических характеристик распределения: эмпирическую функцию распределения, гистограмму, выборочные моменты. Если наши оценки удачны, разницамежду ними и истинными характеристиками должна стремится к нулю с ростом объема выборки. Такое свойство эмпирических характеристик называют состоятельностью.Убедимся, что наши выборочные характеристики таким свойством обладают.1.5.1. Свойства эмпирической функции распределенияТеорема 1.
Пусть X = (X1 , . . . , Xn ) — выборка объема n из неизвестного распределения F с функцией распределения F. Пусть F∗n — эмпирическая функция распределения,построенная по этой выборке. Тогда для любого y ∈ IRpF∗n (y) −→ F(y)приn → ∞.Замечание 2. F∗n (y) — случайная величина, так как она является функцией отслучайных величин X1 , . .
. , Xn . То же самое можно сказать про гистограмму и выборочные моменты.Доказательство теоремы 1. По определению 1,nPI(Xi < y)i=1F∗n (y) =.nСлучайные величины I(X1 < y), I(X2 < y), . . . независимы и одинаково распределены,их математическое ожидание конечно:E I(X1 < y) = 1 · P (X1 < y) + 0 · P (X1 > y) = P (X1 < y) = F(y) < ∞,поэтому примени́м ЗБЧ Хинчина, а что это такое? иnPF∗n (y)=I(Xi < y)i=1p−→ E I(X1 < y) = F(y).nТаким образом, с ростом объема выборки эмпирическая функция распределениясходится (по вероятности) к неизвестной теоретической.Верен более общий результат, показывающий, что сходимость эмпирической функции распределения к теоретической имеет «равномерный» характер.Теорема Гливенко — Кантелли. Пусть X = (X1 , .