С.С. Валландер - Лекции по статистике и эконометрике (1160549), страница 4
Текст из файла (страница 4)
Напротив, совокупность всевозможных одномерныхраспределений с конечными математическим ожиданием и дисперсиейпараметрической считать не следует, т.к. фиксация этих характеристикеще не задает закон распределения — возможны совершенно разныераспределения с одинаковыми средними значениями и дисперсиями.Завершая пока разговор о статистических данных, отметим еще,что сама принимаемая нами концепция, согласно которой их можнотрактовать как случайные величины (или их значения), требуеттщательного анализа. С совершенно разных, но одинаково важных,точек зрения об этом можно прочитать в [11], [5].Обсудим теперь возможные типы статистических выводов.Традиционно выделяют два таких типа, каждому из которых отвечаетсвой класс задач.В задачах оценивания статистический вывод представляет собойконечный набор чисел — оцененных характеристик модели, и в этомсмысле имеет арифметический характер (мы слегка упрощаем картину— к числам, разумеется должны быть сделаны надлежащие комментарииОснования статистики11и разъяснения).
Оценивание (estimation) представляет собой процесспереработки исходных статистических данных в этот набор чисел— оценок (estimates) теоретических характеристик. Исследовательинтерпретирует эти оценки как приближенные значения неизвестныхему теоретических характеристик. В английском языке имеется такжене имеющий русского эквивалента термин "estimator"для правилавычисления оценки (т.е.
фактически, для соответствующей формулы).Более подробно о задачах оценивания мы говорим дальше, в главе 2.В задачах проверки статистических гипотез (hypotheses testing) вывод имеет логический характер — "ДА"или "НЕТ", т.е.гипотеза подтверждается или отвергается.
Мы увидим дальше, чтоиногда одну и ту же (по существу) задачу можно сформулироватьи как задачу проверки гипотезы, и как задачу оценивания, так чтоизложенную классификацию следует рассматривать скорее как нечтовспомогательное. Тем не менее, такая структуризация оказывается частоочень удобной и методически полезной. По естественным причинам(подробно задачи проверки гипотез мы рассматриваем в главе 4)отрицательный вывод — отвержение статистической гипотезы — напрактике делается значительно чаще и в более решительной форме,чем положительный.
Правило получения вывода в задачах проверкигипотез называется критерием (criterion) или тестом (test, testing procedure) проверки.Во всех случаях статистический вывод представляет собойумозаключение исследователя, базирующееся на доступной емуинформации, содержащейся в статистических данных. Такаяинформация заведомо является неполной, а основанный на нейвывод нельзя считать достоверным. Это — важнейшая особенностьстатистики: выводы по своей природе неточны. В задачах оцениванияполучаемые числа лишь приближенно соответствуют теоретическимхарактеристикам явления, а при проверке гипотезы потенциальноможно отвергнуть ее, в то время как "на самом деле"она справедлива,или же принять, в то время как "на самом деле"она ложна.
Выражение,заключенное в кавычки, подчеркивает то обстоятельство, что даже врамках выбранной модели данных исследователь имеет дело с целымсемейством априори допустимых вероятностных мер, лишь одна изкоторых отвечает реальной ситуации.Неточность статистического вывода и "ущерб", возникающий отпоследствий неправильного вывода, можно включить в модель в12Глава 1виде так называемой функции потерь, переводящей эту неточность иэтот ущерб в числовую форму. Разумеется, каждый выбор функциипотерь несет оттенок субъективности и открывает возможностидля дискуссий. Тем не менее, функция потерь часто позволяетсравнивать между собой различные решающие правила и выбиратьиз них оптимальное (оптимальные).
Мы будем неоднократно далеевозвращаться к обсуждению проблемы оптимальности.1.3Эмпирическая мера, принцип соответствия иасимптотические мотивы в статистикеФормулируя свой неточный вывод, статистик, тем не менее,имеет надежду не ошибиться. Попробуем проанализировать, какиесоображения позволяют ему надеяться на это, и в какой степени.Такой анализ во многом основан на рассуждениях, применимых лишьв частных случаях. Мы будем предполагать, что статистическиеданные образуют повторную выборку, т.е. конечную последовательностьX1 , . .
. XN независимых одинаково распределенных величин. Частьнаших аргументов остается осмысленной и при более слабыхограничениях, но мы не будем на этом останавливаться.Повторная выборка характеризуется распределением вероятностейP одного из наблюдений (разумеется, любого), совместные жевероятности восстанавливаются с использованием независимости.Каждая фиксация распределения P определяет тем самым одну изаприори допустимых мер (обратное очевидно). При помощи набораX1,эмп. , .
. . XN,эмп. определяется эмпирическая мера PN∗ — дискретныйзакон распределения, приписывающий каждому из значений Xi,эмп.вероятность, равную 1/N (вероятности этого вида, соответствующиесовпадающим значениям, суммируются ("склеиваются"); так, еслиX1,эмп. = X2,эмп. , то этому значению приписывается вероятность2/N ). Эмпирическая мера представляет собой некую карикатуру назакон распределения P и порождает принцип соответствия междутеоретическими объектами (характеристиками распределения P) и ихэмпирическими аналогами. Соответствие начинается с констатациианалогичности двух разнородных объектов: самого теоретическогозакона P и эмпирической меры PN∗ , а затем продолжается на вторичные(по отношению к P) характеристики: если f (P) — какая-либоОснования статистики13теоретическая характеристика (функционал от распределения P),то ей ставится в соответствие аналогичная характеристика f (PN∗ )эмпирического распределения.Приведем несколько типичных хорошо известных примеров (дляодномерных наблюдений).1.
Эмпирический аналог математического ожидания E = EP :N1 XX̄ =XiN i=1Эта величина обычно называется выборочным (или эмпирическим)средним значением.2. Эмпирический аналог дисперсии V = VP (= var):N1 XS =(Xi − X̄)2N i=12— выборочная или эмпирическая дисперсия.3. Эмпирическая функция распределения:FN∗ (x)N1 X1]−∞,x[ (Xi ).=N i=1В приведенных формулах мы опустили, и это не случайно,дополнительный индекс "эмп."Дело в том, что все наши"эмпирические"объекты, начиная с эмпирической меры, можнопонимать двояко, точно так же, как наблюдения, которые мы понимаеми как случайные величины, и как их реализовавшиеся значения.
Темсамым, X̄ можно трактовать и как случайную величину, и как число.Аналогично, FN∗ (x) — и как обычную функцию числового аргумента x,и как случайную функцию того же аргумента.Принцип соответствия говорит нам о том, что, скорее всего,эмпирические характеристики можно рассматривать как приближенныезначения теоретических.
Известны два подхода к более точнойформулировке этой идеи.Первый из них называется асимптотическим и связан с изучениемвведенного соответствия при растущем числе наблюдений, т.е. при14Глава 1N → ∞. Об этом подходе мы поговорим более подробно чутьниже в этом параграфе.
Второй подход можно охарактеризовать какоптимизационный — рассматриваются различные функции от выборки(часто они называются статистиками), тем или иным способом вводитсямера отклонения их от интересующего исследователя теоретическогообъекта (этой мерой отклонения может быть, скажем, функция потерь)и, наконец, решается задача минимизации этого отклонения прификсированном объеме выборки. Часто оказывается, что эмпирическиехарактеристики являются решениями такой экстремальной задачи.Подобные оптимизационные соображения используются как в задачахоценивания, так и в задачах проверки гипотез, и мы более подробнобудем обсуждать их дальше.Здравый смысл подсказывает нам, что выборка большего объемадолжна содержать больше информации, так что основанный наней статистический вывод окажется более точным, и потомуасимптотические соображения оказываются полезными прежде всегов тех задачах, где число наблюдений принципиально может бытьсделано весьма большим, а сами эти наблюдения не требуют крупныхзатрат (на практике последнее обстоятельство часто оказывается весьмасущественным).Напротив, оптимизация показывает, какой степени приближения(конечно, не любой) можно добиться, располагая выборкойфиксированного объема, т.е., на другом языке, как извлечь изэмпирических данных максимально возможную информацию обинтересующей нас характеристике теоретического распределениявероятностей.Асимптотическая теория включает, прежде всего, утвержденияо поведении эмпирических характеристик в пределе, когда числонаблюдений стремится к бесконечности.
Типичными являются приэтом результаты о сходимости этих эмпирических характеристикк пределу в подходящем смысле. Этого, однако, недостаточно,поскольку пользователи имеют дело с конечными выборками и делаютвыводы по ним. Поэтому очень важными (и, чаще всего, оченьтрудными для доказательства, но эта сторона медали пользователейредко интересует) являются границы погрешностей, т.е. отклоненийдопредельных значений от предельных. Часто подобные границы удаетсяполучить лишь для оптимальных или близких к ним решающих правил,и тогда асимптотическая задача смыкается с оптимизационной.
ВОснования статистики15следующем параграфе мы обсуждаем различные понятия сходимости,использующиеся в статистике, и формулируем простейшие результатыоб этой сходимости. Более сложные утверждения асимптотическогохарактера обсуждаются в последующих главах.Асимптотическая теория для неодинаково распределенныхнаблюдений усложняется тем обстоятельством, что приходитсяпредполагать тот или иной характер этой неодинаковости, причемподобные предположения следует согласовывать со спецификойконкретной задачи, а не с удобством математических доказательств.Мы будем затрагивать эти вопросы только по мере необходимости.1.4Предельные переходы в статистикеПростейший статистический объект, с которым приходится совершатьпредельный переход, — последовательность случайных величин, т.е.измеримых функций с общей областью определения Ω. Для такихпоследовательностей чаще всего рассматривается сходимость повероятности.Говорят, что последовательность {Xn } числовых случайных величинсходится по вероятности к случайной величине X, если для любогоположительного числа ε вероятность события {|Xn − X| ≥ ε} стремитсяк нулю при n → ∞:lim P(|Xn − X| ≥ ε) = 0.n→∞Иногда это определение формулируют в терминах противоположныхсобытий:lim P(|Xn − X| < ε) = 1.n→∞В литературе по прикладной статистике и эконометрике частоиспользуется обозначение p − lim Xn для предела по вероятности.
ВPматематической литературе чаще пишут Xn −→ X (буква P здесьявляется символом вероятностной меры, дающей способ вычислениявероятностей, и может при необходимости заменяться другим символом,обозначающим аналогичный объект, например, Q, µ или P̃). Этазапись содержит, тем самым, больше информации о способе предельногоперехода.Нестрого говоря, данное выше определение означает, что с ростомn величины Xn и X постепенно сближаются ближе чем на наперед16Глава 1заданное ε "с подавляющей вероятностью", т.е. на все большей и большей(хотя и зависящей от n) части своей общей области определения Ω.Следует иметь в виду, что приведенное определение ничего неговорит о сходимости значений этих случайных величин в какойнибудь конкретной точке ω ∈ Ω их области определения. Болеетого, в некоторых точках (элементарных исходах) ω числоваяпоследовательность Xn (ω) вполне может вообще не сходиться кX(ω) (или никуда не сходиться).