Краткая теория по матстату (1120404)
Текст из файла
Опр: Пусть ={P} – некоторое семейство вероятностных мер (распределений) на измеримом пр-ве (X,). Тройка (X,,) наз. статистической структурой.
Опр: Наблюдением или выборкой наз. совокупность независимых одинак. распределенных сл. величин x1,…,xn, имеющих такое же распределение как и .
Упорядочивая выборку по возрастанию, мы получаем вариационный ряд x(1)x(2)…x(n).
x(k)() – k-я порядковая статистика.
Опр: Статистикой T(x1,…,xn)=T(x) наз. измеримая функция T от выборки. Более точно, если (X,,) – стат. структура, то измеримое отображение T измеримого пр-ва (X,) в некоторое измеримое пр-во (Y,) наз. статистикой.
2) Если k(), то AnkPk() (по ЗБЧ Хинчина), и с вер. 1 (УЗБЧ).
С любой выборкой можно связать так называемое эмпирическое, или выборочное, распределение, приписывая каждому значению xi вероятность 1/n. Эмпирической (или выборочной) функцией распределения будет F^(x)=1/nk=1nI{xkx}. Поскольку выборка случайна, то эмпирическая функция распределения при каждом x есть случайная величина. Мат. ожидание (среднее), дисперсия, моменты эмпирического распределения также будут сл. величинами и будут наз. соотв. эмпирическими (или выборочными) мат. ожиданием (средним), дисперсией, моментами. Таким образом, выборочное среднее есть среднее арифметическое элементов выборки x=1/nk=1nxk, и выборочная дисперсия равна s2=1/nk=1n(xk-x)2. Выборочные моменты и центральные моменты порядка r опр. выражениями 1/nk=1nxri, 1/nk=1n(xi-x)r.
Опр: Выборочным моментом порядка k наз. статистика Akn(x1,…,xn)=Ank=Ak=1/ni=1nxki. A1=x - выб. среднее.
Опр: Центральным выборочным моментом порядка k наз. статистика Mk=1/ni=1n(xi-x)k. Центр. выб. момент порядка k=2 наз. выборочной дисперсией (M2=s2).
x1,…,xn – сл. величины, Ex1 – мат. ожидание, Ex1k=k() – теоретич. моменты. E(x1-1())k=k() – центр. момент.
Св-ва: 1) EAk=k() EAk=E1/ni=1nxik=1/ni=1nExik=1/ni=1nk()=k().
Пусть - параметр, однозначно определяемый по каждому распределению. Пусть (X,,={P, }) – статистическая структура и - некоторое отображение в Rm. Статистика t со значениями в Rm наз. оценкой функции .
Опр: Пусть X=(x1,…,xn). Оценка (статистика) T(X) наз. несмещенной оценкой , если ET(X)=, . ET(X)=().
Опр: Оценка Tn(X) для заданной () наз. состоятельной, если при n Tn(X)P(), . Оптимальная оценка – несмещенная оценка с равномерно-минимальной дисперсией.
Теорема о единственности оптимальной оценки. Пусть t1 и t2 – оптимальные оценки. Тогда t1(x)=t2(x) -почти наверное, т.е. P{t1(x)=t2(x)}=1 (другими словами, статистики t1 и t2 эквивалентны).
Док-во: Для положим t3=1/2(t1+t2), v=Dt1=Dt2. Тогда t3 – несмещенная оценка функции и vDt3. С другой стороны, Dt3=1/4[Dt1+Dt2+2cov(t1,t2)]v, т.к. согласно нер-ву Коши-Буняковского cov(t1,t2)[Dt1Dt2]1/2=v. Dt3=v и cov(t1,t2)=v, D(t1-t2)=Dt1+Dt2-2cov(t1,t2)=0, что эквивалентно равенству P(t1=t2)=1.
Опр: Пусть x1,…,xn – независимая выборка из распределения с плотностью p(x,). Функция L(x,)=i=1np(xi,) наз. функцией правдоподобия. При фикс. x1,…,xn функцию L будем рассм. как функцию параметра .
Опр: Пусть =(1,…,n) – векторная случайная величина, распределение которой p(x,) зависит от параметра , и t(x)=(t1(x),…,tm(x)) – векторная функция (набор из m статистик) от x=(x1,…,xn). t(x) наз. достаточной статистикой, если условное распределение =(1,…,n) при заданном значении t() не зависит от параметра .
Теорема факторизации. Пусть L – функция правдоподобия. Статистика T(x) явл. достаточной h(x) и g(t,): L(x,)=g(T(x),)h(x), , xX.
Док-во: Пусть X – конечно или счетно. В этом случае L(x,)=P(=x)
[] t(x) – дост. статистика, T(x)=t L(x,)=P(=x)=P(=x,T()=t)=P(T()=t)P(=x|T()=t)=g(t,)h(x).
[] L(x,)=g(T(x),)h(x) при T(x)=t и P(T()=t)>0 P(=x,T()=t)=P(=x,T()=t)/P(T()=t)=h(x)/yT-1(t) h(y) не зависит от .
Опр: Статистика T наз. полной, если для числовой статистики f(T) из условия Ef(T(x))0 f(T(x))=0.
Неравенство Рао-Крамера.
Пусть p(x,) – плотность, зависящая от параметра , ^=(x) – оценка параметра по выборке x1,…,xn (не обязательно несмещенная). Пусть g()=E^ ∫p/dx0 ∫(x)p/dx=g’(), Пусть J()=E(lnp/)2.
Теорема: Если выполнены условия, то D^(g’())2/J()
Док-во: Умножим первый интеграл на g() и вычтем его из второго: ∫((x)-g())p/dxg’() {не-во Коши-Буняковского} [∫((x)-g())lnp/pdx]2∫((x)-g())2pdx∫(lnp/)2pdx (g’())2∫((x)-E(x))2p(x,)dx ∫(lnp/)2p(x,)dx=E((x)-E(x))2E(lnp/)2=D^J().
Опр: Оценка ^ наз. эффективной если D^=(g’())2/J().
Теорема Рао-Блекуэлла-Колмогорова.
Пусть t – достаточная статистика, ^(x) – несмещенная оценка параметра с конечной дисперсией. Тогда условное мат. ожидание ^ при фиксированном t ^^=E(^|t) будет несмещенной оценкой с дисперсией D^^D^.
Док-во: E^^=E(E(^|t))=E^=0, т.е. оценка ^^ - несмещенная.
D^^=E(^-)2=E(^-^^+^^-)2=E(^-^^)2+E(^^-)2{=D^^}+2E(^-^^)(^^-).
E(^-^^)(^^-)=E(E(^-^^)(^^-)|t)=E((^-^^)E((^^-)|t))=0, т.к. E((^^-)|t)=0 D^^D^.
Опр: Оценка ^^ наз. оптимальной, если D^^D^, ^.
Метод моментов.
Пусть x1,…,xn – независимая выборка из распределения с плотностью p(x,1,…,r), зависящей от r параметров 1,…,r. Предположим, что все моменты mk(1,…,r)=∫xkp(x,1,…,r)dx, k=1,…,r конечны и что система уравнений bk=mk(1,…,r), k=1,…,r (bk – теоретический момент, напр. bk=Ek) однозначно разрешима,
причем ее решение k=mk-1(b1,…,br), k=1,…,r (mk-1 – непр. обратные функции).
Теорема. Оценки k, k=1,…,r, получаемые как решение системы mk^=mk(1,…,r), k=1,…,r (где mk^=1/n i=1nxik – выборочные моменты), состоятельны.
Док-во: По УЗБЧ mk^ сходятся к mk, а из непр-ти функций mk-1 k^ при n сходятся к k.
Метод нахождения оценок, описанный в теореме носит название метода моментов. Этот метод дает состоятельные оценки, но часто их эффективность и ассимптотическая эффективность меньше 1.
Метод максимального правдоподобия.
Пусть x1,…,xn – независимая выборка из распределения с плотностью p(x,). Функция L(x,)=i=1np(xi,) наз. функцией правдоподобия. При фикс. x1,…,xn функцию L будем рассматривать как функцию параметра . По методу макс. правдоподобия за оценку ^=^(x1,…,xn) принимается значение аргумента , при котором L имеет макс. значение. L(x,^)=maxL(x,). Таким образом, по методу макс. правдоподобия выбирается значение , при котором вероятность получения данных значений выборки максимальна. Если функция L(x,) дифф-ма по , то ОМП ^ можно найти, решив относительно уравнение правдоподобия L/=0. Т.к. при фикс. x1,…,xn функция lnL достигает максимума при том же значении , что и L, то L/=0 ~ lnL/=0.
Св-ва:
1) Если дост. статистика T(x), то ОМП ^(x) L(x,)=g(T(x),)h(x) является функцией от ^(x)=(T(x)).
2) Если эффективная оценка ~(x), то ^(x) явл. ОМП тогда, когда ^(x)=~(x).
~(x)-=an()lnL(x,)/. Возьмем =^(x). Тогда слева разность эфф. и ОМП, а справа lnL(x,)/ будет равно 0.
Доверительные интервалы.
x1,…,xn ~ F(xi,)
Опр: Доверительным интервалом с коэфф. доверия 0<<1 наз. совокупность 2-х статистик T1(x), T2(x), таких, что
1) T1(x)T2(x) почти всюду 2) P(T1(x)T2(x)). Дов. интервал всегда .
Метод центральной статистики.
x1,…,xn ~ F(xi,); F(x,) непр. по x
Опр: Функция G(x,) наз. центральной статистикой если: 1) G(x,) непр-на и строго монотонна по при фикс. x, 2) P(G(x,)<t)=F(t)
Алгоритм построения довер. интервала:
1) выберем 1 и 2 P(1G(x,)2)= F(2)-F(1)=
2) {G(x,)2 G(x,)1 {T2(x): G(x,T2(x))=2 T1(x): G(x,T1(x))=1 } T1(x)T2(x)
P(T1(x)T2(x))=, . беск. много довер. интервалов. Самый короткий: [maxxi,maxxi/(1-)]
Метод использования точечной оценки.
Предположим, что T(x) – некот. точечная оценка . H(t,)=P(T(x)<t)
Мы будем предполагать, что H(t,) – непр. и строго монот. ф-ция при фикс. t.
Рассм. задачу: P(T(x)>1())>1-/2 P(T(x)<2())=1-/2} {1-H(1()+0,)=1-/2 H(2(),)=1-/2
Лемма: Если H(t,) возр. по , то 1() и 2() убыв., если H(t,) убывает, то 1() и 2() возрастают
Док-во: Пусть H(t,) возр., рассм. 2(). Докажем, что 1<2 2(1)>2(2). Предположим, что 2(1)2(2). Возьмем H(2(1),1). Заметим, что ф-ция H(2(),)=1-/2, значит 1-/2=H(2(1),1)<H(2(1),2) H(2(2),2)= 1-/2. 1-/2<1-/2 противоречие. Аналогично др. случаи.
Проверка гипотез. Значение параметра вполне определяют плотность p(x,). Те или иные предположения о значениях параметра наз. стат. гипотезами. Гипотеза наз. простой, если она состоит в том, что =0 (фикс. знач.), есди 0, то – сложная гипотеза. Относительно имеется некоторая основная, или проверяемая, гипотеза H0: 0. Мы должны построить такой стат. критерий, который позволяет нам заключить, согласуется ли выборка с гипотезой H0 или нет. Из мн-ва X всех возм. значений x=(x1,…,xn) выделяется такое подмножество S, называемое критическим, что при xS гипотеза H0 отвергается, а в остальных случаях принимается. S выбирается таким, чтобы вероятность P(S)=S∫p(x,)dx выборке x попасть в S при гипотезе H0 была мала. Ошибка 1-го рода – вероятность =PH0(S) отвергнуть гипотезу H0, когда она верна. Ошибка 2-го рода – вероятность =PH1(X\S) принять основную гипотезу, когда верна конкурирующая Мощность критерия W=1-.
Пусть по выборке x=(x1,…,xn) нужно различить 2 простые гипотезы H0 и H1, согласно которым выборка имеет соотв. плотности распределения p0(u), p1(u), u=(u1,…,un).
Лемма Неймана-Пирсона. Среди всех критериев, различающих гипотезы H0 и H1 с заданной ошибкой 1-го рода , наиболее мощным явл. критерий, определяемый крит. мн-вом Sc={u: p1(u)cp0(u)}. (1)
Док-во: Пусть S – крит. мн-во произвольного критерия с =PH0(S). Тогда PH0(Sc\ScS)=-PH0(ScS)=PH0(S\SSc). Используя это нер-во и (1), находим PH1(Sc\ScS)=Sc\SSc∫p1(u)duc Sc\SSc∫p0(u)du=cPH0(Sc\SSc)=cPH0(S\SSc)=c S\SSc∫p0(u)du S\SSc∫p1(u)du =PH1(S\SSc), т.к. p1(u)<cp0(u) на мн-ве S\SSc. Прибавляя к обеим частям последнего неравенства PH1(SSc), получим PH1(S)PH1(Sс).
Критерий Колмогорова:
Dn(x)=supx|Fn(x)-F0(x)| Fn=эмпир. ф-ция распр-ния x1,…,xn. F0 – непр.
Если n(x)k, то H0 отвергается, причем k находится из условия P(n(x)k|H0)=.
Характеристики
Тип файла документ
Документы такого типа открываются такими программами, как Microsoft Office Word на компьютерах Windows, Apple Pages на компьютерах Mac, Open Office - бесплатная альтернатива на различных платформах, в том числе Linux. Наиболее простым и современным решением будут Google документы, так как открываются онлайн без скачивания прямо в браузере на любой платформе. Существуют российские качественные аналоги, например от Яндекса.
Будьте внимательны на мобильных устройствах, так как там используются упрощённый функционал даже в официальном приложении от Microsoft, поэтому для просмотра скачивайте PDF-версию. А если нужно редактировать файл, то используйте оригинальный файл.
Файлы такого типа обычно разбиты на страницы, а текст может быть форматированным (жирный, курсив, выбор шрифта, таблицы и т.п.), а также в него можно добавлять изображения. Формат идеально подходит для рефератов, докладов и РПЗ курсовых проектов, которые необходимо распечатать. Кстати перед печатью также сохраняйте файл в PDF, так как принтер может начудить со шрифтами.