Г.И. Ивченко, Ю.И. Медведев, А.В. Чистяков - Сборник задач по математической статистике (1115272), страница 21
Текст из файла (страница 21)
3.87. Пусть требуется проверить гипотезу Н;. 9 = Оо против альтернативы Ны 0 ) Оо для нормальной модели У(0, и'). Построить критерии вида Х~ = (Т„ ~ у.), основываясь на статистиках Т'„' = Х вЂ” выборочное среднее и 71 0 ТР = 2„ „о — выборочная медиана, и показать, что относительная эффективность второго критерия по отношению к первому ь = 2/я = 9,637... 109 У к а з а и и е.
Воспользоваться решениями задач 1, 3.86, 3.85 и П32. 3.88.» Пусть наблюдается случайный вектор Х = = (Хь ..., Х.), имсющий распределение Еь(Х) = = Л1(01, Х = ьо„~!(), где 0 — неизвестный скалярный па- раметр, 1 = (1ь ..., 1,), 0<1~ <1э < ... 1„— известные константы и о;; = 1ь 1<1'. (Если п(1), 1)0, — винеров- ский процесс [2, с. 22Ц, т. е. однородный случайный процесс с независимыми приращениями, причем Е(т1(1)) = = Ж(01, 1), то Х; = «1(1,), 1 = (,, и, т. с. Х вЂ” наблюде- ния над т1(1) в моменты 1ь ..., 1,,) Убедиться в том, что достаточной статистикой для О является последнее наблюдение Х, и, основываясь на этом, построить критерии проверки гипотезы Нь.
8 = О, т. е. гипотезы об отсутствии систематического тренда (смещения, сноса) (рассмотреть альтернативы Н~~.. О~О, Н: О =О и Н: О ~ О). У к а з а н и я. 1. Воспользоваться критерием ~~акторизации, установив при этом равенство 1Х = (0...01). 2. Использовать решения задач 3.47, 3.58 и 3.60. Глава 4 ЛИНЕИНАЯ РЕГРЕССИЯ И МЕТОД НАИМЕНЬШИХ КВАДРАТОВ П Под линейной регрессионной моделью понимают такую ситуацию, когда наблюдаемые случайные величины Хь ..., Х. «в среднем» линейно зависят от некоторых неслучайных факторов гь ..., гь (й < и), значения которых могут меняться от опыта к опыту. В этом случае исходные статистические данные состоят из множества наблюдавшихся значений «откликов» Хь ..., Х и соответствующих значений факторов, т, е.
имеют вид (хй г(', ..., г10), 1 = 1, ..., и, и считается, что ВХ; = ~г['81 = го1'(Т,га1 = (г(', .", гьо), где р = (рь ..., рв) — совокупность неизвестных параметров, называемых коэффициентами регрессии. Если ввести случайные величины е, = Х; — гсйр, называемые «ошибками» измерений, и матрицу плана л = [~г~'1...гГ"11[ размером йусп, то в матричных обозначениях модель записывается в виде Х = 2'р+ в, Х = (Хь ..., Х„), а = (еп ..., а,). (43) 110 Здесь Е(е) = 0 и обычно предполагается, что наблюдаемые случайные величины некоррелированы н имеют одинаковые дисперсии, т.
е. матрица вторых моментов вектора наблюдений Х имеет вид 0(Х) = 0(е) = Еев' = аРЕ (4.2) Величина а' называется остаточной дислерсией и обычно также неизвестна. Если неслучайные переменные имеют вид г; = а,(!), где а,(!) — полинам, то говорят о параболической регрессии. В приложениях часто параметр и = 2, а векторы аа! имеют впд аго = (1, й), т. е. в данном случае ЕХ; = р, + + рз1ь( = 1, ..., и (среднее значение наблюдений является линейной функцией одного фактора !). Этот случай на. зыва!от простой регрессией, прямую ф(т) = ))~ + ()т!— линией регрессии, а коэффициент (1« — ее наклоном.
В ряде задач регрессионного анализа делаются дополнительные предположения о виде распределения «ошибок> е н часто считается, что они нормально распределены, т. е. !.(в) = М(0, о'Е„), В этом случае модель имеет вид г,(Х) = М(У'р, о'Е,) (4 3) и ее называют нормальной регрессией. К модели линейной регрессии сводятся многие задачи прикладных исследований, в которых речь идет об апре делении вектора неизвестных параметров р = (рь ..., (1«), причем обычно можно измерить лишь некоторые функции от этих параметров, а прямое их измерение невозможно.
К задачам такого типа относятся, в частности, задачи восстановления функциональной зависимости. В этом случае неизвестными параметрами являются коэффици енты разложения восстанавливаемой функции по какой- либо системе функций. 2. Основными задачами регрессионного анализа являются задачи оценивания неизвестных параметров (! = = ((н, ..., (1«) и а' модели (4.!) — (4.2), а в случае нормальной регрессии (4.3) — нх доверительное оценивание и проверка гипотез о параметрах. Основным методом построения оценок для коэффициентов регрессии р является метод наименьших квадратов, в соответствии с которым оценки этих параметров находят нз условия обращения в минимум квадратичной формы: !ь! 5(Р) = 5(Х; ()) = (Х вЂ” Х (1) (Х вЂ” Х 8). (4.4) Точку р = (р!, ..., (4), удовлетворяющую равенству 5((1) = ш1п5(р), называют оценкой наименьших квадраь тов (о.н.к.) параметра р, Определяющую роль в решении этих задач играет матрица А = ЯЕ'.
В дальнейшем считается, что эта матрица невырождена (нли, что эквивалентно, ганджи = = й), При этом предположении о.н.к. единственна, определяется нормальным уравнением А() = У= УХ н имеет вид и = А !У = А !ЯХ. При этом оценка р является несмещенной (Е(1 = р) с минимальной дисперсией (т. е. дисперсии всех компонент вектора () минимальны) в классе всех линейных (т.
е. линейно зависящих от наблюдений Х) несмещенных оценок (1. Более того, такими же свойствами обладает и любая линейная функция г = Т(з как оценка параметра ( = Тр' (здесь Т вЂ” заданная матрица некоторого размера тХа); при этом Р(г) = = о'ТА 'Т', в частности Р(р) = о'А Несмещенной оценкой остаточной дисперсии о' является [1, с. 181 †1) статистика б' = — „5ф) = — Х'ВХ, В = Е, — Е'А 'Х. (4.5) В задачах интерполяции, когда для неизвестной функции х = 1(1), связывающей переменные 1 и х, по измерениям (Г„Х! = х!+ е!), х! = 1(й), ! = 1, ..., и, подбирают интерноляционный многочлгн вида р(1; Р) = Х Р,а,(1), 1=! где в качестве а!(1), а,(1), ... используют ортогональные многочлены Чебышева, о.н.к.
неизвестных коэффициентов р! вычисляют по формулам Р = —,~ а,(й)Хь а,' = ~ а,'(б), 1 = 1, 2, „, при этом величина 5((1) = Х Х,' — ~ а,'Р,' характеризует ! ! !=! точность приближения; первые трн многочлена Чебышева имеют вид: а!(1) = — 1, ае(1) =1 — Г, агЯ=(1 — 1)(1 — à — М вЂ” вм м/ где 1 = — 2,' 1ь зе = ы,(1о ..., 1.) ~=! с.
189 в 191]. Метод наименьших квадратов случае, когда зависимость ЕХ; от р Пусть Х; = 1(1ь (3ь "., (3 ) + е„ применяют также в не является линейной. 1=1,...,л, где Ее„= О, 33ей — — а~, сот(е„е,) = 0 (1 ~!Д Тогда о,н.к. (3 параметров (3 минимизируют по р выражение ФР) = Х(Х; — ((1ь Рп ..., Ы)2. ! Таким образом о.н.к, р являются решением системы уравнений — = О, 1 = 1, ..., Гг. а сР(Р) эв, Приведем пример вычисления оценок параметров р. Пусть требуется определить неизвестные коэффициенты фп бм бе) функциональной зависимости х(1) = (3~ + 1(3е+1~8ь зг Будем предполагать, что в точках 1, = 2 + †, 1 = = 1, ..., л, измерены значения функции х(1).
Ошибки из- мерений е;, 1 = 1, ..., л, будем считать независимыми и нормально распределеннымн с Ее, = О, Рс~ = а~. В этом случае имеем линейную модель Х = х(1!)+ а~ = Р! + 1;(32+ 1~133+ еь ! = 1, ..., л, и оценки ()ь рт, (Зе удовлетворяют системе уравнений п е" ~ (Х; — (3~ — 1,(3е — 43з) = О, ! (4.7) 113 Пусть (3~ = 3, Де = — 1, Дз = 1, о' = 0,04. Смоделнруем е; в случае л = 25, л = !00 и найдем соответствующие Хь Из системы (4.7) находим: 1) л = 25 (! = 2,983; (1з = — 0,828; (1з= 0,895; о' = 0,034.
2) и = !00 ()~= 2,992; рэ = — 1,007; йз = 1,001; о' = 0,046. На рис. 5 и 6, относяшихся к случаям п = 25 и и = !00 соответственно, приведен график точной функциональной зависимости х(1) = (1~ + й~г+ ()з1', знаком О отмечены результаты измерений (б, Х,), а также приведены графики функций х(1) = 8, + 1)э1+ й,1'. 3. Для схемы нормальной регрессии (4.3) о.н.к.
р совпадают с оценками максимального правдоподобии (о.м.п.) параметров р. В этом случае у-доверительный интервал для параметра (); имеет вид (ь, ь...у — '", чй). нВ) где а" — /-й диагональный элемент матрицы А ', а для остаточной дисперсии 5(())/У~+ ~ о ( Ы~МУЧ.~ — т „„(4.9) у-Доверительная область для вектора 1 = Тй, где Т— заданная матрица размера гп)4й и гаппТ = лт, строится по формуле а„(Х) = (1:(Т(! — 1УО-'(ТР— 1) -=- —,5(8)Г,,...~, (4.10) где О = ТА 'Т' (1, с. 194 — 196). Если требуется одновременно оцепить некоторые линейные комбинации параметров р, т. е.
величины Л;(), г = 1, ..., т, где Л, — заданные векторы, то система совместных доверительных интервалов с доверительным уровнем, большим или равным у, имеет вид Л~(1 — и„(Х; Л,)(Л)р(Л(р+и„(Х; Л,), г = 1, ..., т, (4.11) где и„(Х; Л) = ~ — 5ф)Е,л„э(Л'А 'Л)~ [1, с. 198).