86109 (589932), страница 4
Текст из файла (страница 4)
- генератриса моментів , де cXβ = (X’X)-1β = β,
cσ2Ic’ = (X'X)-1X'σ2I((X'X)-1X')' = σ2(X'X)-1X'X(X'X)-1 = σ2(X'X)-1.
Генератриса функції моментів нормального розподілу ξ ~ N(a; σ2):
M(t) = Metξ = ,
Генератриса моментів для вектора однозначно визначає щільність розподілу вектора
і дорівнює M(t) = Met'
,
, t = (t1, t2, …, tp)'
(II) ( - β)'Х'Х(
- β)/σ2 =
=
= ( - β)'(D
)-1(
- β) = (
1 – β1, …,
p – βp)(D
)-1
=
= (D )-1
~ N(β; σ2(X'X)-1),
- β ~ N(0; σ2(X'X)-1),
, тоді
. Отже,
.
(III) Необхідно довести, не залежить від S2. Порахуємо cov(
,Y-X
)
cov( , Y - X
) = cov((X'X)-1X'Y, Y – X(X'X)-1X'Y) =
= cov((X'X)-1X'Y, Y - PY) = cov((X'X)-1X'Y, (I – P)Y) =
= (X'X)-1X'cov(Y, Y)(I – P)' = {(I – P)' = I – P} =
= (X'X)-1X'DY(I – P) = {DY = σ2} = (X'X)-1X'σ2I(I – P) =
= σ2(X'X)-1X'(I – P) = = 0
Залишилось скористатись наступною теоремою:
Нехай Y ~ N(Xβ; σ2I), U = AY, V = BY, матриця А1 складена з лінійно незалежних рядків матриці А, U1 = A1Y. Якщо cov(U, V) = 0, то
1) випадковий вектор U1 не залежить від V'V;
2) випадкові величини U'U та V'V незалежні.
Позначимо
U1 = , V = Y - X
, U = U1 =
U1 = (X'X)-1X'Y, V = Y - X = (I – P)Y.
Оскільки cov(U1, V) = 0, тоді U1 = не залежить від V'V=(Y - X
)'(Y - X
) = = (n – p)S2.
(IV) Розглянемо
Q1 = (Y – Xβ)'(Y – Xβ) = (Y - X + Х(
- β))'(Y - X
+ X(
- β)) =
= (Y – X )'(Y – X
) + (Y – X
)'X (
- β) + (
- β)'X'(Y - X
) +
+ ( - β)'X'X (
- β) =
= =
= (Y – X )'(Y – X
) + (
- β)'X'X (
- β) = Q + Q2. (1.1.15)
Тут ми позначили
(Y - X )'(Y - Х
) = Q, (
- β)'Х'Х(
- β) = Q2.
При цьому відношення
Q1/σ2 = =
(εi ~ N(0; σ2), εi /σ ~ N(0; 1)), Q2/σ2 ~
.
Отже, Q = Q1 + Q2, Q1 ~ , Q2 ~
(n > p). Тому Q/σ2 = Q1/σ2 – Q2/σ ~ ~
.
Теорема доведена.
Нехай лінійна модель регресії має вигляд Y = Xβ + ε, X = X(n × p), rangX = p, ε ~ N(0; σ2I).
Необхідно оцінити параметр β, при лінійних обмеженнях H: Aβ = c,
де А = А(q ×p) – відома матриця, c = c(q×1) – відомий вектор. (1.1.16)
Обмеження (1.1.16) можна переписати у вигляді:
H: Aβ = c
H: β =
,
де a'i – i-тий рядок матриці А
H: a'i β = ci , i = 1, 2, …, q.
Використаємо метод множників Лагранжа для розв’язання цієї задачі.
В подальшому будемо використовувати такий вираз:
λ1(a'1β – с1) + λ2(a'2β – с2) + … + λq(a'qβ – сq) =
= (λ1, λ2, …, λq) = λ'(Aβ – c) = (λ'(Aβ – c))' =
= (Aβ – c)'λ = (β'A' - c')λ (1.1.17)
Мінімізуємо суму квадратів залишків ε'ε при лінійних обмеженнях H:
Aβ = c.
r = ε'ε + λ1(a'1β – с1) + … + λq(a'qβ – сq) = ε'ε + (β'A' - c')λ = (Y – Xβ)'(Y – Xβ) + (β'A' - c')λ = (Y' – X'β') (Y – Xβ) + (β'A' - c')λ = Y'Y - Y'Xβ - β'X'Y + β'X'Xβ + (β'A' - c')λ = Y'Y - 2β'X'Y + β'X'Xβ + β'A'λ - c'λ
З (1.1.18) випливає, що
X'Xβ = X'Y - A'λ
= (X'X)-1X'Y -
(X'X)-1A'
(1.1.20)
=
-
(X'X)-1A'
(1.1.21)
Формулу (1.1.21) підставляємо в (1.1.19)
c = A = A
-
(X'X)-1A'
c - A = -
(X'X)-1A'
(A(X'X)-1A')-1(c - A ) = -
Останнє підставляємо в (1.1.21)
=
+ (X'X)-1A'(A(X'X)-1A')-1(c - A
)
мінімізує ε'ε при обмеженнях Aβ = c.
1.2 F-критерій
Розглянемо лінійну модель Y =Хβ + ε, в якій матриця X має розмір n р і ранг р, ε ~ Nn(0, σ2In). Нехай ми хочемо перевірити гіпотезу H: Аβ = c, де А - відома (q
p) - матриця рангу q, а с - відомий (q
1) - вектор. Позначимо
RSS = (Y –X )'(Y-X
) = (n – p)S2
RSSH = (Y –X H)'(Y-X
H)
Де H =
+ (Х'Х)-1А'[А(Х'Х)-1А']-1(с-А
), (1.2.1)
і RSSH - мінімальне значення ε'ε при обмеженнях Аβ = с.
Теорема 1.2.1.
(I) RSSH - RSS = (А - c)' [А (Х'Х)-1 А']-1 (А
- c),
(II) М [RSSH - RSS] = σ2q + (Аβ -с)' [А(Х'Х)-1А']-1(Аβ - с).
(III) Якщо гіпотеза Н: Аβ = с справедлива, то статистика
F =
має розподіл Фішера Fq,n-p (F-розподіл з q і n - p ступенями вільності відповідно).
(IV) Якщо с = 0, то статистика F приймає вигляд
F = ,
де РH - симетрична і ідемпотентна матриця і РНP = PРН = РН
Доведення.
(I) Спочатку доведемо тотожність:
||Y - X H||2 = ||Y - X
||2 + ||X(
-
H)||2
Розглянемо
||X( -
)||2 = (X(
- β))'X(
- β) = (
- β)'X'X (
- β) = (
-
H +
H - β)'X'X (
-
H +
H - β) =
= ( -
H)'X'X (
-
H) + (
H - β)'X'X (
H - β) =
= 2 ((X'X)-1A'
)'X'X(
H - β) =
A(X'X)-1 X'X(
H - β) =
A(
H - β) =
(A
H - Aβ) =
(c – c) = 0
= (X(
-
H))'X(
-
H) + (X(
H - β))'X(
H - β) = ||X(
-
H)||2 + ||X(
H- β)||2.
Далі,
ε'ε = (Y – Xβ)'(Y – Xβ) = ||Y – Xβ||2 = (Y - X )'(Y - X
) +
+ ( - β)'X'X(
- β) = ||Y - X
||2 + ||X(
- β)||2
Підставляємо
||X( - β)||2:
ε'ε = ||Y - X ||2 + ||X(
-
H)||2 + ||X(
- β)||2
ε'ε досягає мінімального значення при ||X( - β)||2 = 0, тобто
X( - β) = 0
β = , Х ≠ 0 (оскільки стовпці Х лінійно незалежні)
Покладаючи в ε'ε β = , знаходимо
||Y - X H||2 = ||Y - X
||2 + ||X(
-
H)||2
Тоді
RSSH – RSS = (Y - X H)'(Y - X
H) – (Y - X
)'(Y - X
) =
= ||Y - X H||2 - ||Y - X
||2 = ||X(
-
H)||2 = (X(
-
H))'(X(
-
H)) =
= ( -
H)'X'X(
-
H) =
= =
= ((X'X)-1A'(A(X'X)-1A')-1(A - c))'X'X((X'X)-1A'(A(X'X)-1A')-1(A
- c)) =
= (A - c)'(A(X'X)-1A')-1A(X'X)-1(X'X)(X'X)-1A'(A(X'X)-1A')-1(A
- c) =
= (A - c)'(A(X'X)-1A')-1(A
- c).
(II) Скористаємось лемою.
Нехай Y = Y(n×1) - випадковий вектор, A(n×n) = A - симетрична матриця. Якщо MY = θ, DY = ∑, тоді
M(Y'AY) = tr(A∑) + θ'Aθ.
Раніше, доведено, що
~ Np(β, σ2(Х'Х)-1), A
~ Nq(Aβ, σ2A(Х'Х)-1A').
Позначимо Z = А - c і В = А(Х'Х)-1А'. Тоді
M[Z] = M(А – c) = A
- c = = Аβ – c і
D[Z] = D(А – c) = D[A
] = σ2B
Тоді
M[RSSH - RSS] = M[Z'В-1Z] = tr[σ2В-1В] + (Аβ - с)' В-1(Аβ - с) =
= tr[σ2Iq] + (Aβ – c)'B-1(Aβ – c) =
= σ2q + (Aβ – c)'B-1(Aβ – c). (1.2.2)
(III) Відомо, що ~ Nq(β,σ2А(Х'Х)-1), тоді
A ~ Nq(Aβ, σ2A(Х'Х)-1A') і
А - с ~ Nq(Aβ - c, σ2A(Х'Х)-1A'),
, тоді
.
Розглянемо (RSSH – RSS)/σ2
= (А
- с)' (D[А
])-1(А
- с),
Раніше доведено, що RSS/σ2 ~ (теорема 1.1.6 (IV)), тоді статистика
при справедливій гіпотезі Н має вигляд [ /q]/[
/(n - р)]. Отже, якщо гіпотеза Н справедлива, то F ~ Fq,n-p.
(IV) Нехай у виразі (1.2.1) c = 0, тоді маємо
= X(
H - (Х'Х)-1А'[А(Х'Х)-1А']-1А
) = X
-
-
X(Х'Х)-1А'[А(Х'Х)-1А']-1А
=
= X(Х'Х)-1 Х'Y - X(Х'Х)-1А'[А(Х'Х)-1А']-1А(Х'Х)-1 Х'Y =
={X(Х'Х)-1X' - X(Х'Х)-1А'[А(Х'Х)-1А']-1А(Х'Х)-1Х'}Y= (Р-Р1)Y, (1.2.3)
Тобто
(1.2.4)
де РH - симетрична матриця. Спростивши вираз для матриці Р1, знаходимо, що Р1 симетрична і ідемпотентна і Р1Р = РР1 = Р1. Звідси одержуємо
= Р2 - Р1P – РP1 +
= P - 2P1 + P1 = P - P1 = PH (1.2.5)
PHP = (P - P1)P = P - P1 = PH (1.2.6)
і РРH = РH (останнє одержуємо транспонуванням).
Y - X = Y - X(Х'Х)-1 Х'Y = Y(I - X(Х'Х)-1 Х') = (I – P)Y.
Тоді
RSS = (Y - X )'(Y - X
) = ((I – P)Y)'(I – P)Y =
= Y'(I – P)'(I – P)Y = Y'(In - Р)Y
Aналогічно
RSSH = (Y - X H)'(Y - X
H) = Y'(In – РH)Y. (1.2.7)
Таким чином,
RSSH – RSS = Y'(In – РH)Y - Y'(In - Р)Y = Y'(I – РH – I + P)Y = Y'(P – РH)Y.
Отже,
Теорема доведена.
F – критерій для перевірки гіпотези H: Aβ = c.
Гіпотезу H: Aβ = c відхиляють при
і не відхиляють в супротивному разі. Рівень значущості критерію α.
1.3 Лінійна одновимірна регресія
Нехай Yi = β0 + β1xi + εi (i = 1,2, …, n) і ми хочемо перевірити гіпотезу H: β1 = 0. Тоді X = (In, x),
,
,
Підставляючи ці вирази у формулу = (X’X)-1X’Y, після деяких спрощень одержуємо
0 =
(1.3.1)
=
0 +
1xi =
(1.3.2)
Нарешті, знаходимо вираз для F- статистики
(1.3.3)
Де
Помітимо, що з (1.3.4) випливає, що
Де
є квадратом вибіркового коефіцієнта кореляції між Y і х. Відношення r є мірою ступені лінійності зв'язку меж Y і х, оскільки, згідно з (1.3.5),
RSS = (1.3.6)
Отже, чим більше значення г2, тим менше RSS і, тим краще підібрана пряма відповідає спостереженням.
1.4 Порівняння прямих регресій. Критерій паралельності прямих. Критерій збігу прямих
Нехай необхідно порівняти K ліній регресій
Y = αk + βkxk + ε (k =1, 2, ..., K),
де M[ε] = 0 і дисперсії D[ε] = σ2 однакові для всіх K ліній. Якщо для k-й лінії є nk пар спостережень (xki, Yki ) (i = 1, 2, ..., nk), то модель приймає вигляд
Yki = αk + βkxki + εki (k =1, 2, ..., nk), (1.4.1)
де εki - незалежні випадкові величини з розподілом N(0, σ2).
Введемо позначення Y' = (Y11, Y12, …, Y1n1, …, YKn1, …, YKnk) запишемо модель у вигляді Y = Xγ + ε, де
Тут X -матріца розміру N×2K рангу 2К, а N = .
Використовуючи загальну теорію підрозділу 1.2, можна перевірити будь-яку гіпотезу вигляду Н:Аγ = с. Дві гіпотези такого роду розглядаються нижче.
Критерій паралельності прямих
Розглянемо задачу перевірки паралельності всіх K ліній. Тоді гіпотеза
Н:Аγ = с має вигляд H1: β1 = β2 = . . . = βK = β, або β1- βK = β2 – βK = ... = βK-1 - - βK = 0. У матричній формі H1 приймає вигляд
або Аγ = 0, де А-матрица розміру (К- 1)×2K рангу K-1. Використовуючи загальну теорію регресії з q = K-1, n = N і р = 2К, одержуємо, що статистика критерія для перевірки гіпотези H1, має вигляд
(1.4.2)
Для знаходження RSS необхідно мінімізувати
S = ε'ε = .
Продиференціюємо S по αk та βk
З перших K рівнянь системи знаходимо, що
Підставляємо αk в (1.4.4)