1625915143-9358bde957c0693ae60a95b83ad382f6 (843873), страница 20
Текст из файла (страница 20)
Приэтомθi∗ ⊂= Φθi , σ2 /|Xi |2 .Это утверждение сразу же следует из свойств многомерного нормального распределения.Следствие 3. Если столбцы регрессора X1 , . . . , Xk ортогональны, тоs√(θi∗ − θi )|Xi |1 |Y − Xθ∗ |2 (θi∗ − θi )|Xi | n − k=:⊂= Tn−k .σn−kσ2|Y − Xθ∗ |Теперь мы можем перейти к построению доверительных интервалов.1. Доверительный интервал для σ 2 . Из таблиц распределения χ2n−k находимчисла q1 и q2 такие, что χ2n−k (q1 ) = ε/2, χ2n−k (q2 ) = 1 − ε/2. Тогда, в силу следствия 1,Ã!|Y − Xθ∗ |2P q1 << q2 = χ2n−k (q2 ) − χ2n−k (q1 ) = 1 − ε,σ2откуда следуетÃP|Y − Xθ∗ |2|Y − Xθ∗ |22<σ <q2q1!= 1 − ε.Далее предполагаем, что столбцы регрессора X1 , .
. . , Xk ортогональны.2. Доверительный интервал для θi при условии, что σ 2 известно. Здесь(θi∗ − θi )|Xi |используется тот факт, что⊂= Φ0,1 . Пусть число q таково, что Φ0,1 (−q) =σε/2, тогдаÃ!(θi∗ − θi )|Xi |P −q << q = Φ0,1 (q) − Φ0,1 (−q) = 1 − ε,σпоэтомуµPθi∗qσqσ−< θi < θi∗ +|Xi ||Xi |¶= 1 − ε.3. Доверительный интервал для θi при условии, что σ 2 неизвестно. Воспользуемся следствием 3 и найдем из таблиц число q такое, что Tn−k (−q) = ε/2.ТогдаÃ!√(θi∗ − θi )|Xi | n − k< q = Tn−k (q) − Tn−k (−q) = 1 − εP −q <|Y − Xθ∗ |и после очевидных преобразований получаем доверительный интервалµ¶q|Y − Xθ∗ |q|Y − Xθ∗ |∗∗√√P θi −< θ i < θi += 1 − ε.|Xi | n − k|Xi | n − kПостроенные доверительные интервалы позволяют проверять гипотезы в соответствии с изложенной ранее конструкцией.
Например, для проверки гипотезы94H1 : θi = C против H2 : θi 6= C при неизвестной дисперсии σ 2 берем критическоемножество½µ¶¾q|Y − Xθ∗ | ∗ q|Y − Xθ∗ |∗√√K = (Y1 , . . . , Yn ) : C ∈/ θi −, θi +.|Xi | n − k|Xi | n − kТогдаβ1 = P1 ((Y1 , . .
. , Yn ) ∈ K) = ε.95Часть III.Элементы теории случайныхпроцессов10.Цепи Маркова10.1.Основные определенияВ курсе теории вероятностей мы изучали последовательности независимых испытаний (например, в схеме Бернулли) и связанные с ними последовательности независимых случайных величин. Теперь рассмотрим простейший вариант зависимыхиспытаний.Пусть некоторый объект в каждый момент времени может находиться в одномиз состояний Ek , где k = 0, ±1, ±2, . . .; с течением времени он может переходить изодного состояния в другое.
Время будем рассматривать дискретное: n = 0, 1, 2, . . ..Переходы из состояния в состояние происходят неким случайным образом, однакономер каждого последующего состояния зависит, кроме всего прочего, и от номерапредыдущего состояния.Рассмотрим некоторые примеры.1. Объект — население города, состояние — число больных гриппом, отмечаемоеежедневно. Число больных завтра будет определяться числом больных сегодня, атакже случайными факторами (кто-то заболел за сутки, кто-то выздоровел).2.
Капитал игрока после очередной игры. Он складывается из имеющегося капитала до игры плюс выигрыш (проигрыш можно считать выигрышем со знакомминус, так что капитал может принимать отрицательные значения).3. Число особей в биологической популяции.4. Число клиентов в банке.5. Количество самолетов в аэропорту на каждый час. Оно складывается из числасамолетов, находившихся в аэропорту час назад, плюс число прилетевших и минусчисло улетевших в течение часа.Чтобы перейти к точному определению, рассмотрим последовательность случайных величин {Xn , n = 0, 1, . . .}, которые принимают целые значения.
Будем полагатьXn = k, если объект в момент времени n находится в состоянии Ek , k = 0, ±1, ±2, . . ..Таким образом, значение Xn равно номеру состояния в момент времени n.Определение. Последовательность {Xn , n = 0, 1, . . .} называется цепью Маркова, если для любых моментов времени 0 ≤ n1 < n2 < . .
. < nk < m < n и для любыхцелых чисел i1 , i2 , . . . , ik , i, j выполняется равенствоP(Xn = j/Xn1 = i1 , . . . , Xnk = ik , Xm = i) = P(Xn = j/Xm = i).Чтобы понять суть этого определения, представим себе, что момент m — этонастоящее, моменты n1 , n2 , . . . , nk находятся в прошлом, а n — момент времени, относящийся к будущему. Приведенное определение означает, что если известна предыстория эволюции объекта в моменты времени n1 , n2 , . . . , nk и известносостояние объекта в настоящее время, то для будущего предыстория оказываетсянесущественной.
Влияние оказывает только состояние объекта в настоящий моментвремени.96Такого сорта зависимость характерна для приведенных выше примеров. Ее называют марковской по имени известного русского математика А.А.Маркова (1856 1922), в трудах которого впервые систематически изучалась такая зависимость.Цепь называется однородной, если вероятности перехода P(Xn = j/Xn−1 = i) независят от n. Мы будем изучать только однородные цепи Маркова.Будем обозначать через pij = P(Xn = j/Xn−1 = i) вероятности перехода из i-госостояния в j-е за один шаг и pij (n) = P(Xn+k = j/Xk = i) = P(Xn = j/X0 = i) —вероятности перехода за n шагов (эти вероятности от k не зависят для однородныхцепей).Пусть задано распределение случайной величины X0 , его называют начальнымраспределением цепи:Xπj0 = 1,πj0 = P(X0 = j),jи пусть заданы также вероятности перехода {pij }.
Этого достаточно, чтобы найтираспределение цепи πjn = P(Xn = j) для любого момента времени n. Действительно,для любого j по формуле полной вероятности получаемXXπi0 pij ,P(X0 = i)P(X1 = j/X0 = i) =πj1 = P(X1 = j) =(3)iiи аналогичноπjn = P(Xn = j) =XP(Xn−1 = i)P(Xn = j/Xn−1 = i) =iXπin−1 pij .iПредположим для простоты, что цепь имеет конечное множество состоянийE1 , E2 , . .
. , Er . Тогда совокупность вероятностей перехода {pij } образует матрицуr × r, которую мы обозначим P. Она, очевидно, обладает следующими свойствами:1) pij ≥ 0 при всех i = 1, . . . , r j = 1, . . . , r,2)rPpij = 1 (т.е. сумма элементов любой строки равна 1).j=1Матрицы с указанными двумя свойствами называются стохастическими. Обозначим вектор-строку распределения Xn через π n = (π1n , .
. . , πrn ), тогда для вектораπ 1 имеем в силу (3)π 1 = π 0 P,и аналогично для любого nπ n = π n−1 P = . . . = π 0 Pn .Кроме того,πjn =rXP(X0 = i)P(Xn = j/X0 = i) =rXπi0 pij (n).i=1i=1Это означает, что числа pij (n) являются элементами матрицы Pn .Таким образом, знание начального распределения π 0 и матрицы переходных вероятностей P позволяет вычислить распределение Xn в произвольный момент времени n.Если множество состояний бесконечно, то и матрица P будет бесконечной, ноприведенные соотношения сохранятся.97Примеры.1. Последовательность Yn , n ≥ 0, независимых целочисленных случайных величин, очевидно, является цепью Маркова.2.
Пусть Yn , n ≥ 0 — независимые целочисленные случайные величины. Тогдапоследовательность сумм Xn = Y0 + . . . + Yn , n ≥ 0, образует цепь Маркова. Действительно, для любых моментов времени 0 ≤ n1 < n2 < . . . < nk < m < n и длялюбых целых чисел i1 , i2 , . . . , ik , i, j имеемP(Xn = j/Xn1 = i1 , . . .
, Xnk = ik , Xm = i)===P(Xn = j, Xn1 = i1 , . . . , Xnk = ik , Xm = i)P(Xn1 = i1 , . . . , Xnk = ik , Xm = i)P(Ym+1 + . . . + Yn = j − i, Xn1 = i1 , . . . , Xnk = ik , Xm = i)P(Xn1 = i1 , . . . , Xnk = ik , Xm = i)P(Ym+1 + . . . + Yn = j − i)P(Xn1 = i1 , . . . , Xnk = ik , Xm = i)P(Xn1 = i1 , . . . , Xnk = ik , Xm = i)= P(Ym+1 + . . . + Yn = j − i) = P(Xn = j/Xm = i).Если случайные величины Yn в этих примерах вдобавок ко всему одинаково распределены, то цепи Маркова будут однородными. Нетрудно найти для них вероятности перехода за один шаг. Пусть P(Yn = j) = pj . В первом из примеровP(Yn = j/Yn−1 = i) = P(Yn = j) = pj ,во втором из нихP(Xn = j/Xn−1 = i) = P(Yn = j − i) = pj−i .3.
Предположим, что каждый день на склад завозится некоторое случайное числомешков с мукой, и должно вывозиться ежедневно также некоторое случайное числомешков. Считаем, что движение продукции в разные дни не связано друг с другом.Обозначим через Xn количество мешков с мукой на складе к концу n-го дня. Поскольку вместимость склада ограничена (скажем, числом M мешков), то, очевидно,Xn−1 + Yn , если 0 ≤ Xn−1 + Yn ≤ MXn = 0,если Xn−1 + Yn < 0,M,если Xn−1 + Yn > M,где через Yn обозначено предполагаемое приращение продукции (поступление минусвывоз) в n-й день. Нетрудно видеть, что последовательность Xn также образует цепьМаркова.10.2.Возвратность состоянийОбозначим черезqj (n) = P(Xn = j, Xn−1 6= j, .
. . , X1 6= j / X0 = j)98вероятность того, что, выйдя из состояния с номером j, наша цепь впервые вернетсяв него на n-м шаге. Пусть∞XQj =qj (n)n=1— вероятность того, что, выйдя из состояния с номером j, цепь когда-либо вернетсяв него.Определение. Состояние Ej называется возвратным, если Qj = 1, и невозвратным, если Qj < 1.Пример. Частица блуждает по целочисленным точкам вещественной оси, осуществляя с вероятностью 1/2 в каждый момент времени n = 1, 2, . .
. прыжок вправона единицу, и оставаясь на месте с вероятностью 1/2. Это соответствует тому, чтоpjj = pj,j+1 = 1/2 для любого j.1/21/2i¢® si+1-Ясно, что qj (1) = 1/2 и qj (n) = 0 при n > 1. Поэтому Qj = 1/2 для любого j, ивсе состояния цепи невозвратны.Теорема. Состояние Ej возвратно тогда и только тогда, когдаPj =∞Xpjj (n) = ∞.n=1Для невозвратного Ej имеет место Qj =Доказательство.Имеет место соотношениеPj.1 + Pjpjj (n) = qj (1)pjj (n − 1) + . . . + qj (n − 1)pjj (1) + qj (n).(4)Смысл его в следующем. Вероятность вернуться в j-е состояние за n шагов разбивается на перебор взаимно исключающих случаев в зависимости от того, за какоечисло шагов цепь впервые вернется в состояние Ej .
Если, к примеру, впервые цепьвернется за i шагов (вероятность этого равна qj (i)), то затем ей нужно где-то “погулять” и вернуться назад за оставшиеся n − i шагов. Перебор вариантов по всем iосуществляется суммированием. Формально (4) получается из цепочки равенствP(Xn = j/X0 = j) ==nX1P(X0 = j)=P(Xn = j, X0 = j)P(X0 = j)P(X0 = j, X1 6= j, . .
. , Xk−1 6= j, Xk = j, Xn = j)k=1nXP(X0 = j, X1 6= j, . . . , Xk−1 6= j, Xk = j)×P(X0 = j)k=1nP(X0 = j, X1 6= j, . . . , Xk−1 6= j, Xk = j, Xn = j) X=qj (k)pjj (n − k).×P(X0 = j, X1 6= j, . . . , Xk−1 6= j, Xk = j)k=1Далее нам потребуется понятие производящей функции.99Пусть {an , n ≥ 1} — произвольная ограниченная числовая последовательность,свойства которой требуется изучить.
Производящей функцией этой последовательности называется сумма ряда∞Xg(z) =an z n .n=1Из курса математического анализа известно, что этот ряд сходится абсолютнопри каждом z из множества |z| < 1 и являетсяP там непрерывной (и даже дифференцируемой) функцией. Если, к тому же, ∞n=1 |an | < ∞, то указанные свойствабудут иметь место при |z| ≤ 1. Зная функцию g(z), можно однозначно восстановить все коэффициенты an ; по поведению функции g(z) можно определить многиесвойства этих коэффициентов. Исследование свойств последовательности an черезее производящую функцию во многих случаях является весьма эффективным.Мы воспользуемся этим инструментом.Введем производящие функцииPj (z) =∞XQj (z) =n=1∞Xpjj (n)z n ,|z| < 1,qj (n)z n ,|z| ≤ 1.n=1Умножим обе части равенства (4) на z n и просуммируем по n (здесь |z| < 1):Pj (z) =∞Xznn=1=∞X=qj (k)pjj (n − k) =k=1zk∞Xz n−k qj (k)pjj (n − k) =n=kk=1∞XnXkz qj (k)∞Xz m pjj (m) = Qj (z)(1 + Pj (z)).m=0k=1Отсюда получаемQj (z) =Pj (z),1 + Pj (z)Pj (z) =Qj (z).1 − Qj (z)(5)Пусть теперь Pj = ∞.