Цепи Маркова (1121219), страница 67
Текст из файла (страница 67)
е. значение параметра ( , P) содержится в трехмерном кубе в R6 , и например, A , pAA , pBA ∈ [0, 1] являютсянезависимыми координатами Θ. См. рис. 3.1.В общем случае = ( , P) является многомерным параметром. Предположим для определенности, что пространство состояний I — это множество {1, . .
. , s}, тогда пары ( , P) лежат в подмножестве R неотрицательного ортанта евклидова пространства R M , размерности M = s + s2(s — это число компонент j и s2 — число элементов pij). Более точно,R (= Rs) образует (замкнутое) множество размерности s − 1 + s(s − 1) == s2 −1, поскольку мы должны принять во внимание линейные ограниченияR = Rs =pik = 1:sX( , P) :k= 1,= ( j), P = (pij),j> 0,k=1sXk=1pik = 1, pij > 0 ∀ i, j = 1, .
. . , s .(3.1.5)С геометрической точки зрения R представляет собой декартово произведение s + 1 симплекса, каждый симплекс имеет размерность s − 1.Симплекс размерности s — это множество точек y ∈ Rs , удовлетворяющихнеравенствам y1 > 0, . . . , ys > 0, и y1 + . . . + ys 6 a для некоторого a > 0.Внутреннюю область множества R обозначают Rint (= Rints ), и описывается она строгими неравенствами:intintR (= Rs ) = ( , P) : = ( j), P = (pij),sXk=1k= 1,j> 0,sXk=1pik = 1, pij > 0 ∀ i, j = 1, . . . , s .(3.1.6)Если отбросить начальное распределение , то размерность множествауменьшится до s2 − s; в этом случае будем использовать обозначения PГлава 3.
Статистика цепей Маркова с дискретным временемP (= Ps) =P = (pij) :sXpil = 1, pij > 0 ∀ i, j = 1, . . . , sl=1и(3.1.7)sXP int (= Psint) = P = (pij) :pil = 1, pij > 0 ∀ i, j = 1, . . . , s . (3.1.8)l=1Таким образом, P является декартовым произведением s симплексов размерности s − 1 каждый. Тогда введенное выше множество R представляетсобой двойное декартово произведениеR = Λ × P,где Λ (= Λs) представляет собой симплекс размерности s − 1:Λs == ( j) :j> 0, j = 1, .
. . , s,sXl=1l=1 .)] 2 + [dist(P, P0)] 20гдеdist( ,0)=Xsj=1( j − 0j) 2 1/ 2,dist(P, P0) =Xsi,j=1 1/ 2,(pij − p0ij) 2(3.1.8 а) 1/ 2= ( j), 0 = ( 0j), и P = (pij), P0 = (p0ij).Замечание 3.1.1. Заметим, что если ( , P) ∈ Rint (или P ∈ P int), томатрица P = (pij) неприводима и апериодична и, следовательно, имеетединственное инвариантное распределение = ( j), для которого выпол(n)няется равенство = P. Кроме того, в этом случае матрица P n = (pij )1......и1ssj|6 (1 − ) n− 1 ,сходится к матрице ... .
. . ... при n → ∞. Более того,|pij(n) −< 1. См. уравнение (1.9.14). ЭтотP int ⊂ PIA , где PIA = {P ∈ P : матрица P неприводима и апериодична}.Эквивалентным образом множество PIA можно определить следующимобразом:PIA = {P ∈ P : min [pij(m) : i, j = 1, . . . , s] > 0 для некоторого m > 1}.(3.1.10)Замечание 3.1.2. В зависимости от конкретной задачи может возникнуть необходимость рассматривать другие подмножества множеств R и P ,в особенности в § 3.7 и 3.8. Например, может быть априорно известно,что рассматриваемая ц.м.д.в. не может сохранять свое текущее состояние,т. е.
всегда совершает скачки из него. Иными словами, матрица перехода P имеет нулевую главную диагональ. В этом случае ограничим нашерассмотрение матрицами P ∈ Poff-diag , где Poff-diag ⊂ P образует замкнутоемножество размерности s2 − 2s:Poff-diag = {P ∈ P : pii = 0 ∀ i = 1, . .
. , s}.На обоих множествах R и P можно ввести расстояние, порождаемое22евклидовой метрикой в Rs −1 и Rs −s соответственно:dist(( , P), ( 0 , P0)) = [dist( ,433где = min[pij : i, j = 1, . . . , s] и 0 <факт можно представить так:= Ps и P int = Psint :§ 3.1. Введение432(3.1.9)(3.1.11)В случае, когда s = 2 (ц.м.д.в. с двумя состояниями), видим, чтоP int = PIA .Видим, что множество P off-diag , заданное формулой (3.1.11), сводится к одной точке. Более того, в этом случае все множество P сводится к квадрату,как показывает пример 3.1.3.Еще один тип стохастических матриц, на которые мы будем ссылатьсяв дальнейшем, — это эрмитовы, или симметричные, матрицы перехода P == (pij), у которых pij = pji .
При этом будем использовать обозначениеPsymm ⊂ P :Psymm = {P = (pij) ∈ P : pij = pji , i, j = 1, . . . , s}.(3.1.12)Для матрицы P ∈ Psymm существует очевидное инвариантное распределение с компонентами i = 1/s, i = 1, . . . , s.Пример 3.1.3. Пусть I = {1, 2} и P — это (2 × 2)-матрица перехода:1−ppP=,q1−qгде 0 6 p, q 6 1. Покажите, что матрица P неприводима и апериодичнатогда и только тогда, когда 0 < pq < 1; иными словами, множество434Глава 3.
Статистика цепей Маркова с дискретным временемнеприводимых апериодичных матриц задается условиями 0 < p, q < 1.Опишите сообщающиеся классы матрицы P в случае, когда pq = 0 илиpq = 1. Когда матрица P является периодичной?Решение. По определению P неприводима при 0 < p, q < 1, таккак оба состояния сообщаются и, следовательно, образуют единственный(замкнутый) сообщающийся класс. Апериодичность возникает, когда всевероятности перехода строго положительны.С другой стороны, предположим, что pq = 0, т. е. либо p = 0, либоq = 0, либо оба эти значения нулевые. Если p = q = 0, то P = Iи каждое состояние образует замкнутый сообщающийся класс. Если p == 0, а q > 0, то состояние 1 образует замкнутый сообщающийся класс,а 2 — открытый сообщающийся класс.
Если q = 0 и p > 0, то имеемпротивоположную ситуацию. Если p = q = 1, то цепь неприводима, нопериодична, с периодом 2. Таким образом, матрица P ∈ P IA тогда и толькотогда, когда 0 < pq < 1.Удобно ввести меру Лебега на множествах R и P , заданных формулами (3.1.5) и (3.1.7), что позволит нам интегрировать и рассматриватьфункции плотностей вероятностей на R и P . В сущности, мера Лебегабудет определена на внутренних областях Rint и P int , задаваемых форИнтеграл относительно этой меры мы обозначимRмулами (3.1.6), (3.1.8).Rd × dP (или dP, когдане принимается во внимание); он будетравен естественному объему (или площади) на R и P .Более точно, мы должны выбрать независимые координаты на R и P .Например, можно записатьd × dP =Y16j6s−1dj×YY16i6s 16j6s−1dpijилиdP =YY16i6s 16j6s−1dpij ,(3.1.13)т.
е. «последние» компоненты s и pis не включаются, поскольку они линейно зависят от остальных. Конечно, это чисто субъективный выбор. Вполнеаналогично мера Лебега может быть задана на множестве P off-diag (см.соотношение (3.1.11)) и других подмножествах множеств R и P .Прежде чем продолжить наше рассмотрение, уместно прокомментировать здесь содержание настоящей главы. По своей сути она отличается отглав 1 и 2. Наша изначальная идея состояла в том, чтобы сконцентрироватьизложение главным образом на специфических статистических методах дляц.м.д.в. По нашему мнению, на статистику ц.м.д.в.
в последние годы значительное воздействие оказала теория так называемых скрытых марковскихмоделей. Эти модели оказались чрезвычайно успешными во многих приложениях, например, в компьютерном распознавании речи и генетическоманализе. Однако, поскольку некоторые темы и методы, рассматриваемые§ 3.2. Функции правдоподобия, I. Оценки максимального правдоподобия435в главе, выходят далеко за рамки теории цепей Маркова, их роль в даннойкниге состоит в подготовке необходимой почвы для последующих глав.Кроме того, формально говоря, материал этой главы до сих пор небыл предметом обучения в Кембридже. Этот материал преподавался намичастично в иных аудиториях или же преподносился на лекциях или практических занятиях как дополнение к основному материалу.
Как следствиеэтого, большинство задач к этой главе не были представлены в «Математических треножниках». Тем не менее, мы пожелали следовать тому жеплану изложения, что и в других главах, сопровождая изложение задачами и примерами такого уровня, который, на наш взгляд, соответствуетстандартам Кембриджа.Иногда в процессе изучения статистических свойств ц.м.д.в. мы будем непосредственно основываться на фактах и /или методах основногокурса статистики, который сосредоточен на н.о.р. выборках; ср. с гл.
3и 4 тома 1. Однако чаще перед нами будет стоять задача разработки более общих методов. И это обусловливает принципиальную линиюизложения в данной главе. Более того, большинство методов, появляющихся при изучении статистических задач для ц.м.д.в., применимы вболее широком контексте статистики случайных процессов и полей.Этот предмет охватывает широкий круг приложений, включая экономику,финансы, телекоммуникации и распознавание образов и другие области.Изучение этих методов в относительно простом случае ц.м.д.в. подготовитзаинтересованного читателя к дальнейшему продвижению и работе с болееспециализированными книгами и статьями. С другой стороны, на данномэтапе мы в состоянии строго доказать некоторые важные факты, которыеиспользовались без доказательства в томе 1: объем работы по написанию этих доказательств для случая н.о.р.с.в.
практически такой же, каки для случая ц.м.д.в. (или даже более общего случая). Надеемся, что этопринесет дополнительную пользу заинтересованному читателю.§ 3.2. Функции правдоподобия, I.Оценки максимального правдоподобияAge of Inference2(Из серии «Фильмы, которые не вышли на большой экран».)Структура функций правдоподобия (3.1.2) и (3.1.3) проясняется, есливвести статистику nij (x), для любых i, j ∈ I = {1, .
. . , s}, равную числу2 Ср.с названием фильма «Age of Innocence» (возраст невинности).Глава 3. Статистика цепей Маркова с дискретным временем16i,j6s16i,j6s(3.2.2)В дальнейшем аргумент x у nij (x)Pи нижний индекс X у LX (x, ) и lX (x, )будем опускать. Заметим, чтоnij = n.16i,j6s2∈ Θ.(3.2.3)E [1(Xk−1 = i, Xk = j)] =n1Xnk=1nk=1n1XP (Xk−1 = i, Xk = j) =n(3.2.4)Мы знаем из курса статистики для н.о.р. выборок, что мощным средством являются оценки максимального правдоподобия (о.м.п.). Этосправедливо и для выборок, полученных для ц.м.д.в. Однако следует бытьпредельно внимательным: даже для определения о.м.п. может потребоваться тонкий анализ.Определение о.м.п.