Б.М. Гуревич - Курс лекций по теории случайных процессов (1134105), страница 8
Текст из файла (страница 8)
Пустьвеличины ηn независимы. Рассмотрим σ-алгебруT«хвостов», то есть F>n := σ(ηk | k > n). Пусть A ∈ F>n . Тогда P(A) = 0 или P(A) = 1.nТеорема 3.12. Почти наверное для траектории винеровского процесса справедливо свойствоWtlim √ = ∞,tWnlim √ = ∞.nt→∞n→∞(59) Докажем второе соотношение (первое, очевидно, из него следует). Пусть C > 0 — произвольное фиксированное число. Рассмотрим событиеWnAC := lim √ 6 C(60)n→∞nи покажем, что P(AC ) = 0. Фиксируем произвольное число k ∈ N. Очевидно,Wn − Wk√AC = lim6C ,n→∞n(61)k√ n имеют один и тот же предел (ибо k фиксировано и на сходимость нетак как последовательности Wn√−Wи Wnnповлияет). А теперь сделаем ещё одно тождественное преобразование:(Wk+1 − Wk ) + . .
. + (Wn − Wn−1 )√AC = lim6C .(62)n→∞nПокажем, что это событие принадлежит σ-алгебре F>k , где F>k порождена величинами ηn := Wn+1 − Wn .n√Действительно, выражение под пределом есть ηk +...+η, а каждое из слагаемых √ηin измеримо относительно F>i .nВерхний предел событий есть событие, поэтому\AC ∈F>n .(63)n25264.1.1. Определение марковского моментаПо закону нуля и единицы P(AC ) = 0 или P(AC ) = 1. Остаётся доказать, что второй случай невозможен.√ n 6 C почти наверное. Тогда найдётся n такое, что W√ n 6 C + 1.
РассмотримПредположим, что lim Wnn→∞ nсобытияWmFn := √ 6 C + 1 | m > n .(64)mSОни вложены друг в друга, и Fn ր F := Fn . Очевидно, AC ⊂ F . Если AC имеет полную меру, то F тем болееимеет полную меру и 1 = P(F ) = lim P(Fn ). С другой стороны,WnP(Fn ) 6 P √ 6 C + 1 .(65)n√ n имеет нормальное распределение, а C < ∞, поэтому P(ξ 6 C + 1) < 1. Значит,Случайная величина ξ := Wnlim P(Fn ) < 1.
Противоречие. Значит, P(AC ) = 0. √ t = −∞.Совершенно аналогично, заменив Wt на −Wt , можно показать, что lim Wtn→∞Естественно задаться вопросом: а какова же всё-таки асимптотика траекторий винеровского процесса? Мысформулируем ответ, а доказательство можно прочесть в [БШ].Теорема 3.13 (Закон повторного логарифма).Wtп.н.lim √= 1.t→∞2t ln ln t(66)4. Марковские процессы4.1. Марковские моменты.
Мартингалы4.1.1. Определение марковского моментаОпределение. Потоком σ-алгебр на вероятностном пространстве (Ω, F , P) называется такое семейство σ-алгебр Ft ⊂ F, что Ft ⊂ Fs при t < s.Определение. Случайная величина τ : Ω → R+ называется марковским моментом относительно потока{Ft }, если событие {τ 6 t} ∈ Ft при всех t.Через F6t (ξ) будем обозначать поток, порождённый процессом ξt :F6t (ξ) := σ(ξs | s 6 t).(1)В дальнейшем мы, как правило, будем рассматривать только потоки, порождённые процессами, поэтому будемписать просто «F6t », если ясно, о каком процессе идёт речь.Пример 1.1.
Пусть ξt — непрерывный процесс, и ξ0 = 0. Положим τa := min {t : ξt = a}, и τa := ∞, еслиданное множество пусто. Это будет марковский момент, так как \[11{τa 6 t} = { ∃ s 6 t : ξs = a} = ∀ n ∃ r < t : ξr > a −=ξr > a −.(2)nnn r<t |{z}AОчевидно, можно брать только рациональные значения r, поэтому объединение можно считать счётным. Поэтому событие A лежит в F6r ⊂ F6t .Определение. Пусть τ — марковский момент. Он называется моментом остановки, если τ < ∞ почтинаверное.4.1.2.
Принцип отражения для винеровского процесса√ t = ∞.Пусть Wt — винеровский процесс. Пусть a > 0. Заметим, что P(Wt < a для всех t) = 0, поскольку lim WttОтсюда следует, что марковский момент τa , определённый в примере выше, является моментом остановки.Теорема 4.1 (Принцип отражения). Пусть τ — момент остановки для Wt . Тогда при всех t имеемP(τ 6 t, Wt > Wτ ) = P(τ 6 t, Wt < Wτ ).(3)Иначе говоря, винеровской траектории всё равно, куда идти в следующий момент времени — вверх или вниз.26274.1.2. Принцип отражения для винеровского процесса Мы докажем эту теорему в двух случаях: а) τ дискретна; б) величины (Wt −Wτ ) и τ имеют непрерывныераспределения.Доказательство для случая а). Пусть Im τ = {t1 , .
. . , tn , . . .}. ТогдаXP(τ 6 t, Wt > Wτ ) =P(τ = tk , Wt > Wtk ).(4)k : tk 6tИмеем {τ = tk } ∈ F6tk , потому что{τ = tk } = {τ 6 tk } r[ti <tk{τ 6 ti } ∈ F6tk .(5)Далее, имеемdefF6tk = σ(Ws | s 6 tk ) = σ(Wβ − Wα | α < β 6 tk ).(6)В самом деле, включение «⊂» очевидно (достаточно положить α = 0), а обратное доказывается по той же схеме,что и измеримость суммы измеримых функций.Далее, события {τ = tk } и {Wt − Wtk > 0} независимы, потому что первое из них лежит в F6tk , а приращениевинеровского процесса на отрезке, не пересекающемся с [0, tk ), не зависит от F6tk .
Далее, величина Wt − Wtkимеет центрированное нормальное распределение, поэтому P(Wt > Wtk ) = 21 . Значит,P(Wt > Wτ , τ 6 t) = P(Wt − Wτ > 0) · P(τ 6 t) =1P(τ 6 t).2(7)Доказательство для случая б). Основная идея — приблизить τ дискретными величинами и перейти к пределу.Разобьём отрезок [0, t] на 2n частей и положимkt(k − 1)tktτn := n при<τ6.(8)22n2nПокажем, что τn является моментом остановки. Положимi thsC(s) :=· 2n · n .t2(9)Заметим, что C(s) 6 s и оно просто является округлением s вниз к ближайшему узлу 2ktn ).
Тогда, очевидно,{τn 6 s} = {τn 6 C(s)}. Остаётся заметить, что в силу выбора τn , если выполнено τn 6 C(s), то выполненои τ < C(s) (и наоборот). Значит,(10){τn 6 s} = {τn 6 C(s)} = τ < C(s) ,| {z }∈F6sп.н.и тем самым проверено, что моменты τn — марковские. Остаётся заметить, что τn ⇒ τ . Значит, Wτn −→ Wτп.н.и τn −→ τ . Из сходимости почти наверное следует сходимость по распределению, а в силу непрерывностираспределенийP(τn 6 t, Wt > Wτn ) → P(τ 6 t, Wt > Wτ ), n → ∞.(11)К величинам τn применим о утверждение теоремы для дискретного случая, а в силу этой сходимости оно вернои в непрерывном случае. Следствие 4.1.
Пусть τa — момент достижения уровня a процессом Wt . ТогдаP(τa 6 t) = 2P(Wt > a).(12)Применим теорему к моменту τa , а точнее, подставим τa в формулу (7). ИмеемP(τa 6 t, Wt > Wτa ) =1P(τa 6 t).2(13)Будем считать, что траектории Wt почти наверное непрерывны. Если Wt > Wτa , то по определению τa имеемt > τa (т.
е. одно событие содержит другое). ПоэтомуP(τa 6 t, Wt > Wτa ) = P(Wt > Wτa ).п.н.Кроме того, Wτa = a, поэтому P(τa 6 t) = 2P(Wt > a). 27(14)284.1.3. МартингалыСледствие 4.2. Момент τa имеет плотность распределения 2aa 1,pτ (t) = 3/2 √ exp −2tt2π(15)t > 0. По предыдущему следствию его функция распределения при t > 0 равна 2 1 − Φ √at , где Φ —функция стандартного нормального распределения. Дифференцируя её, получаем эту самую формулу. Следствие 4.3. Функция распределения максимума винеровского процесса mt := max Ws имеет плотность[0,t]pmt :=r 22 1x· · exp −.π t2t(16)Очевидно, что P(mt > x) = P(τx 6 t). ОтсюдаFmt = P(mt < x) = 1 − P(τx 6 t) = 1 − 2 1 − FWt (x) = 2FWt − 1.(17)Как и в предыдущем рассуждении, находим плотность путём дифференцирования полученной формулы.
4.1.3. МартингалыОпределение. Процесс ξt называется мартингалом относительно потока σ-алгебр {Ft }, если M(ξt |Fs ) = ξsдля всех s 6 t.В силу свойств условного матожидания условие мартингальности можно записать так: M(ξt − ξs |Fs ) = 0.Рассмотрим процесс с независимыми приращениями, то есть Ft (ξs − ξt ) при всех s > t.
Тогда, если Mξt == const, то M(ξt − ξs |Fs ) = Mξt − Mξs = 0.Задача 4.1. Доказать, что процесс Орнштейна – Уленбека не является мартингалом.4.2. Марковские процессы4.2.1. Шесть эквивалентных определений марковского процесса— Продаём шесть определений марковского процесса за три копейки, целых шесть определений — три копейки. . .— А что так дёшево?— А всё правильно: каждому определению — грош цена.Из недавнего прошлогоВ качестве потока σ-алгебр всегда будем брать поток, порождённый процессом.Напомним, что условное распределение определяется так:P(A | C) := M(IA | C).(18)Определение (1).
Процесс ξt называется марковским процессом, если при всех t1 6 . . . 6 tn 6 t имеемP(ξt ∈ A | ξt1 , . . . , ξtn ) = P(ξt ∈ A | ξtn ).(19)Неформально говоря, марковость процесса означает, что для предсказания будущего прошлое не важно.Определение (2). Процесс ξt называется марковским процессом, если при всех t1 6 . . . 6 tn 6 t и любойограниченной измеримой функции f имеемM(f (ξt ) | ξt1 , . . .
, ξtn ) = M(f (ξt ) | ξtn ).(20)Из второго определения сразу следует первое: достаточно положить f := IA . В обратную сторону доказательство проходит по стандартной схеме: по линейности от индикаторов переходим к ступенчатым функциям,а затем равномерно приближаем ступенчатыми произвольную ограниченную функцию f и переходим к пределу.Определение (3). Процесс ξt называется марковским процессом, если для любой ограниченной измеримойфункции f имеемM(f (ξt ) | F6s ) = M(f (ξt ) | ξs ) =: η.(21)Докажем эквивалентность определений (3) и (2). В доказательстве нуждается только импликация (2)⇒(3),обратное очевидно (частный случай).28294.2.2. Примеры марковских процессовЯсно, что величина η является F6s -измеримой, поскольку она даже σ(ξs )-измерима. Покажем, что еслиF ∈ F6s , то M(IF · η) = M(IF · f (ξt )), тогда требуемое будет следовать уже из определения условного математического ожидания.
Действительно, если F ∈ σ(ξt1 , . . . , ξtn ), то это выполнено по условию. Рассмотриммножество[0F6s:=σ(ξt1 , . . . , ξtn ).(22)ti <s0Это, вообще говоря, не σ-алгебра, но σ(F6s) = F6s , поэтому доказываемое справедливо для всех порождающихF6s , а потому верно и для всей σ-алгебры.Есть ещё несколько определений марковского процесса. Для полноты картины сформулируем и их тоже.Определение (4). Процесс ξt называется марковским процессом, если для любой ограниченной измеримойфункции f имеемYYMf (ξti ) | F6s = Mf (ξti ) | ξs .(23)Определение (5). Процесс ξt называется марковским процессом, если при всех F ∈ F>s имеемP(F | F6s ) = P(F | ξs ).(24)Определение (6).