А.Н. Зубков - Курс лекций по теории случайных процессов (1134117), страница 5
Текст из файла (страница 5)
hhh1h −λ h1hh1h−λ nn = OP {∆k > 1} = 1 − e−λ n − λ e−λ n = λ + O−λe+λ1−e=O.nnn2nn2nn2Поэтому 1Mσn (t, h) = O−→ 0,n(n −→ ∞).P {ν2 (t, h) > 1} 6 lim P {σn (t, h) > 1} 6 lim Mσn (t, h) = 0.n−→∞n−→∞Пуассоновский поток можно получить как предельное распределение количества успехов в некоторой схемеБернулли. Например, пусть τ1 (N ), . . . , τN (N ) — независимые случайные величины, λ < N и P {τk (N ) < x} =PNλx1 Iτi (N )61 .N , 0 < x < 1, то есть условное распределение τk (N ) на [0, 1] равномерно. Обозначим ηN ⇋DТеорема 6.3 (Пуассон).
ηN −→ P oiss(λ), то есть количество точек τi (N ), попавших в [0, 1], стремитсяпри увеличении N к количеству на этом отрезке точек пуассоновского потока интенсивности λ.λ ηN — это количество успехов в схеме Бернулли с N испытаниями и вероятностью успеха N.kP {ηN = k} = CNλNk 1−λNN (N − 1) . . . (N − k + 1) λk=(N − λ)kk!N −kk= CNλk(N − λ)kNλ1−=NNλλk −λ1−−→e ,Nk!17N−→ ∞.Пусть ν(t) — пуассоновский процесс с интенсивностью λ. Положим τ+ (t) = inf{u > 0 | ν(t + u) > ν(t)} —расстояние от t до следующего скачка и τ− (t) = inf{u > 0 | ν(t − u) < ν(t)} — до предыдущего.Утверждение 6.4.
Для любого t ∈ R τ+ (t) не зависит от {ν(x)}x6t ), τ− (t) не зависит от {ν(x)}x>t , иP{τ+ (t) > u} = P{τ− (t) > u} = e−λu при u > 0 (т.е. имеют показательное распределение с параметром λ). P{τ+ (t) > u} = P{ν(t + u) = ν(t)} = P{ν(t + u) − ν(t) = 0} = e−λu , т.к. наш процесс пуассоновский. Дляτ− аналогично.Независимость следует из независимости приращений. При условии наличия скачка в малой окрестности: P{τ+ (t) > u | ν(t − ε) < ν(t)} = e−λu для всех ε > 0.Отсюда P{ζk+1 − ζk > u} = e−λu (ζk — точки скачков). τ = ζk+1 − ζk независимы и имеют показательноераспределение2 с параметром λ.Следствие 6.1 («Парадокс времени ожидания»).
Если ν(t) — однородный пуассоновский процесс синтенсивностью λ и {ζk } — моменты его скачков, то M {ζk+1 − ζk } = Mτ+ (t) = Mτ− (t) = λ1 , ноM {ζk+1 − ζk | ζk 6 t < ζk+1 } = λ2 . Первое равенство верно в силу определения τ± (t) и ζi . При условии ζk 6 t < ζk+1 имеем ζk+1 − ζk =τ+ (t) + τ− (t), откуда получаем второе равенство. Пример 2.1. Системы массового обслуживания. Обозначим через M | G | 1 следующую систему. На входе системы имеется пуассоновский поток «заявок» интенсивности λ, который обрабатывается последовательно(т.е. в один поток; отсюда 1 в M | G | 1), причём длительности рассмотрения заявок независимы и одинаковораспределены с функцией распределения G. При обработке заявки все заявки, поступившие после неё, становятся в очередь.
Периодом занятости системы массового обслуживания назовём случайную величину, равнуювремени от поступления первой заявки до первого опустошения очереди, периодом простоя — время от первого опустошения очереди до прибытия новой заявки. (Докажите, кстати, что это действительно случайныевеличины).Теорема 6.5. Период занятости в системе M | G | 1 конечен с вероятностью 1 ⇔ λMγ 6 1 (γ ∼ G). С обслуживанием пуассоновского потока заявок можно ассоциировать ветвящийся процесс µ следующимобразом:• µ(0) ⇋ 1.• Считаем потомками точки поколения k те заявки, которые пришли за время её обработки. Таким образомµ(1) = | {заявки, пришедшие за время обработки первой заявки} | = |M (1)|, µ(2) == | {заявки, пришедшие за время обработки M (1)} |, и так далее.
Количества потомков у разных точекнезависимы (это свойство пуассоновского потока).Конечность периода занятости равносильна тому, что процесс µ выродится.P {за время обслуживания заявки придёт k новых} =∞Xk=1Z∞(λx)k −λxedG(x) ⇌ rkk!0Z∞Z∞ XZ∞ XZ∞∞∞∞X(λx)k −λx(λx)k −λx(λx)k−1 −λxkrk =kedG(x) =kedG(x) = λxedG(x) = λxdG(x) = λMγ.k!k!(k − 1)!k=100 k=10k=10Здесь мы воспользовались тем, что условное распределение числа точек пуассоновского потока в случайноминтервале независимой с точками потока длины γ является пуассоновским с параметром λγ (докажите это!).По следствию 4.2 это означает, что µ вырождается почти наверное тогда и только тогда, когда λMγ 6 1.
Теорема 6.6. Для системы M | G | 1 математическое ожидание числа заявок, обслуженных за период1занятости, равно 1−λMγ, если λMγ < 1P∞ µ(0) = 1, µ(t) — число точек t-го поколения. Общее число обслуженных заявок равно 0 µ(t).M {µ(t) | µ(0) = 1} = At , где A = M {µ(1) | µ(0) = 1} = λMγ,∞∞XX1Mµ(t) =At =.1−A00Пример 2.2. Пуассоновское случайное поле в Rd (интенсивности λ) — это случайная совокупность точек,удовлетворяющая следующим условиям:2 Заметим, что отсюда очевидно следует утверждение 6.2: если считать скачок длины 2 за два единичных, получим τ = 0, чтовыполняется (в силу вышесказанного) с вероятностью 0. — примеч. С.К.Пуассоновский поток можно, таким образом, задать ещё и как последовательность случайных точек, приращения которой независимы и распределены экспоненциально.
— примеч. А.Х.181. Число точек в открытом множестве A имеет распределение Пуассона с параметром λ mes A.2. Числа точек в непересекающихся множествах независимы.Пример 2.3. Зададимся вопросом оценить λ, равное количеству микробов на литр воды. Пусть имеется Nпробирок объёма z. Допустим, что число микробов в пробирке имеет распределение Пуассона с параметром λz.P {в пробирке нет микробов} = e−λz = p. (этот факт можно проверить)b — оценку максимального правдоподобия для λ.Пусть ν — число пробирок без микробов. Найдём λk kP {ν = k} = CNp (1 − p)N −k .bbbbbbb ⇋ ∂ e−λzkk(λ)(1 − e−λz )N −k = e−λkz (1 − e−λz )N −k−1 −kz(1 − e−λz ) + (N − k)ze−λz = 0 ⇔b∂λbb = 1 ln N .⇔ −kz + N ze−λz = 0 ⇔ λzν7.
Цепи Маркова с непрерывным временемОпределение. {ξ(t)}t>0 называется (однородной по времени) цепью Маркова с непрерывным временем ине более чем счётным множеством состояний S, если∀n > 1 ∀0 6 t0 < . . . < tn ∀i0 , . . . , in ∈ S P {ξ(tn ) = in | ξ(tn−1 ) = in−1 , . .
. , ξ(t0 ) = i0 } = P {ξ(tn ) = in | ξ(tn−1 )} .Пример 0.1.1. Пуассоновский процесс (да и любой процесс с независимыми приращениями, на самом деле).2. η(t) = ν(t) mod 2, где ν(t) — пуассоновский.3. {ζ(t)}t∈R — независимые одинаково распределённые случайные величины, P {ζ(t) = 1} = p, P {ζ(t) = 0} =q = 1 − p.PОпределение. Случайный процесс ξ(t) стохастически непрерывен в точке t0 , если ξ(t0 + s) −→ ξ(t0 ), s −→ 0.Сопоставим каждому i ∈ S λi ∈ (0, ∞).
Покажем, что цепь Маркова с дискретным временем можно рассматривать как цепь с непрерывным временем, которая ≪сидит≫ в состоянии i случайное время, распределённоепоказательно с параметром λi .Замечание.[О свойствах показательного распределения]1. τ ∼ exp(1) ⇒τλ∼ exp(λ).2. τ ∼ exp(λ) ⇒ P {τ > x + y | τ > x} = e−λy , y > 0 (свойство отсутствия памяти у показательного распределения).Итак, пусть {ξ(n)}n∈N — цепь Маркова с дискретным временем, множеством состояний S, матрицей переходных вероятностей P и Λ = {λi }i∈S — множество интенсивностей выходов.7.1.
Вложенная цепь МарковаПусть τ0 , τ1 , . . . — независимые случайные величины, распределённые показательно с параметром 1. Тогдапри фиксированных {ξk } λτξ0 , λτξ1 , . . . — последовательность независимых случайных величин, распределённых01показательно с параметрами λξk . ПоложимT0 = 0,Tn =n−1Xk=0τk,λξkn ∈ N \ {0}Тогда ξ(t) ⇋ ξn , Tn 6 t < Tn+1 , будет цепью Маркова с непрерывным временем (проверьте это). Дискретнаяцепь Маркова ξi называется вложенной цепью Маркова.Марковость получившегося процесса с непрерывным временем не очевидна. Докажем это:Утверждение 7.1.
Если λ∗ = sup λi < ∞, то формула ξ(t) = ξn при Tn 6 t < Tn+1 определяет случайныйi∈Sпроцесс на [0, +∞), который является цепью Маркова с непрерывным временем.19 Докажем сначала, что процесс определён при всех t > 0 (т.е. что Tn −→ ∞ (n −→ ∞) почти наверное).Имеем:n−1n−1n−1X τkX τk1 X>=τk .Tn =λξkλ∗λ∗k=0k=0k=0τk — последовательность независимых одинаково распределённых случайных величин, Mτk = 1. В силу УЗБЧn−1n−1PPP{ n1τk −→ Mτ1 } = 1, откуда почти наверноеτk −→ ∞.k=0k=0Теперь проверим марковость.Лемма 7.2. Если событияS B1 , B2 , .
. . попарно не пересекаются, и A — такое событие, что P(A | Bk ) = p(не зависит от k), то P(A | Bk ) = p. По определению условной вероятности P(A ∩ Bk ) = p · P(Bk ). Применяем формулу Байеса и вспоминая,что Bk (а значит, и A ∩ Bk ) попарно не пересекаются, получаем:SPP[P(A ∩ ( Bk ))p · P(Bk )P(A ∩ Bk )SP(A |Bk ) == P= P= p,P( Bk )P(Bk )P(Bk )что и требовалось. Пример 1.1. Покажем, что если Bk в условии леммы пересекаются, то условная вероятность может отклоняться в обе стороны.
Пусть B1 и B2 пересекаются и P(B1 ) = P(B2 ).1. A = B1 ∩ B2 , P(A) > 0. P(A | B1 ) = P(A | B2 ) = p, ноP(A | B1 ∪ B2 ) =P(A)P(A)P(A)=>= P(A | B1 ) = p.P(B1 ∪ B2 )P(B1 ) + P(B2 ) − P(A)P(B1 ){z}|>02. С другой стороны, если взять A′ = B1 △ B2 (симметрическая разность), получим: P(A′ | B1 ∪ B2 ) =P(B1 △ B2 | B1 ∪ B2 ) = 1 − P(B1 ∪ B2 | B1 ∪ B2 ) = 1 − P(A | B1 ∪ B2 ) < 1 − P(A | B1 ) = P(A′ | B1 ).Для доказательства марковости ξ(t) нужно показать, что для любого набора t0 < t1 < · · · < tn имеемP(ξ(tn ) = in | ξ(tn−1 ) = in−1 , . .
. , ξ(t0 ) = i0 ) = P(ξ(tn ) = in | ξ(tn−1 = in−1 ). Введём вспомогательные событияA = {ξ(tn ) = in }, Bk = {ξ(tj ) = ij , j = 0, . . . , n − 1; Tk 6 tn−1 < Tk+1 } (из второго условия следует, что in−1 = ξk ),Bk′ = {ξ(tn−1 = in−1 ; Tk 6 tn−1 < Tk+1 }, События A и Bk , а также A, Bk′ удовлетворяют условиям леммы,поэтому достаточно показать, что P(A | Bk ) = P(A | Bk′ ) и что P(A | Bk′ ) = P(A | Bl′ ) ∀k, l.Заметим, что для любого Dk : Dk ⊃ Bk , Bk′ верно P(A | Bk ) = P(ADk min Bk ), P(A | Bk′ ) = P(ADk | Bk′ ).Возьмём таким Dk {Tk 6 tn−1 < Tk+1 }.