1625915143-9358bde957c0693ae60a95b83ad382f6 (843873), страница 22
Текст из файла (страница 22)
При n = 1105имеем E z Y1 = g(z) = g1 (z). Предположим, что E z Yn−1 = gn−1 (z). Тогда∞Xz k P(Yn = k) =∞Xk=0===zk∞Xk=0∞Xm=0∞Xk=0∞Xm=0zk∞X∞XP(Yn = k, Yn−1 = m) =m=0k=0∞X(n)(n)P(X1 + . . . + Xm= k, Yn−1 = m) =(n)(n)P(X1 + . . . + Xm= k)P(Yn−1 = m) =P(Yn−1 = m)m=0=zk∞X(n)(n)= k) =z k P(X1 + . . . + Xmk=0∞³ (n)´³ (n) (n)´X(n)(n)E z X1 +...+Xm P(Yn−1 = m) =E z X1 z X2 · · · z Xm P(Yn−1 = m) =m=0m=0==∞X(n)(n)(n)Ez X1 Ez X2 · · · Ez Xm P(Yn−1 = m) =m=0∞Xg m (z)P(Yn−1 = m) = gn−1 (g(z)) = gn (z).m=0Теорема доказана.Знание производящей функции gn (z) позволяет найти все коэффициенты при z k(например, P(Yn = 0) = gn (0), P(Yn = 1) = gn0 (0), P(Yn = 2) = gn00 (0)/2 и т.д.), а такжеизучать свойства этих вероятностей.Мы рассмотрим далее вопрос о вероятности вырождения процесса.Процесс вырождается, если Yn = 0 при некотором n.
Обозначим An событие,состоящее в том, что Yn = 0. Тогда вырождению процесса будет соответствоватьсобытие∞∞[[A={Yn = 0} =An .n=1n=1Обозначим через r = P(A) вероятность вырождения.Теорема. Вероятность вырождения r равна наименьшему корню уравненияz = g(z)(7)на отрезке [0,1].Доказательство.Очевидно, A1 ⊂ A2 ⊂ . . ., поэтому по свойству непрерывности вероятностиr = P(A) = lim P(An ) = lim gn (0).n→∞n→∞Устремим n к бесконечности в равенствеgn+1 (0) = g(gn (0)),тогда пределом левой части будет число r, а правая часть стремится к g(r) в силу непрерывности функции g(z), то есть действительно вероятность вырождения106удовлетворяет соотношению r = g(r).
Однако у уравнения (7) могут быть и другие корни, поэтому осталось доказать, что r совпадает с наименьшим корнем этогоуравнения на [0,1].(1)Тривиальный случай: если P(X1 = 1) = 1, то Yn = 1 при всех n, то есть вырождения не происходит и, естественно, r = 0. Поскольку в этом случае g(z) ≡ z, тоуравнение (7) превращается в тождество z = z, наименьшим решением которого на[0,1] является нуль.(1)Пусть теперь P(X1 = 1) < 1.
Выясним, как выглядитPграфик функции g(z) на[0,1]. Функция является выпуклой вниз, поскольку g 00 (z) =k(k −1)z k−2 ≥ 0. КромеP(1)(1)того, g(1) = 1. Обозначим a = E X1 и заметим, что a =k P(X1 = k) = g 0 (1).Рассмотрим два случая.(1)1) Предположим, что a ≤ 1. Если P(X1 > 1) = 0, то графиком функции g(z)(1)(1)(1)будет прямая g(z) = P(X1 = 0) + zP(X1 = 1) (Рис. 1а), причем P(X1 = 0) > 0.Поскольку g(1) = 1 и g 0 (1) < 1, то единственным решением уравнения (7) на [0,1](1)будет число z = 1, то есть в этом случае r = 1. Если же P(X1 > 1) > 0, то криваяy = g(z) также будет пересекать прямую y = z только при z = 1 (Рис. 1б), то есть ив этом случае r = 1.1061©©¡©y = g(z)¡©©¡©©¡©¡¡¡¡6¡¡y = g(z) ¡¡¡-z1Рис.
1а0¡¡¡1Рис. 1б-z(1)2) Пусть теперь a > 1. Тогда, разумеется, P(X1 > 1) > 0, и уравнение (7) имеетровно два корня r1 < 1 и r2 = 1 (См. Рис. 2).16¡¡¡¡¡¡ y = g(z)¡0¡r11Рис. 2-zПредположим, что r = r2 = 1. Тогда δn = 1 − gn (0) → 1 − r = 0 при n → ∞ и,следовательно, g(1 − δn ) < 1 − δn при достаточно больших n.
В этом случаеδn+1 = 1 − gn+1 (0) = 1 − g(gn (0)) = 1 − g(1 − δn ) > 1 − (1 − δn ) = δn ,что противоречит сходимости δn → 0. Значит, r = r1 . Теорема доказана.Итак, мы видим, что возможность вырождения процесса определяется значениемсреднего числа потомков одной частицы. Если исключить из рассмотрения упомянутый выше тривиальный случай, то при a ≤ 1 процесс вырождается с вероятностьюединица, а при a > 1 вероятность вырождения меньше единицы (она обращается в(1)нуль при g(0) = 0 = P(X1 = 0)).Ветвящийся процесс принято называть докритическим, если a < 1, критическимпри a = 1, и надкритическим, если a > 1.10712.Случайные процессы с непрерывным временем12.1.Общие определенияДо сих пор мы рассматривали семейства случайных величин, у которых множество индексов конечно или счетно, то есть мы рассматривали последовательностислучайных величин {Xn , n ≥ 1}.
Во многих случаях значения индекса n интерпретировались как дискретные моменты времени.Определение. Случайным процессом называется произвольное семейство случайных величин {Xt , t ∈ T ⊂ R}, заданных на одном вероятностном пространстве.В отличие от последовательностей случайных величин при рассмотрении случайных процессов чаще всего предполагают, что T = [a, b] или T = [0, ∞). Параметр tинтерпретируется как время.Отметим, что при фиксированном t мы имеем случайную величину Xt (ω), а прификсированном ω получаем функцию {Xt , t ∈ T }, называемую обычно траекториейпроцесса.Если зафиксируем t1 , .
. . , tn — некоторые значения параметра t, то им будет соответствовать случайный вектор (Xt1 , Xt2 , . . . , Xtn ). Распределения всевозможных таких векторов, когда t1 ∈ T, . . . , tn ∈ T , называются конечномерными распределениями процесса.Предположим, что X0 (ω) = 0.Определение. Случайный процесс {Xt , t ≥ 0} называется процессом с независимыми приращениями, если для любых 0 ≤ t0 < t1 < . . . < tn случайные величиныXt0 , Xt1 − Xt0 , .
. . , Xtn − Xtn−1 независимы.Определение. Случайный процесс с независимыми приращениями называетсяоднородным, если при любых t0 < t1 распределение Xt1 − Xt0 определяется толькодлиной интервала t1 − t0 и не зависит от t0 .Ниже мы рассмотрим два наиболее распространенных процесса с независимымиприращениями — пуассоновский и винеровский.12.2.Процесс ПуассонаПредположим, что в случайные моменты времени одно за другим происходятнекоторые события. Нас интересует число таких событий, произошедших в промежутке времени [0, t]. Обозначим Xt это число.Примерами таких ситуаций могут быть число частиц, зафиксированных прибором, число станков, вышедших из строя, число судов, прибывших в порт и т.д.Относительно процесса появления событий будем предполагать следующее.I.
Xt — однородный процесс с независимыми приращениями.Это означает, во-первых, что вероятность появления k событий в любом промежутке времени [τ, τ + t] зависит только от t и не зависит от τ ; во-вторых, это всепроисходит вне зависимости от того, сколько событий и как появлялись до момента τ .II. Обозначим Pk (t) = P(Xt = k), k = 0, 1, .
. ., и будем предполагать, что приh→0∞XP(Xh ≥ 2) =Pk (h) = o(h).k=2108Это условие означает практическую невозможность появления двух или более событий за малый промежуток времени h.Наша задача — найти в этих условиях вероятности Pk (t). Мы покажем, что заисключением некоторых тривиальных случаев имеет местоPk (t) =(λt)k −λte ,k!k = 0, 1, . . . ,при некотором λ > 0.Наши действия разобьем на несколько этапов.1.
Покажем, что за исключением некоторых простых ситуаций при некоторомλ > 0 выполняется P0 (t) = e−λt .Действительно, пусть p = P0 (1). Разобьем отрезок времени [0,1] на n равных частей; отсутствие событий за единицу времени означает, что на каждом из маленькихпромежутков времени длины 1/n происходит 0 событий. В силу независимости получаем p = (P0 (1/n))n , откуда P0 (1/n) = p1/n . Отсюда сразу же следует P0 (k/n) = pk/nпри любом k ≥ 1.Покажем теперь, что вообще P0 (t) = pt при всех t ≥ 0. Для каждого такого числаt и произвольного натурального n найдется число k ≥ 1 такое, чтоk−1k≤t< .nnФункция P0 (t) не возрастает по t, поэтому¶µµ ¶k−1kP0≥ P0 (t) ≥ P0,nnилиpk−1nk≥ P0 (t) ≥ p n .Устремив n → ∞ так, что k/n → t, получим P0 (t) = pt .Возможны три случая: а) p = 0, б) p = 1, и в) 0 < p < 1.В первом из них P0 (t) = 0 для любого t > 0, то есть с вероятностью 1 в любом какугодно малом промежутке времени происходит хотя бы одно событие, а это эквивалентно тому, что в промежутке времени любой длины происходит бесконечно многособытий.
Это можно представлять себе как цепную реакцию при атомном взрыве,мы не будем останавливаться на этой крайности. В случае б) P0 (t) = 1, то есть события никогда не появляются. Таким образом, интерес вызывает только случай в).Положим p = e−λ , здесь 0 < λ < ∞. Тем самым получилиP0 (t) = e−λt .2. Покажем, что при h → 0P1 (h) = λh + o(h).Для этого воспользуемся тем, что P0 (h) = e−λh = 1 − λh + o(h), иP0 (h) + P1 (h) +∞XPk (h) = 1.k=2ОтсюдаP1 (h) = 1 − P0 (h) −∞Xk=2109Pk (h) = λh + o(h).3. В этом пункте мы покажем, что вероятности Pk (t) удовлетворяют некоторойсистеме дифференциальных уравнений.Для t ≥ 0 и h > 0 имеемkXPk (t + h) =Pj (t)Pk−j (h)j=0(мы перебираем здесь все возможности о том, сколько событий произошло за времяt и за последующий промежуток времени длины h).Если h → 0, тоk−2Xk−2XPj (t)Pk−j (h) ≤j=0Pk−j (h) =j=0kXPi (h) = o(h),i=2поэтому при k ≥ 1Pk (t + h) = Pk (t)P0 (h) + Pk−1 (t)P1 (h) + o(h) == Pk (t)(1 − λh + o(h)) + Pk−1 (t)(λh + o(h)) + o(h) == Pk (t)(1 − λh) + Pk−1 (t)λh + o(h).Отсюда получаемPk (t + h) − Pk (t)o(h)= −λPk (t) + λPk−1 (t) +,hhk = 1, 2, .
. . .Устремим h → 0. Поскольку при этом предел правой части существует, то онбудет существовать и для левой части. В результате получаемPk0 (t) = −λPk (t) + λPk−1 (t),k = 1, 2, . . . .К этой системе можно добавить соотношениеP00 (t) = −λP0 (t),которое следует из формулы P0 (t) = e−λt . Выберем начальные условия — они диктуются логикой здравого смысла:P0 (0) = 1,Pk (0) = 0 при k ≥ 1.4.
Решение системы уравнений.Воспользуемся методом производящих функций. Обозначимg(z, t) =∞Xz k Pk (t),|z| ≤ 1.k=0Умножим полученные нами уравнения для Pk (t) на z k и просуммируем по k:∞Xk=0zkPk0 (t)= −λ∞Xk=0kz Pk (t) + λ∞Xz k Pk−1 (t),k=1или, что то же самое,∂g(z, t)= −λg(z, t) + λzg(z, t) = λ(z − 1)g(z, t).∂t110(8)Перепишем полученное уравнение в виде∂ ln g(z, t)= λ(z − 1),∂tоткудаln g(z, t) = λ(z − 1)t + C.В силу выбранных начальных условий при t = 0 имеем g(z, 0) = 1, то есть C = 0. Витоге получаем∞X(λt)k kλ(z−1)t−λt λzt−λtg(z, t) = e=e e =ez .(9)k!k=0Сравнивая коэффициенты разложений (8) и (9), обнаруживаем, чтоPk (t) =(λt)k −λte ,k!k = 0, 1, .
. . ,то есть мы получили вероятности, соответствующие распределению Пуассона с параметром λt. По этой причине изучаемый процесс называется пуассоновским. Иногдаговорят о пуассоновском потоке событий.Обозначим через τ1 длину промежутка времени от нуля до первого появления события. Очевидно, P(τ1 > t) = P0 (t) = e−λt , то есть случайная величина τ1 распределена по показательному закону с параметром λ. Пусть также τ2 — длина промежуткавремени между первым и вторым событиями, τ3 — длина промежутка времени между вторым и третьим событиями, и так далее. Можно показать, что все случайныевеличины τ1 , τ2 , .
. . независимы и одинаково распределены по показательному законус параметром λ. Траектории процесса Xt выглядят следующим образом.6Xt210v1v2v3t-Здесь обозначено vk = τ1 + . . . + τk . Момент vk k-го появления события равен сумменезависимых случайных величин, имеющих показательное распределение с параметром λ, поэтому vk ⊂= Γλ,k :λktk−1 e−λt , t > 0,(k − 1)!fvk (t) =0,иначе.Этот частный случай гамма-распределения принято называть распределением Эрла́нга.Нетрудно вычислить среднее число событий, происходящих за время t:E Xt =∞Xk Pk (t) = λt.k=0Среднее число событий, происходящих за единицу времени, называется интенсивностью пуассоновского процесса; мы видим, что она совпадает с параметром λ распределения промежутка времени между двумя последовательными событиями.111Вернемся к анализу траекторий процесса Пуассона.
Они являются кусочно постоянными. При возрастании t величина Xt остается постоянной в течение промежуткавремени, имеющего показательное распределение, а затем скачком увеличивается наединицу. Можно рассмотреть более общую конструкцию, когда Xt в момент времениt = v1 увеличивается на случайную величину Y1 , в момент времени v2 происходитскачок на величину Y2 и так далее, где Y1 , Y2 , .