Наброски лекций. 2017 (1134111), страница 5
Текст из файла (страница 5)
, tn−1 + ∆tn−1 < tn , то мыимеем аналогично (2.21)P (t1 6 τ1 < t1 + ∆t1 , t2 6 τ2 < t2 + ∆t2 , . . . , tn 6 τn < tn + ∆tn ) == P (ξ(t1 ) = 0) · P (∆ξ(∆t1 ) = 1) · P (∆ξ(t2 − t1 − ∆t1 ) = 0) ×× P (∆ξ(∆t2 ) = 1) · P (∆ξ(t3 − t2 − ∆t2 ) = 0) × · · ·· · · × P (∆ξ(∆tn−1 ) = 1) · P (∆ξ(tn − tn−1 − ∆tn−1 ) = 0) · P (∆ξ(∆tn ) > 1).Как и выше, первый порядок малости по ∆tn дают P (∆ξ(∆tk ) = 1), поэтомуP (∆ξ(tn − tn−1 − ∆tn−1 ) = 0) мы заменяем на e−λ(tn −tn−1 ) , собираем показателиэкспонент и получаем ответ:(λn e−λtn при t1 < t2 < · · · < tn ,pτ1,τ2,...,τ2(t1 , t2 , . . .
, tn ) =(2.23)0при прочих t1 , t2 , . . . , tn .Хотя создаётся впечатление, что плотность распределения (2.23) зависит толькоот «старшего» времени tn , на самом деле это не так: зависимость от остальныхвремён содержится в условии t1 < t2 < · · · < tn , ограничивающих область ненулевыхзначений плотности.Пример 2.6.
Показать, что промежутки времени ∆τk = τk − τk−1 (считаем, чтоτ0 = 0 с вероятностью единица и, следовательно, ∆τ1 = τ1 ) между последовательными моментами поступления требований в пуассоновом потоке независимы привсех k = 1, 2, . . . , n для любого n > 1 и каждая из случайных величин ∆τk имеетэкспоненциальное распределение, т. е. её плотность распределения имеет вид λe−λtпри t > 0.19Решение. Вновь начнём с n = 2. Пусть u1 , u2 > 0.
Имеем в силу стандартныхформул теории вероятностей и выражения (2.22) для двумерной плотности распределенияF∆τ1,∆τ2(u1 , u2 ) = P (τ1 < u1 , τ2 − τ1 < u2 ) =ZZZZ=pτ1,τ2(t1 , t2 ) dt1 dt2 =t1 <u1, t2 −t1 <u2=Zu1λ dt10Zt1 +u2t1λ2 e−λt2 dt1 dt2 =0<t1 <t2 ,t1 <u1 ,t2 −t1 <u2λ e−λt2 dt2 = (1 − e−λu2 )(1 − e−λu1 ).Видно, что F∆τ1,∆τ2(u1 , u2 ) = F∆τ1(u1 )F∆τ2(u2 ), где F∆τk(uk ) = (1 − e−λuk ), k = 1, 2,при u1 , u2 > 0.Отсюда вытекает независимость случайных величин ∆τ1 и ∆τ2 , а также, чтокаждая из них имеет плотность p∆τk (uk ) = e−λuk при uk > 0, k = 1, 2.При произвольном натуральном n > 2 имеемF∆τ1,∆τ2,...,∆τ2(u1 , u2 , .
. . , un ) = P (τ1 < u1 , τ2 − τ1 < u2 , . . . , τn − τn−1 < un ) =ZZZpτ1,τ2,...,τn(t1 , t2 , . . . tn ) dt1 dt2 . . . dtn ==···t1 <u1, t2 −t1 <u2 ,...,tn −tn−1 <unZZ=λn e−λtn dt1 dt2 . . . dtn =0<t1 <t2 <···<tn ,t1 <u1, t2 −t1 <u2 ,...,tn −tn−1 <un=Zu1λ dt1Zt1 +u2λ dt2 · · ·t10Ztn−1 +unλ e−λtn dtn .tn−1Многократный интеграл вычислить несложно: последний (внутренний) интегралравенZ tn−1 +unλ e−λtn dtn = e−λtn−1 − e−λ(tn−1 +un ) = (1 − e−λun )e−λtn−1 .tn−1Видно, что не зависящий от всех tk множитель 1 − e−λun выносится, а множительe−λtn−1 переходит в следующий интеграл:Z tn−2 +un−1λ e−λtn−1 dtn−1 = e−λtn−2 − e−λ(tn−2 +un−1 ) = (1 − e−λun−1 )e−λtn−2 .tn−2Таким образом, последовательное взятие интегралов по tn , tn−1 , . .
. t2 в конечномитоге даёт при всех uk > 0F∆τ1,∆τ2,...,∆τ2(u1 , u2 , . . . , un ) =−λun= (1 − e−λun−1)(1 − e−λu2) . . . (1 − e20)Z0u1−λt1λedt1 =nYk=1(1 − e−λuk ).Отсюда вытекает независимость случайных величин ∆τk , k = 1, 2, . . . , n, а также,что каждая из них имеет плотность p∆τk (uk ) = e−λuk при uk > 0.Замечание 2.2. Пусть случайная величина τ имеет экспоненциальное распределение, pτ (t) = λe−λt , t > 0. Найдём условную вероятность P (t 6 τ < t + s | τ > t).Имеем при t, s > 0P (t 6 τ < t + s | τ > t) =P (t 6 τ < t + s)P (t 6 τ < t + s, τ > t)=.P (τ > t)P (τ > t)Находим вероятностиP (t 6 τ < t + s) =P (τ > t) =Zt+sZt ∞λe−λu du = e−λt − e−λ(t+s) ,λe−λu du = e−λt .tОтсюда условная вероятностьe−λt − e−λ(t+s)P (t 6 τ < t + s | τ > t) == 1 − e−λs−λteне зависит от t и совпадает с P (0 6 τ < s).
Другими словами, экспоненциальное распределение не имеет «памяти»: если требование не поступило к моменту времени t,то условная вероятность того, что оно поступит в следующие s единиц временине зависит от t, т. е. от того, как долго мы ждали поступления этого требованияраньше.Пример 2.7. Пусть случайные величины α1 , α2 , . .
. независимы и имеют одинаковые математическое ожидание и дисперсию, M αj = a, Dαj = d2 . ПоложимP (α0 = 0) = 1. Определим N (t), t > 0, как процесс Пуассона с интенсивностью λ,причём любое сечение этого процесса и случайные величины α1 , α2 , . . . будем такжесчитать независимыми. Случайный процесс ξ(t) задан формулойN(t)ξ(t) =Xαj ,t > 0.j=0Найти математическое ожидание и ковариационную функцию процесса ξ(t).Решение. Возьмём полную группу событий N (t) = n, где n = 0, 1, 2, .
. . , и разложим одномерную функцию распределения процесса ξ(t) по этой полной группе:Fξ (x, t) =∞Xk=0P (ξ(t) < x | N (t) = n)P (N (t) = n) =∞Xk=0Fξ (x, t | N (t) = n)P (N (t) = n),где через Fξ ( · | N (t) = n) мы обозначили условную (при условии N (t) = n) одномерную функцию распределения случайного процесса.
Тогда математическое ожидание случайного процесса ξ(t) также разложится в сумму условных математических21ожиданий (здесь мы не приводим строгого математического обоснования законностиперестановки интеграла и суммы):Z ∞∞ Z ∞Xx dFξ (x, t | N (t) = n)P (N (t) = n) =x dFξ (x, t) =M ξ(t) =−∞=∞Xn=0n=0−∞M (ξ(t) | N (t) = n)P (N (t) = n).Далее, по условиюP (N (t) = n) =(λt)n −λten!и, самое главное,M (ξ(t) | N (t) = n) = M=M N(t)Xj=0nXXnαj N (t) = n = Mαj N (t) = n =j=0αj =j=0nXM αj = an,(2.24)j=1где при переходе от условного математического ожидания к безусловному (при переходе на вторую строку формулы) мы воспользовались независимостью случайныхвеличин N (t) и α0 , α1 , α2 .
. . . Также мы учли, что M αj = a при j > 0 и M α0 = 0.Таким образом,∞X(λt)n −λte= aλt.(2.25)M ξ(t) = an·n!n=0Здесь при вычислении суммы мы использовали тот факт, что она определяет математическое ожидание случайной величины, распределённой по Пуассону с параметром λt.Для расчёта ковариационной функции мы воспользуемся аналогичным приёмом,но теперь полная группа событий будет связана с возможными значениями двух различных сечений случайного процесса.
Кроме того, следует учесть, что приращениеN (t + s) − N (s) при t, s > 0 распределено по Пуассону и принимает неотрицательныецелые значения, следовательно, N (t + s) > N (t) с вероятностью единица. В соответствии с этим выберем полную группу событий какN (s) = m,m = 0, 1, 2, . . . ,N (t + s) = n + m,n = 0, 1, 2, .
. . .При этом в силу независимости приращений процесса N (t), t > 0,P (N (s) = m, N (t + s) = n + m) = P (N (s) − N (0) = m, N (t + s) − N (s) = n) == P (N (s) − N (0) = m) · P (N (t + s) − N (s) = n) ==(λs)m −λs (λt)n −λte·e= Ps (m)Pt (n),m!n!в правой части для краткости мы ввели обозначения для пуассоновых вероятностейPs (m) = P (N (s) = m) =(λs)m −λse,m!22Pt (n) = P (N (t) = n) = P (N (t + s) − N (s) = n) =(λt)n −λte .n!Итак, имеем по аналогии с (2.24)M ξ(s)ξ(t + s) ==∞∞ XXMm=0 n=0=∞ X∞X N(s)X=m=0 n=0αjj=0mXMm=0 n=0∞∞ XXN(t+s)j=0αjXk=0n+mXk=0Ps (m)Pt (n) ·αk N (s) = m, N (t + s) = n + m ×× P (N (s) = m, N (t + s) = n + m) =αk · Ps (m)Pt (n) =m n+mXXM αj αk .j=0 k=0Теперь найдём M αj αk .
Очевидно,(M αj · M αk , j 6= k,M αj αk =M α2k ,j = k,и (поскольку неслучайная величина α0 = 0 независима с остальными αk )((a2 + d2 , k > 0,a2 , k 6= j, k, j > 0,M α2k =M αj · M αk =0, k 6= j, k · j = 0,0,k = 0.Таким образом,m n+mXXM αj αk =j=0 k=02m n+mXXM αj αk =j=1 k=1m n+mXX(a2 + δjk d2 ) =j=1 k=1222= a · m(m + n) + d · m = a m + a2 mn + d2 m.(2.26)Теперь подставляем полученные выражения в разложение по полной группе событий. Имеем∞ X∞XmPs (m)Pt (n) =m=0 n=0∞ X∞Xm2 Ps (m)Pt (n) =m=0 n=0∞Xm=0∞Xm=0mPs (m) ·∞XPt (n) = λs,n=0∞Xm2 Ps (m) ·Pt (n) = λs + (λs)2 ,n=0где, суммируя по m, мы нашли математические ожидания случайных величин N (s)и N 2 (s), а суммируя по n, учли условие нормировки распределения случайной величины N (t + s) − N (t).
Наконец,∞ X∞Xm=0 n=0mnPs (m)Pt (n) =∞Xm=0mPs (m) ·23∞Xn=0nPt (n) = λs · λt.Собираем все полученные результаты (см. правую часть равенства (2.26)):M ξ(s)ξ(t + s) = a2 λs + (λs)2 + a2 λs · λt + d2 λs.Отсюда, принимая во внимание уже найденное математическое ожидание (2.25),получаемR(s, t + s) = M ξ(s)ξ(t + s) − M ξ(s) · M ξ(t + s) == a2 λs + (λs)2 + a2 λs · λt + d2 λs − aλs · aλ(t + s).Приведём подобные слагаемые: R(s, t + s) = λs(a2 + d2 ).
Видно, что значение ковариационной функции определяется значением меньшего из её аргументов, как этобывает у процессов с независимыми приращениями.В заключение рассмотрим процесс, в некотором роде обратный к процессу Пуассона. Пусть в составе некоторой системы имеется устройство, которое работаетв течение случайного времени τ , после чего отказывает. Непосредственно после отказа устройство мгновенно заменяют на аналогичное.
Таким образом, время работысистемы до n-го отказа есть случайная величинаSn = τ1 + · · · + τn ,(2.27)где τk – время работы k-го устройства. Мы будем считать, что случайные величины τ1 , τ2 , . . . , τn независимы при любом n и одинаково распределены. Определимслучайный процесс ξ(t), t > 0, формулойξ(t) = max{n | τ1 + · · · + τn < t},t > 0,(2.28)таким образом, ξ(t) – количество отказов, случившихся вплоть до момента времени t(на промежутке [0, t)). Процесс ξ(t) называется процессом восстановления.Пример 2.8. Пусть в случайном процессе (2.28) случайные величины имеют экспоненциальное распределение с плотностью λe−λx при x > 0.