Лекции по терверу - Горяйнов (1188226), страница 10
Текст из файла (страница 10)
В. ГОРЯЙНОВСледующие два примера показывают, что из сходимости последовательности случайных величин почти наверное не следует сходимость в среднем, а изсходимости в среднем не следует сходимость почти наверное.Пример 1. Пусть Ω = [0, 1], A = B([0, 1]), P — мера Лебега. Рассмотримпоследовательностьξn (ω) = n1/p · 1[0,1/n] (ω),п.н.n = 1, 2, . . .. Тогда ξn → ξ, ξ(ω) ≡ 0, но ξn 6→ ξ в Lp , p > 0.Пример 2.
Пусть Ω = T — единичная окружность, A = B(T), P = µ/2π —нормированная мера Лебега. Для n = 1, 2, . . . рассмотрим()nn−1X1X1iθEn = ω = e :6 θ <⊂ T.kkk=1k=1Заметим, что P(En ) = 1/(2πn) → 0 при n → ∞. Следовательно, для любогоp > 0 последовательность ξn = 1En сходится в среднем порядка p и ξ(ω) ≡ 0.P∞С другой стороны, поскольку k=1 1/k = ∞, то каждое элементарное событие ω принадлежит бесконечному числу событий из последовательности {En },т.
е. limn→∞ En = Ω. Это означает, что ξn (ω) 6→ ξ(ω) ни при каком ω ∈ Ω, т, е.последовательность ξn не сходится почти наверное.Закон больших чисел Чебышёва касался последовательности независимыхслучайных величин с равномерно ограниченными дисперсиями. Метод характеристических функций позволяет снять условие конечности вторых моментовдля одинаково распределенных случайных величин.Теорема 10.2 (Хинчина). Пусть ξ1 , ξ2 , . .
. — последовательность независимых одинаково распределенных случайных величин с конечным Eξ = a. Тогдадля Sn = ξ1 + . . . + ξn имеет место предельное соотношениеSn P→ anприn → ∞.Доказательство. Поскольку все ξk , k = 1, 2, . . ., одинаково распределены,то они имеют одну и ту же характеристическую функциюh(t) = hξk (t) = Eeitξk .В силу того, что ξk имеет конечное математическое ожидание, характеристическая функция h дифференцируема иh(t) = 1 + iat + o(t)приt → 0.По условию ξ1 , . .
. , ξn независимы. ПоэтомуhSn (t) = (h(t))nи n nttth Sn (t) = h= 1 + ia + o.nnnnЛЕКЦИИ ПО ТВ49Используя асимптотическую формулу ln(1+z) = z +o(|z|), при z → 0, получаем iattn ln 1 ++onnlim h (t) = lim e= eiat .n→∞n→∞ SnnПредельная функция eiat непрерывна и по теореме сходимости она является характеристической функцией некоторой случайной величины η, причемdSn /n → η.
Заметим также, что hη (t) = eiat является характеристическойфункцией вырожденного распределения, сосредоточенного в точке a, т. е.Fη (x) = 1[a,∞) (x).PОстается показать, что Sn /n → η. Для ε > 0 имеем SnSnSnP − a > ε = P6a−ε +P>a+εnnnε 6 Fn (a − ε) + 1 − Fn a +,2где Fn — функция распределения случайной величины Sn /n. Поскольку точкиa − ε и a + ε/2 являются точками непрерывности функции Fη , тоFn (a − ε) → 0,Fn (a + ε/2) → 1при n → ∞. Отсюда следует, что Snlim P − a > ε = 0n→∞nPи Sn /n → a.
Теорема доказана.§ 11. Цепи МарковаПусть некоторая система меняет свое состояние случайным образом в моменты времени t = 1, 2, . . . , T . Множество возможных состояний системы являетсяконечным множеством E = {e1 , . . . , er } и называется фазовым пространством.Среди реальных систем важный класс образуют такие, у которых вероятностиперехода из одного состояния в другое в данный момент времени не зависит оттого, как вела себя система в предыдущие моменты времени.
Такие системыназывают марковскими или цепями Маркова. Эволюция изучаемой системыописывается траекторией ω = (ω0 , ω1 , . . . , ωT ), где ωt = i, если система в моментвремени t находилась в состоянии ei . Поэтому под элементарным событием будем понимать ω = (ω0 , ω1 , . . . , ωT ), т. е. последовательность номеров состояний,в которых находилась система в моменты времени 0, 1, . . . , T . Можно считать,что цепь Маркова является обобщением схемы независимых испытаний, в которой условие независимости заменяется на некоторые другие естественныепредположения. Рассмотрим эти предположения и введем некоторые понятия,связанные с цепями Маркова.50В.
В. ГОРЯЙНОВДля вычисления вероятности того, что траектория ω = (ω0 , ω1 , . . . , ωT ) будетреализована как i0 , i1 , . . . , iT , можно воспользоваться теоремой умноженияP(ω0 = i0 , . . . , ωT = iT ) =P(ω0 = i0 )P(ω1 = i1 | ω0 = i0 ) · . . . · P(ωT = iT | ω0 = i0 , . . . , ωT −1 = iT −1 ).Здесь мы считаем, что условная вероятность относительно события с нулевойвероятностью равна нулю.Условие марковости (независимость от прошлого) выражается в том, чтодля любых s < t выполняются равенстваP(ωt = j| ω0 = i0 , .
. . , ωs−1 = is−1 , ωs = i) = P(ωt = j| ωs = i),i, j = 1, . . . , r. Другими словами, вероятность перехода системы, находившейсяв состоянии i в момент времени s, в состояние j в момент времени t не зависитот того, как она себя вела до момента времени s.Кроме того, мы будем рассматривать однородные марковские цепи, для которых условные вероятности перехода из состояния i в состояние j за времяt не зависят от того, в какой момент времени s она находилась в состоянии i,т. е.P(ωs+t = j| ωs = i) = P(ωt = j| ω0 = i) = pij (t).Вероятности pij (t) обладают следующими свойствами:1◦ . pij (t) > 0;rP2◦ .pij (t) = 1;j=13◦ .
pij (0) = δij .Матрицу, составленную из вероятностей pij (t), будем обозначать Π(t). Свойства 1◦ и 2◦ означают, что Π(t) является стохастической матрицей. Вероятности перехода системы из состояния i в состояние j за единичное времяpij (1) называются переходными вероятностями и обозначаются pij . МатрицаΠ(1) = Π называется матрицей переходных вероятностей.−Однородная марковская цепь вполне определяется вектором-строкой →p (0) =(p1 (0), . . .
, pr (0)) начальных вероятностей (pi (0) — вероятность того, что в начальный момент времени система находилась в состоянии i) и матрицей переходных вероятностей Π. Действительно, вероятность pj (t) того, что системабудет находиться в состоянии j в момент времени t определяется равенствомpj (t) = P(ωt = j) =rXpi (0)pij (t).i=1−Если →p (t) — вектор-строка вероятностей состояний в момент времени t, то→−−p (t) = →p (0)Π(t).С другой стороны, матрица Π(t) выражается через Π. Это следует из уравнений Колмогорова — Чепменаpij (s + t) =rXk=1pik (s)pkj (t),(11.1)51ЛЕКЦИИ ПО ТВкоторые выводятся непосредственно из свойств марковости и однородностиpij (s + t) = P(ωs+t = j| ω0 = i)P(ωs+t = j, ω0 = i)P(ω0 = i)rX P(ωs+t = j, ω0 = i, ωs = k)=P(ω0 = i)==k=1rXk=1=XP(ωs = k, ω0 = i)P(ωs+t = j| ω0 = i, ωs = k)P(ω0 = i)pik (s)pkj (t).k=1Уравнения (11.1) можно также записать в матричном видеΠ(s + t) = Π(s)Π(t).Поскольку Π(1) = Π, то Π(t) = Πt .
Следовательно,→−−p (t) = →p (0)Πt .Важное значение в теории однородных марковских цепей имеет следующийрезультат.Теорема 11.1. [О предельных вероятностях.] Пусть при некотором t0 >0 все элементы матрицы Πt0 = (pij (t0 )) являются строго положительными.Тогда для каждого j = 1, . .
. , r существует пределpj = lim pij (t).t→∞При этом pj > 0, j = 1, . . . , r, не зависят от i и являются единственнымрешением системыrXrXxk pkj = xj ,k=1xk = 1.(11.2)k=1Доказательство. Введем в рассмотрениеMj (t) = max pij (t),16i6rmj (t) = min pij (t).16i6rВ силу уравнений (11.1)pij (1 + t) =rXpik pkj (t).k=1Отсюда и непосредственно из определения mj (t) и Mj (t) получаем неравенстваmj (t) 6 pij (t + 1) 6 Mj (t).52В.
В. ГОРЯЙНОВИз этих неравенств, в свою очередь, следуют неравенстваmj (t) 6 mj (t + 1) 6 Mj (t + 1) 6 Mj (t).Это означает, что mj (t) не убывает по t, а Mj (t) не возрастает по t.Обозначимε = min pij (t0 ).16i,j6rПо условию теоремы 0 < ε < 1. Для t > 0, используя уравнения (11.1), получаемrXpij (t0 + t) =pik (t0 )pkj (t)k=1rX[pik (t0 ) − εpjk (t)]pkj (t) + ε=k=1rXrXpjk (t)pkj (t)k=1[pik (t0 ) − εpjk (t)]pkj (t) + εpjj (2t).=k=1Замечая, что выражения в квадратных скобках неотрицательны, получаемнеравенствоpij (t0 + t) 6 Mj (t)rX[pik (t0 ) − εpjk (t)] + εpjj (2t) = (1 − ε)Mj (t) + εpjj (2t),k=1из которого следует, чтоMj (t0 + t) 6 (1 − ε)Mj (t) + εpjj (2t).Аналогично получаются неравенстваpij (t0 + t) > (1 − ε)mj (t) + εpjj (2t)иmj (t0 + t) > (1 − ε)mj (t) + εpjj (2t).Сравнивая полученные выше неравенства, приходим к следующемуMj (t0 + t) − mj (t0 + t) 6 (1 − ε)(Mj (t) − mj (t)).Применяя последовательно k раз последнее неравенство, получаемMj (kt0 + t) − mj (kt0 + t) 6 (1 − ε)k (Mj (t) − mj (t)).Отсюда сразу же следует, чтоlim [Mj (kt0 + t) − mj (kt0 + t)] = 0,k→∞а поскольку последовательность {Mj (t) − mj (t)}∞t=1 монотонно убывает, тоlim [Mj (t) − mj (t)] = 0.t→∞53ЛЕКЦИИ ПО ТВТаким образом, доказано существование пределовpj = lim Mj (t) = lim mj (t) = lim pij (t),t→∞t→∞t→∞j = 1, .
. . , r. Заметим также, что поскольку mj (t) не убывают по t, тоpj > mj (t0 ) > ε > 0,т. е. все pj строго положительны. При этомrXpj = limt→∞j=1rXpij (t) = 1.j=1Осуществляя в равенствеpij (t + 1) =Xpik (t)pkjk=1предельный переход при t → ∞, получаемpj =rXpk pkj ,k=1т. е. p1 , . . . , pr — решение системы (11.2).Допустим теперь, что q1 , . . . , qr также является решением этой системы, т. е.qj =rXrXqk pkj ,qk = 1.k=1k=1Заметим, что тогда q1 , . . . , qr будет решением и системыqj =rXqk pkj (t)(11.3)k=1при t = 1, 2, . . ..
Действительно,rXk=1qk pkj (t) =rXk=1qkrXl=1pkl plj (t − 1) =rXl=1ql plj (t − 1) = . . . =rXqk pkj = qj .k=1Осуществляя в равенстве (11.3) предельный переход при t → ∞, получаемqj =rXqk pj = pjk=1и единственность решения системы (11.2) доказана.Доказанная теорема относится к так называемым эргодическим теоремам.Ее смысл состоит в том, что за длительный промежуток времени система какбы забывает, из какого начального состояния она стартовала.Условие положительности элементов матрицы Πt0 означает, что с положительной вероятностью из любого состояния в любое состояние система можетперейти за время t0 .54В. В. ГОРЯЙНОВ§ 12.
Ветвящиеся процессыНемного истории. История возникновения теории ветвящихся процессовсвязывается с публикацией Гальтона 1873 года. Постановке задачи предшествовали следующие замечания: Исчезновение фамилий лиц, которые занимали”видное положение в истории, это факт, неоднократно отмечавшийся в прошлом; по этому поводу строились разные догадки...
Слишком многочисленныбыли примеры фамилий, которые, будучи распространенными, становилисьредкими или совсем исчезали“ . Чтобы разобраться в природе исчезновенияфамилий, Гальтон поставил задачу создания математической модели, описывающей этот процесс. Такую модель построил Ватсон в 1874 году. Математическая модель Гальтона и Ватсона была вскоре забыта в связи с элементарнойошибкой Ватсона, которая приводила к выводу, что каждая фамилия должнавыродиться даже в том случае, если средняя численность популяции растет отпоколения к поколению. Более подробно об этом можно почитать в монографии Т.
Харриса Теория ветвящихся случайных процессов“ . Интересно, что в”монографии 1934 года Н. Н. Семенов использовал модель Гальтона—Ватсонакак элемент своей теории химических (неядерных) цепных реакций. За этиисследования Н. Н. Семенов в 1956 году получил Нобелевскую премию. Самтермин ветвящийся процесс“ впервые появился в работе А. Н. Колмогорова”и Н. А.