Ульянов (новое издание) (1115355), страница 11
Текст из файла (страница 11)
Но эта зависимость — непричинная, это важно понимать. О смысле вероятностной зависимости несколькослов было сказано на с.24. Если коэффициент корреляции равен нулю, то о независимость случайных величин ещё не гарантирована, но степень зависимости слаба.Определение 4.9. Случайные величины называются некоррелированными, еслидля них существует коэффициент корреляции и равен он нулю.Для некоррелированных случайных величин дисперсия суммы равна сумме дисперсий — там в доказательстве использовалось соотношение E(XY ) = EXEY безотносительно к его происхождению.4.6Неравенство А.
А. МарковаУтверждение 4.2 (Неравенство Маркова). Пусть случайная величина X неотрицательна. Тогда∀ a > 0 P(X > a) 645EXaДоказательство. Пусть IX>a и IX<a — индикаторы событий {ω : X(ω) > a} и{ω : X(ω) < a} соответственно. Тогда:X = X · 1 = X · (IX>a + IX<a ) > X · IX>aПоследнее произведение равно нулю, если X < a и равно X, когда X > a. Второеобстоятельство даёт право сделать следующую оценку:X · IX>a > aIX>aТеперь, собрав начало и конец этой цепочки вместе и вспомнив, что мат.
ожиданиеиндикатора события равно вероятности его события, имеемX > aIX>a =⇒ EX > aEIX>a =⇒ EX > a P(X > a) =⇒ P(X > a) 64.7EX.aНеравенство ЧебышеваУтверждение 4.3 (Неравенство Чебышева).∃ DX =⇒ ∀ ε > 0 P(|X − EX| > ε) 6DX.ε2Замечание. Пользуясь тем фактом, что P(A) = 1 − P(A), условие можно переформулировать так:∃ DX =⇒ ∀ ε > 0 P(|X − EX| 6 ε) > 1 −DX.ε2Кроме того, вместо ∃ DX можно требовать ∃ EX 2 — тогда существование EX гарантируется утверждением на с.39, а DX = EX 2 − (EX)2 , так что эти два требованияравносильны.Доказательство. Случайная величина |X−EX|2 неотрицательна, используем длянеё неравенство Маркова:∗P(|X − EX| > ε) = P(|X − EX|2 > ε2 ) 6 P(|X − EX|2 > ε2 ) 6E|X − EX|2DX=.ε2ε2Замечание.
Начав с перехода ∗, докажем неравенство в видеP(|X − EX| > ε) 6DXDXили P(|X − EX| < ε) > 1 − 2 .2εεВ общем-то, изменения незначительные и неважные, однако в разных местах этонеравенство может появиться в любой из четырёх упомянутых форм, и вопросовэто вызывать не должно.464.7.1Правило трёх сигмВ неравенстве Чебышева в качестве ε можно брать любое положительное число.Ничто не мешает для этого использовать корень из дисперсии, например.
Но притаком выборе в правой части неравенства (где после вероятности стоит 6) окажетсяединица, такая оценка едва ли представляет интерес.Однако если взять в качестве ε величину 3σ, где σ — стандартное отклонение (тоесть именно корень из дисперсии), то получится уже более информативноеP(|X − EX| > 3σ) 6DX118= или то же самое P(|X − EX| 6 3σ) > 1 − = .9DX999То есть, вероятность того, что случайная величина находится от своего мат. ожидания не дальше, чем на три стандартных отклонения, не меньше 0,888 . . ., что ужечто-то да означает.
Полученное соотношение и называется правилом трёх сигм.Можно попробовать взять два или четыре стандартных отклонения вместо трёх,но тогда в случае двух отклонений получитсяP(|X − EX| 6 2σ) > 1 −13= ,44то есть точность попадания случайной величины в интервал уже равна 75%. Длячетырёх отклонений имеемP(|X − EX| 6 4σ) > 1 −115= .1616Тут точность — гораздо больше, но зато отрезок в два раза больше, чем для двухотклонений.
Разумеется, в конкретной ситуации каждое из этих правил может оказаться более подходящим, чем другие. Всё зависит от конкретных условий.47Лекция 55.1Закон больших чисел ЧебышеваЗакон больших чисел (он же ЗБЧ) будет софрмулирован не один раз, от имени неодного и того же исследователя и не с одними и теми же условиями. Поэтому всякийраз рядом с ЗБЧ будет присутствовать указание на то, чей он, если это не будет ясноиз контекста.Теорема 5.1 (ЗБЧ в форме Чебышева).
Пусть X1 , X2 , . . . , Xn — независимыеслучайные величины и дисперсия каждой из них существует и ограничена сверхунекоторой константой: ∀ i : 1 6 i 6 n ∃ DXi 6 C. Тогда¯µ¯¶¯ X1 + . . . + Xn EX1 + . . . + EXn ¯¯¯∀ε > 0 P ¯−−−→ 1.¯<ε −n→∞nnДоказательство. Сконструируем новую случайную величину X и вычислим еёмат.
ожидание и дисперсию:nnXX1 + . . . + XnXi ∗ 1 XEX1 + . . . + EXnX=, EX =, DX = D= 2DXi .nnnn i=1i=1В переходе ∗ используется независимость Xi . Просто так сложение за знак дисперсиивыносить нельзя.Дальше для X воспользуемся неравенством Чебышева и оценим правую часть,используя ограничение на дисперсии Xi :P(|X − EX| < ε) > 1 −DXDX1 + . . . + DXnnCC=1−>1− 2 2 =1− 2222εnεnεnεОстаётся вспомнить, что такое X и устремить n к бесконечности:¯µ¯¶¯ X1 + . .
. + Xn EX1 + . . . + EXn ¯C¯¯P ¯−< ε = P(|X − EX| < ε) > 1 − 2 −−−→ 1.¯nnnε n→∞Таким образом, искомое утверждение доказано.5.2Теорема БернуллиКак следствие из только что доказанной теоремы легко получается ЗБЧ Якова Бернулли. В роли независимых случайных величин выступают индикаторы успехов внезависимых испытаниях:Теорема 5.2 (Бернулли). Пусть Sn — число успехов в n испытаниях Бернулли свероятностью успеха p. Тогда¯¶µ¯¯¯ Sn∀ ε > 0 P ¯¯ − p¯¯ < ε −−−→ 1.n→∞n48Доказательство.
Представим Sn как сумму n индикаторов успеха Ii в i-том испытании:(1, если в i-том испытании произошёл успех,Sn = I1 + . . . + In ; Ii =, 1 6 i 6 n.0, в противном случае.Как уже отмечалось, EIi = p и DIi = p − p2 при любом допустимом i. Дисперсииограничены сверху константой 0,25, а индикаторы независимы. Остаётся применитьЗБЧ в форме Чебышева:¯¯¯µ¯¶µ¯¶µ¯¶¯ Sn¯ Sn EI1 + . . . + EIn ¯¯ Sn np ¯Sn ¯¯¯¯¯¯¯P ¯ −E ¯<ε =P ¯ −¯<ε =P ¯n − n¯<εnnnn¯¶µ¯¯¯ Sn¯¯= P ¯ − p¯ < ε −−−→ 1.n→∞n5.3Пуассоновское распределениеВ каком-то смысле распределение Пуассона является продолжением биномиальногораспределения на бесконечное количество испытаний Бернулли.
Причём этот фактдоказан (правда, оценка погрешности здесь приводится без обоснования).Определение 5.1. Дискретная случайная величина X имеет распределениеПуассона с параметром a (считается a > 0) тогда и только тогда, когдаP(X = k) =ak −ae , k = 0, 1, 2, . . . ,k!обозначается это так: X ∼ P oiss(a) или X ∼ П(a).Замечание. Тот факт, что случайная величина X имеет биномиальное распределение с параметрами n и p кратко записывается как X ∼ Bi(n, p).Известно, что количество посетителей (закусочной или торговой точки) представляет собой пуассоновский поток (но только не в час пик).
Это означает следующее: пусть на момент времени t1 насчиталось Q(t1 ) клиентов (счёт ведётся отлюбого подходящего момента времени), а на момент t0 — Q(t0 ). Тогда при всякихt 1 > t0Q(t1 ) − Q(t0 ) ∼ P oiss(λ(t1 − t0 )),где λ называется интенсивностью процесса.
Любопытно, что Q можно представитькак возрастающую на единицу в моменты времени τ0 , τ1 , τ2 . . . величину, где промежутки от τi−1 до τi — это независимые случайные величины, имеющие показательноераспределение с параметром λ (о нём — на с.??).5.4Теорема ПуассонаТеорема 5.3 (Пуассона). Пусть проводится n обобщённых испытаний Бернулли(то есть, вероятность успеха испытания зависит от n) с вероятностью успехаpn , Sn — количество успехов в этих испытаниях и npn −−−→ a.
Тогдаn→∞∀ k ∈ Z: 0 6 k 6 nP(Sn = k) −−−→n→∞49ak −ae .k!Доказательство. Тем, кто помнит мат. анализ, доказательство покажется элементарным. Для тех, кто его не помнит, здесь всё расписано вплоть до теоремы опроизведении пределов. Как известно, Sn имеет биномиальное распределение с параметрами n и pn . Требуется перейти к пределу при большом n, больше ничего:pkn n!(1 − pn )n (1 − pn )−kk!(n − k)!(npn )kn!(1 − pn )n=··.k!(n − k)!nk (1 − pn )kP(Sn = k) = Cnk pkn (1 − pn )n−k =k — это константа.
Поэтому безо всяких неопределённостей(npn )kak= ,n→∞k!k!limПосле простых преобразований очевиден предел второй дроби:limn→∞n!12k−2k−1= lim (1)(1 − )(1 − ) · . . . · (1 −)(1 −)kn→∞(n − k)!nnnnn12k−2k−1= lim (1 − ) lim (1 − ) · . . . · lim (1 −) lim (1 −) = 1.n→∞n→∞n n→∞nn n→∞nПри выяснении предела третьей дроби требуется второй замечательный предел инепрерывность показательной функции. Кроме того, отметим, что раз npn −−−→ a,n→∞то pn −−−→ 0. Так чтоn→∞lim (1 − pn )nlim (1 − pn )n1(1 − pn )nnpn→∞n→∞pn nlim===lim(1−p)nn→∞ (1 − pn )kn→∞lim (1 − pn )k1n→∞¶−npn¶a−npn −aµµ11−−= lim (1 − pn ) pn= lim (1 − pn ) pnn→∞n→∞¶µ¶a−npnµ−a11−−ppnn= lim (1 − pn )(1 − pn )n→∞µ¶−aµ¶a−npn11−−= lim (1 − pn ) pnlim (1 − pn ) pnn→∞n→∞Последовательность a − npn является бесконечно малой, обозначим её как γn .
Разберёмся отдельно со второй скобкой:¶γnµln(1−pn )ln(1−pn )ln(1−pn )1lim γnlim γn limγ−pn= lim e n pn = en→∞lim (1 − pn ) pn= en→∞ n→∞ pn = e0·1 = 1.n→∞n→∞С первой же скобкой всё гораздо проще:¶−a µ¶−aµ11−−ppnn= lim (1 − pn )= e−a .lim (1 − pn )n→∞n→∞Всё, теперь, собрав всё это вместе, получаем требуемое(npn )kn!(1 − pn )n··n→∞k!(n − k)!nk (1 − pn )k(npn )kn!(1 − pn )nakak −a−a= lim· lim·lim=·1·e=e .n→∞n→∞ (n − k)!nk n→∞ (1 − pn )kk!k!k!lim P(Sn = k) = limn→∞505.4.1Оценка близости биномиальных вероятностей к пуассоновскимНасколько близко биномиальное распределение приближается пуассоновским, говорит следующее утверждение, которое здесь не доказано:Утверждение 5.1. Пусть Sn — число успехов в n (теперь обычных) испытанияхБернулли.
Тогда¯¯k¯ a2¯a−a∀ k ∈ Z : n > k > 0 ¯¯P(Sn = k) − e ¯¯ 6= np2 ,k!nгде a = np.Замечание. Указанная оценка теряет всякий смысл при «больших» p. Например,при p = 0,5 в правой части оценки уже при n = 2 наблюдается 1/2. Но вот приp = 0,01 вплоть до n = 100 получается не такое уж плохое 0,01.5.5Задача о конкуренции (завязка)Пример. Пусть каждое утро имеется станция с двумя поездами от разных компаний-перевозчиков и 1000 пассажиров, которым требуется уехать на одном из этихпоездов. Каждый пассажир выбирает поезд случайным образом безо всяких пристрастий.
Имеется в виду, равновероятно. Для того, чтобы гарантированно перевезти всех пассажиров, в каждом из поездов должно быть по 1000 мест. Требуетсявыяснить, сколько нужно мест в каждом из поездов, чтобы наверняка перевезти 90%клиентов.Логично подойти к задаче так: пусть Sn — количество пассажиров, выбравшихпоезд первой компании-перевозчика.
Каждый пассажир — это своего рода испытаниеБернулли: с вероятностью 1/2 он выбирает один из поездов и делает это независимоот остальных. Отсюда видно, что Sn имеет биномиальное распределение с параметрами 1000 и 1/2. В переводе на язык вероятностей вопрос «сколько нужно мест,чтобы наверняка перевезти 90% клиентов» приобретает вид «найти m, такое чтоP(Sn 6 m) > 0,9». Причём это m хочется сделать поменьше. Знак > стоит в условиивместо = потому, что P(Sn 6 m) вместе с m меняется скачками, и для условия сознаком «=» решения может и не быть вовсе. Попробуем отыскать m:Ãm!µ ¶nmm[XX1kP(Sn 6 m) = PSn = k =P(Sn = k) =Cn.2k=0k=0k=0n у нас, вообще-то, тысяча, так что в итоге приходим к неравенствуµ ¶1000mmXX1kk> 21000 · 0,9.C1000> 0,9 ⇐⇒C10002k=0k=0Решить его не так, чтобы очень сложно, но и не так, чтобы совсем просто.