Ульянов (старое издание) (1115357), страница 3
Текст из файла (страница 3)
. . , n}P (X = 0) = {НН. . . } = (1 − p)nвероятность отдельного события 1/nP (X = n) = pnP (X = k) = pk · 1 − pn−k · CnkУУ.Cnk · (1 − p)n−k pk| {z. . У} НН.| {z. . Н}, но их можно пересортировать ⇒kn−k- биномиальное распределение с параметрами n и k.4Лекция 44.1 Математическое ожиданиеΩ = {ω1 , ω2 , . . .}X: Ω → RОпределение P4.1. Математическим ожиданием называется величинаEX = M X = ω∈ Ω X(ω)P (ω) - при условии, что ряд сходится абсолютно.Свойства математического ожидания:1. Математическое ожиданиеконстанты есть константа - Ec = c.P(Так как X(ω) = c иP (ω) = 1.)2. Если ∃ EX, EY , то E(X + Y ) = EX + EY .(Это следует из свойств абсолютной сходимости рядов.)3.
E(cX) = cEX4. ПустьP∞значение дискретной случайной величины X : x1 , x2 , . . .. ТогдаEX = k=1 xk P (X = xk ). Причем, если математическое ожидание существует, то ряд сходится; иначе - ряд расходится.PДоказательство. EX = ω∈ Ω X(ω)P (ω)P PПусть APk = {ω : X(ω) = xk }. Перегруппируем ряд: EX =kω∈ Ak X(ω)·P (ω) = k P (Ak )5. Предположим,g - измеримое отображение R → R.
Если ∃ Eg(X), тогдаPEg(X) = k g(xk )P (X = xk )(Доказывается аналогично свойству 4.)Пример 4.1. Рассмотрим 60 человек, возраста которых a1 , a2 , . . . , a60 . Найдем их средний возраст -204 Лекция 4a=a1 + . . . + a6060Пусть всего k различных возрастов: x1 , x2 , . . . , xk ; и количество человекданного возраста - n1 , n2 , . .
. , xk - соответственно. Тогдаa=n1nkx1 n1 + . . . + xk nk= x1+ . . . + xk606060- математическое ожидание. То есть, математическое ожидание есть сутьпонятие среднего в смысле среднего арифметического.PnPn6. Если ∃ EXi , i = 1, n, то E( i=1 Xi ) = i=1 EXi .(Следует из свойства 2 по индукции.)Но важно понимать, что математическое ожидание существует невсегда.
Примером может послужить, так называемый "Петербургскийпарадокс". Суть задачи в том, что два игрока бросают монетку. Если"герб"появляется на i-ом броске, то первый игрок выплачивает второмувыигрыш в размере 2i . Игра будет считаться справедливой, если второйигрок платит за участие в игре среднее значение своего выигрыша.Итак, "герб"появляется на i-омс вероятностью2−i . ВыигрышP∞P∞броскеk −kiбудет составлять 2 . Тогда EX = k 2 ·2 = k 1, что, соответственно,равно бесконечности. Следовательно, такая игра не может быть справедливой.Рассмотрим эксперимент Бернулли.Х - число наступлений события А в n испытаниях.P (X = k) = Cnk pk (1 − p)n−kПусть с каждым i-ым испытанием связана случайная величина Yi .(1 если на i-ом испытание - АYi =0 иначеP (Yi = 1) =?P (Yi = 1) = p(A) = pX = Y1 +P. .
. + Ynn⇒ EX = i EYi = npОпределение 4.2. Моментом к-ого порядка случайной величины Х называется математическое ожидание EX k (если оно существует).Определение 4.3. Центральным моментом порядка к называется E(X−EX)k .X − EX - центрирование математического ожидания EX, или отклонение.E(X − EX) = EX + E(−EX) = EX − EX = 0, так как EX - константа.4.1 Математическое ожидание21Определение 4.4. Абсолютным моментом к-ого порядка называетсяматематическое ожидание E|X|k .EX k существует ⇔ существует E|X|k .Пусть k>n и существует EX k . Следует ли из этого, что существуетnEX ? Да, так как для любого x ∈ R и любых натуральных k и n (k>n)справедливо: |x|n ≤ |x|k + 1, E|x|n ≤ E(1 + |x|k ) ⇒ E|x|n ≤ E|x|kОпределение 4.5. Дисперсией случайной величины Х называется центральный момент второго порядка DX = E(X − EX)2 .E(X −EX)2 - характеристика разброса случайной величины относительноматематического ожидания.√Стандартное (средне-квадратическое) отклонение: σ = DX.Свойства дисперсии:1.
Dc = 02. DX ≥ 03. D(X + c) = DX4. D(cX) = c2 DXПусть случайные величины X и Y дискретны с набором x1 , x2 , . . . иy1 , y2 , . . .. X и Y называются независимыми, если для любых i и j события{X = xi } и {Y = yj } независимы.Определение 4.6. Случайные величины {Xi }i∈ I , где I - конечно илисчетно, называются независимыми, если независимы случайные события {{Xi = xij }i∈ I }, где {xij } - произвольный набор значений случайнойвеличины {Xi }.Theorem 4.1. Пусть X1 , . .
. , Xk , Y1 , . . . , Yn - независимые случайные величины и g, f - измеримые функции; g : Rk → R, f : Rn → R. Тогдаслучайные величины g(X1 , . . . , Xk ), f (Y1 , . . . , Yn ) независимы.Доказательство. Пусть A = {ω : g(X1 (ω), . . . , Xk (ω)) = a}, B = {ω :f (Y1 (ω), . .
. , Yn (ω)) = b}; докажем, что P (ab) = P (a)P (b).A = {ω : (X1 , . . . , Xk ) ∈ g −1 (a)}B = {ω : (Y1 , . . . , Yn ) ∈ f −1 (b)}Предположим, что D и T - некоторые счетные множества в Rk и Rn соответственно.SPP (X ∈ D, Y ∈ T ) = P ( d∈D,t∈T (X = d, Y = t)) = d∈D,t∈T P (X = d, Y =PPPt) = d∈D,t∈T P (X = d)P (Y = t) = d∈D P (X = d) t∈T P (Y = t) =P (X ∈ D)P (Y ∈ T )⇒ A и B независимы.Теорема доказана.7.
(свойство математического ожидания)Если случайные величины X и Y независимы и существует математическое ожидание каждой из этих величин, тогда E(XY ) = EXEY .224 Лекция 4Доказательство. Пусть x1 , x2 , . . . , y1 , y2 , . . . - значения случайных величин X и Y соответственно.PA{ω : X(ω) = xi }, Bj = {ω : YP(ω) = yj } E(XY ) =P ω∈Ω X(ω)Y (ω)P (ω) =Pi =PX(ω)Y (ω)P (ω) = i,j xi yj P (Ai Bj ) = i,j xi yj P (Ai )P (Bj ) =jPi,j ω∈Ai BPxP(A)ii ij yj P (Bj ) = EXEYRemark 4.1. Если существует n независимых случайных величинTn и длякаждойизнихсуществуетматематическоеожидание,тогдаE(i=1 Xi ) =QnEX.ii=15.
(свойство дисперсии)Пусть существует дисперсия двух независимых случайных величин X иY. Тогда D(X + Y ) = DX + DYДоказательство. D(X + Y ) = E(X − EX + Y − EY )2 = E((X − EX)2 +2(X − EX)(Y − EY ) + (Y − EY )2 ) = E(X − EX)2 + 2E[(X − EX)(Y − EY )] +E(Y − EY )2 = E(X − EX)2 + E(Y − EY )2 = DX + DYтак как (X −EX) и (Y −EY ) независимые случайные величины ⇒ E[(X −EX)(Y − EY )] = E(X − EX)E(Y − EY ) = 0.Remark4.2. Если X1 , . . .
, Xn - независимы и ∃DXi ⇒ D(X1 + . . . + Xn ) =PnDXi.i=1Найдем дисперсию биномиального распределения. Х - число успехов в nиспытаниях Бернулли.X ∼ BiP(n, p); EX = np; X = Y1 + . . . + Yn ; {Yi }ni=1 являются независимыми.nDX = i=1 DYi = nDY1Предлагается самостоятельно доказать несложное равенство - DX =E(X 2 ) − (EX)2DY1 = {EX = E(X 2 ) = p} = p − p2 = p(1 − p) ⇒ DX = np(1 − p)Определение 4.7. Ковариацией случайных величин Х и Y называетсяматематическое ожидание от [(X − EX)(Y − EY )]cov(X, Y ) = E[(X − EX)(Y − EY )]Если Х и Y независимы, то ковариация равна нулю; если же X=Y, токовариация равна дисперсии.cov(cX, Y ) = c · cov(X, Y )Определение 4.8. Коэффициентом корреляции случайных величин X иY называетсяcov(X, Y )√ρ(X, Y ) = √DX DYρ(X, Y ) - характеристика зависимости, устойчивая к масштабным изменениям.4.1 Математическое ожидание23Свойства коэффициента корреляции:1.
Если Х и Y независимы, то ρ(X, Y ) = 0.Но в общем случае из ρ(X, Y ) = 0 не следует независимость случайныхвеличин.2. |ρ(X, Y )| ≤ 1Доказательство. Рассмотрим сначала частный случай, когда EX = EY =0 ⇒ cov(X, Y ) = E(XY ). Для ∀ a ∈ R имеем:0 ≤ E(X − aY )2 = E(X 2 ) − 2aE(XY ) + a2 E(Y 2 )(E(XY ))2 −E(X 2 )E(Y 2 ) ≤ 0 - условие положительности для ∀ a; |E(XY )| ≤√DXDY⇒ |ρ| ≤ 1В общем случае: X, Y → X 0 = X −EX, Y 0 = Y −EY . Для X 0 , Y 0 проводиманалогичные выкладки.3. Если |ρ| = 1, то Х и Y линейно зависимы (почти наверно).Доказательство. Рассмотрим частный случай: EX = EY = 0, |ρ| = 1.Из доказательства свойства 2 следует, что существует a0 такая, чтоE(X − a0 Y )2 = 0 ⇒ X − a0 Y = 0 ⇒ X = a0 Y почти наверно.Общий случай сводится к частному путем перехода к X 0 = X − EX, Y 0 =Y − EY.Зависимость, определяемая коэффициентом, статистическая, а не причинная.Определение 4.9.
Случайные величины называются некоррелированными, если ρ = 0.Аддитивность дисперсии имеет место при некоррелированности слагаемых.4.1.1 Неравенство МарковаПусть ∃ EX, тогда для ∀ a > 0 P (|X| ≥ a) ≤ E|X|a .Данное неравенство грубое, но точное, то есть существует случайная величина, для которой будет выполнено равенство.Доказательство. |X| = |X|· 1 = |X|(I{|X|≥a} +I{|X|<a} ) ≥ |X|· I{|X|≥a} ≥a · I{|X|≥a}E|X| ≥ a · EI{|X|≥a} = a · P (|X| ≥ a) ⇒ P (|X| ≥ a) ≤ E|X|aЧто и требовалось доказать.244 Лекция 44.1.2 Неравенство ЧебышеваПусть ∃ DX, тогда для ∀ a > 01)P (|X − EX| ≥ a) ≤ DXa22)P (|X − EX| < a) ≥ 1 − DXa2Доказательство.
P (|X − EX| ≥ a) = P (|X − EX|2 ≥ a2 ) ≤DXa2 (по неравенству Маркова).Что и требовалось доказать.E|X−EX|2a2=Рассмотрим множество, определенное неравенством 2)Пусть a = 3σ, тогда действует правило трех сигм: для любой случайнойвеличины Х ее значение находится на интервале ± 3σ с вероятностьюболее 8/9.Theorem 4.2 (Теорема Чебышева). Пусть X1 , X2 , .
. . независимы иDXi ≤ c < ∞. Тогда для ∀ ε > 0lim P (|n→∞EX1 + . . . + EXnX1 + . . . + Xn−| ≤ ε) = 1nnnnДоказательство. Пусть Y = X1 +...+X, DY = DX1 +...+DX≤ nnc2 = nc .nn2Используем второе неравенство Чебышева: P (|Y − EY | < a) ≥ 1 − DYa2 .Таким образом, a = ε, дисперсия ограничена величиной, стремящейся кнулю при n → ∞, следовательно вероятность данного события стремитсяк единице. Теорема доказана.Theorem 4.3 (Теорема Бернулли - закон больших чисел). ПустьSn - число успехов в n испытаниях Бернулли с вероятностью успеха pв одном испытании. Тогда для ∀ ε > 0Snlim P (|− p| < ε) = 1n→∞nДля доказательства достаточно использовать теорему Чебышева Sn =Y1 + .
. . + Yn .Теорема позволяет находить вероятность p, зная Sn по числу экспериментов. Фактически, Sn /n - относительная частота событий, основанная настатистических данных.Theorem 4.4 (Теорема Пуассон). Пусть Sn - число успехов в n испытаниях Бернулли с вероятностью успеха pn и npn → a при n → ∞.kТогда для любого фиксированного k = {0, 1, 2, . . .} P (Sn = k) → ak! e−aДоказательство. Для удобства записи опустим индекс n у pn , тогдаkn!P (Sn = k) = Cnk pk (1 − p)n−k = k!(n−k)!pk (1 − p)n−k = pk! n(n − 1) .