Ульянов (новое издание) (1115355), страница 10
Текст из файла (страница 10)
ожидания.394.2.3Мат. ожидание биномиально распределённой случайнойвеличиныПример. Пусть X — случайная величина, имеющая биномиальное распределениес параметрами n и p. Вычислим мат. ожидание X. Попытка прямого вычисленияприведёт к небольшим трудностям:EX =nXCnk kpk (1 − p)n−k =k=0=nXk=1npk=1= npnXnXn!pk (1 − p)n−k(n − k)!(k − 1)!(n − 1)!pk−1 (1 − p)(n−1)−(k−1)((n − 1) − (k − 1))!(k − 1)!k−1 k−1Cn−1p (1 − p)(n−1)−(k−1) = npn−1XmCn−1pm (1 − p)(n−1)−mm=0k=1n−1= np(p + (1 − p))= np,а небольшие трудности всегда приятней обойти. Представим лучше X в виде суммыиндикаторов успехов на i-том шаге.
Иными словами, X = I1 + I2 + I3 + . . . + In .Почему так можно поступить, объясняется на с.32. Мат. ожидание каждого индикатора равно вероятности того, что произошёл «успех», то есть p. Всего индикаторовn штук и мат. ожидание их суммы равно сумме их мат. ожиданий. Так что легко ипросто получаемEX =nXEIi =i=14.3nXp = np.i=1Моменты и центральные моменты k-го порядкаОпределение 4.3. Моментом k-го порядка случайной величины X, k ∈ N,называется математическое ожидание случайной величины X k .Определение 4.4.
Центральным моментом k-го порядка случайной величины X, где k ∈ N, называется математическое ожидание случайной величины(X − EX)k .Если возникает вопрос о том, с чего вдруг X k и (X − EX)k будут случайнымивеличинами, следует обратиться к замечанию на с.30.Замечание. Центральный момент первого порядка всегда равен нулю:E(X − EX) = EX − EEX = EX − EX = 0.Нередко бывает удобно чтобы на месте мат. ожидания какой-нибудь случайной величины оказался ноль. И тогда случается так, что вместо исходной случайной величины Y в таких случаях рассматривают случайную величину Y − EY , мат. ожиданиекоторой — ноль.
Такой ход называется центрированием, а случайная величинаY − EY — центрированной.Утверждение 4.1. Пусть существует момент n-го (n ∈ N) порядка случайнойвеличины X. Тогда ∀ k ∈ N : k < n существует момент k-го порядка случайнойвеличины X.40Доказательство. Поскольку для существования мат. ожидания ряд (из определения мат. ожидания) должен сходиться абсолютно, то существует E|X|n . Тогда всилу факта ∀ y ∈ R |y|k 6 |y|n + 1 имеем |X|k 6 |X|n + 1, а это — оценка членовнеотрицательного ряда сверху членами сходящегося.
Так что получаем, что мат.ожидание |X|k тоже существует.4.4Дисперсия и её свойстваОпределение 4.5. Дисперсией случайной величины X называется её центральный момент второго порядка:DX = E(X − EX)2 .Дисперсия характеризует разброс случайной величины X относительно своегомат. ожидания. Что замечательно, маленькие отклонения возводятся в квадрат истановятся от того ещё меньше, а большие — наоборот, увеличиваются. В экономических моделях эта конструкция встречается под именем «волатильность».1◦ . Дисперсия константы равна нулю: DC ≡ 0.Доказательство.DC = E(C − EC)2 = EC 2 − 2E(CEC) + E(EC)2 = EC 2 − 2E(C 2 ) + E(C 2 ) = 0.2◦ .
Изменение случайной величины на константу не влияет на её дисперсию:D(X + C) = DX.Доказательство.D(X + C) = E(X + C − E(X + C))2 = E(X − EX + C − EC)2= E(X − EX + C − C)2 = E(X − EX)2 = DX.3◦ . Константа выносится из-под знака дисперсии с квадратом:D(CX) = C 2 DX.Доказательство.D(CX) = E(CX − E(CX))2 = E(CX − CEX)2 = E(C(X − EX))2= E(C 2 (X − EX)2 ) = C 2 E(X − EX) = C 2 DX.4◦ . Для любой случайной величины XDX > 0.Доказательство. Дело в том, что ряд из определения дисперсии абсолютно сходится и состоит из неотрицательных членов.5◦ .
Пусть X и Y — две независимых случайных величины. Тогда если существуют их дисперсии по отдельности, то существует дисперсия суммы, равная суммедисперсий по отдельности, то естьX, Y — независимы и ∃ DX, ∃ DY =⇒ ∃ D(X + Y ) = DX + DY.41Доказательство.D(X + Y ) = E(X + Y − E(X + Y ))2= E((X − EX)2 + (Y − EY )2 + 2E(X − EX)(Y − EY )).Поскольку X − EX и Y − EY — измеримые функции от независимых случайныхвеличин X и Y , то они — сами независимые случайные величины. ТогдаE((X − EX)2 + (Y − EY )2 + 2E(X − EX)(Y − EY )) = DX + DY+ 2E(X − EX)E(Y − EY )= DX + DY,потому что центральный момент первого порядка всегда нулевой. Кстати, в этомдоказательстве не использовалась в явном виде дискретность X и Y , которая скрывается пока что за фактом мультипликативности мат.
ожидания. Но когда последнийфакт будет доказан для более общего случая случайных величин, это доказательствоаддитивности дисперсии автоматически перейдёт на этот более общий случай.Следствие 4.1 (Аддитивность дисперсии). Пусть Y1 , Y2 , . . . , Yn — независимыеслучайные величины. Тогда если для каждой из них существует дисперсия, тосуществует дисперсия их суммы, равная сумме их дисперсий. То есть:Y1 , Y2 , .
. . , Yn — независимы и ∃ DY1 , ∃ DY2 , . . . , ∃ DYn⇓∃ D(Y1 + Y2 + . . . + Yn ) = DY1 + DY2 + . . . + DYn .Доказательство. Доказательство — привычная мат. индукция. База только чтобыла доказана, предположение имеется в условии следствия, а дальше простой индукционный переход: за X1 надо взять Y1 + Y2 + .
. . + Yn , за X2 — Yn+1 . Нужно незабыть заметить, что X1 и X2 — независимые случайные величины, что у них существуют дисперсии (у X1 — по предположению индукции), и применить для нихбазу.Замечание. В реальных условиях большое количество независимых случайных величин — это ненормально.
Как минимум, подозрительно!Замечание. Часто используется преобразованный вид дисперсии, а именно:DX = E(X − EX)2 = E(X 2 − 2XEX + (EX)2 ) = E(X 2 ) − 2E(XEX) + E(EX)2= E(X 2 ) − 2(EX)2 + (EX)2 = EX 2 − (EX)2 .4.4.1Дисперсия биномиально распределённой случайной величиныПример. Вычислим дисперсию случайной величины, имеющей биномиальное распределение с параметрами n и p. Мат.
ожидание вычислено на с.39 и равно оно np.Попытка прямого вычисления дисперсии приводит к более серьёзным трудностям,которые вновь обходятся с помощью индикаторов. Пусть Ii , 1 6 i 6 n — индикатор успеха в i-том испытании Бернулли, эти n индикаторов независимы (переход ♣)и одинаково распределены (переход ♠). Заметим, кроме того, что квадрат любогоиндикатора всегда точно равен самому индикатору (переход z). Тогда♣♠DX = D(I1 + I2 + . . . + In ) = DI1 + DI2 + .
. . + DIn = nDI1z= nE(I1 − EI1 )2 = n(EI12 − (EI1 )2 ) = n(EI1 − (EI1 )2 ) = n(p − p2 ).424.4.2Среднеквадратичное отклонениеОпределение 4.6. Среднеквадратичным отклонением называется квадратный корень из дисперсии.Все свойства среднеквадратичного отклонения вытекают из свойств дисперсии.Оно нелинейно: константу приходится выносить с модулем, отклонение суммы вобщем случае не равно сумме отклонений. Зато размерность его совпадает с размерностью исходной случайной величины. Нужно это для того, чтобы экспериментатор после проведения измерений мог вычислить величину отклонения и сравнить еёсо средней величиной своих результатов. Дальше, получив относительную погрешность, он может принимать решение о том, верить своим результатам или нет.4.5Ковариация и коэффициент корреляцииОпределение 4.7.
Пусть заданы две случайных величины, имеющих мат. ожидание: X и Y . Ковариацией случайных величин X и Y называется числоcov(X, Y ) = E((X − EX)(Y − EY )).Полезно провести небольшие преобразования выражения в определении:cov(X, Y ) = E((X − EX)(Y − EY )) = E(XY − Y EX − XEY + EXEY )= EXY − EY EX − EXEY + EXEY = EXY − EXEY.Замечание.
Ковариация не изменяется при изменении случайных величин на константы:cov(X + CX , Y + CY ) = E((X + CX )(Y + CY )) − E(X + CX )E(Y + CY )= E(XY + Y CX + XCY + CX CY ) − E(X + CX )E(Y + CY )= EXY − EXEY = cov(X, Y ).Теперь очевидно, что ковариация независимых случайных величин равна нулю.Обратное, во-первых, почти верно, а во-вторых, в прикладных областях.Пример. Из равенства нулю ковариации случайных величин не следует их независимость.
Пример будет следующий: рассмотрим конечное вероятностное пространство Ω = {0, 1, 2, 3, 4, 5, 6, 7, 8} с равновероятными элементарными исходами. Рассмотрим случайные величиныπωπωX = sin( ) и Y = cos( ) :44Их мат. ожидания равны нулю, выясним мат. ожидание их произведения:πωπω1πω11111EXY = E(sin( ) cos( )) = E sin( ) = (0 + + 0 − + 0 + + 0 − + 0) = 04422182222Так что EXY = EXEY и ковариация их равна нулю. Однако события X и Y зависимы: рассмотрим события A и B:11A = {ω : X = √ }, B = {ω : Y = √ }.222241P(A) = , P(B) = =⇒ P(A) P(B) = , но P(AB) = 6= P(A) P(B).99819Так что равенство нулю ковариации слабее независимости.43Дисперсия суммы двух случайных величин в общем случае имеет следующийвид:D(X + Y ) = E((X − EX) + (Y − EY ))2 = DX + DY + 2E((X − EX)(Y − EY ))= DX + DY + 2 cov(X, Y ).Выражение для большего количества слагаемых получается точно так же — нужнораскрыть квадрат и собрать нужные слагаемые.
Сама дисперсия случайной величины X выражается как cov(X, X).Раз из независимости случайных величин следует равенство нулю ковариации,то из неравенства нулю ковариации следует зависимость случайных величин. Этонаводит на мысль о том, что величина ковариации характеризует меру зависимостислучайных величин. Однако от умножения на константу (не равную нулю) зависимость случайных величин не изменяется никак, а вот ковариацию можно сделать(если она не равна нулю) любым числом, а именно:cov(CX, Y ) = ECXY − ECXEY = C(EXY − EXEY ) = C cov(X, Y ).Так что чтобы спасти возникшую мысль, ковариацию необходимо нормировать.Определение 4.8.
Коэффициентом корреляции случайных величин X и Y , имеющих дисперсии, не равные нулю, называется числоcov(X, Y )ρ(X, Y ) = √.DXDYЗамечание. Если дисперсия случайной величины равна нулю, то эта случайнаявеличина с вероятностью 1 равна своему мат. ожиданию, т.е. является константой свероятностью один. Для характеристики независимости случайной величины с такойконстантой коэффициент корреляции не нужен. На с.33 всё и без него ясно.Коэффициент корреляции лучше ковариации тем, что от умножения случайныхвеличин на константы его модуль не изменяется:cov(aX, bY )ab cov(X, Y )ab∀ a, b ∈ R : ab 6= 0 ρ(aX, bY ) = √==ρ(X, Y ).|ab|DXDY|ab|DaXDbY4.5.1Свойства коэффициента корреляции1◦ .
Коэффициент корреляции независимых случайных величин равен нулю.Доказательство. В числителе дроби, которой равен коэффициент корреляции,окажется ноль. В знаменателе нуля быть не должно, это обеспечивается определением.2◦ . Для любых двух случайных величин (для которых выполнены условия определения) их коэффициент корреляции по модулю не превосходит единицы.Доказательство. Обозначим эти две случайные величины как X и Y и центрируем: Xc = X − EX и Yc = Y − EY . Недавно показывалось, что cov(X, Y ) = cov(Xc , Yc ),а что дисперсия случайной величины не меняется от смещения случайной величинына константу — ещё раньше (если это уже забыто, то можно вспомнить о фактеDX = cov(X, X) = cov(X + C, X + C) = D(X + C)).
Так что центрирование никак44не повлияет и на коэффициент корреляции. Понадобятся следующие соотношения,оба из которых вытекают из того, что EXc = EYc = 0:DXc = EXc2 − (EXc )2 = EXc2 , DYc = EYc2 , cov(Xc , Yc ) = E(Xc Yc ) − EXc EYc = E(Xc Yc ).Далее идут те же рассуждения, что часто используются при доказательстве неравенства Коши-Буняковского:∀ a ∈ R 0 6 D(Xc − aYc ) = E(Xc − aYc )2 − (E(Xc − aYc ))2 = E(Xc − aYc )2 .Полученное неравенство можно рассматривать как квадратное неравенство относительно a, а именноE(Xc − aYc )2 = EXc2 − 2aE(Xc Yc ) + a2 EYc2 > 0.Поскольку верно это для любого a, то дискриминанту нельзя ни в коем случае бытьбольше нуля. То есть:pp(E(Xc Yc ))2 − EXc2 EYc2 6 0 ⇐⇒ |E(Xc Yc )| 6 EXc2 EYc2 ⇒ | cov(Xc , Yc )| 6 DXc DYc .Поскольку стирание индексов c никаких значений в последнем выражении не изменит, то получено то, что сформулировано в условии.3◦ .
Если |ρ(X, Y )| = 1, то с вероятностью один X и Y линейно выражаются другчерез друга. То есть,|ρ(X, Y )| = 1 =⇒ ∃ b 6= 0, c ∈ R : P(X − bY = c) = 1.Доказательство. Доказательство этого свойства целиком опираетсяна доказа√тельство предыдущего: если выполнилось равенство | cov(X, Y )| = DXDY , то квадратное неравенство относительно a может обращаться в равенство при некоторомa = b. Но это равенство означает, что равна нулю D(X − bY ), а это сразу говорит отом, что с вероятностью один X − bY равна константе. Обозначим эту константу заc и получим то, что нужно было доказать.Выражаясь нестрого, чем ближе модуль коэффициента корреляции к единице,тем сильнее зависимость между случайными величинами.