Краткий курс лекций (1077551), страница 6
Текст из файла (страница 6)
2402.11.2005Основы теор. вер. и матем. статистикиДоцент кафедры «Прикладная математика» Галкин С.В.Свойства математического ожиданияMC = C ( MC =1.+∞ +∞+∞ +∞− ∞− ∞− ∞− ∞∫ ∫ Cp(x, y )dxdy = C ∫ ∫ p(x, y )dxdy = CM ( X + Y ) = M ( X ) + M (Y )2.M (X + Y ) =по условию нормировки)+∞ +∞+∞ +∞+∞ +∞− ∞− ∞−∞ −∞−∞ −∞+∞∫ ∫ (x + y ) p(x, y )dxdy = ∫ x ∫ p(x, y )dy dx + ∫ y ∫ p(x, y )dx dy =+∞∫ xp (x )dx + ∫ yp ( y )dy = M ( X ) + M (Y )X−∞Y−∞M ( XY ) = M ( X )M (Y ) для независимых случайных величин.3M ( XY ) =+∞ +∞+∞ +∞− ∞− ∞− ∞− ∞+∞∫ ∫ (xy ) p(x, y )dxdy = ∫ ∫ (xy ) p (x ) p ( y )dxdy =XM ( X )M (Y ) .+∞∫ xp (x )dx ∫ yp ( y )dy =YX−∞Y−∞Ковариация (корреляционный момент).Ковариацией случайных величин называют cov( X , Y ) = M (( X − MX )(Y − MY )) .Свойства ковариации.1.
cov( X , Y ) = M ( XY ) − M ( X )M (Y )cov( X , Y ) = M (( X − M ( X ) )(Y − M (Y ) ) = M ( XY − M ( X )Y − XM (Y ) + M ( X )M (Y )) =M ( XY ) − M ( X )M (Y ) − M ( X )M (Y ) + M ( X )M (Y ) = M ( XY ) − M ( X )M (Y )2. cov( X , X ) = D( X )По свойству 1 cov( X , X ) = M X 2 − ( M ( X )) 2 = D( X )3. Если X, Y независимы, то cov( X , Y ) = 0 , (обратное неверно).Если случайные величины независимы, то M ( XY ) = M ( X )M (Y ) , тогда по свойству 1cov( X , Y ) = 0 .Случайные величины называются некоррелированными, если cov( X , Y ) = 0 , изнекоррелированности не следует независимость, из независимости следуетнекоррелированность.4. cov((aX + b ), (cY + d )) = ac cov( X , Y )По свойству 1cov((aX + b ), (cY + d )) = M ((aX + b )(cY + d )) − M (aX + b )M (cY + d ) =acM ( XY ) + bcM (Y ) + adM ( X ) + bd − acM ( X )M (Y ) − bcM (Y ) − daM ( X ) − bd = =ac(M ( XY ) − M ( X )M (Y )) = ac cov( X , Y )( )cov( X , Y ) ≤ D( X )D(Y )5.Рассмотрим случайную величину z = aX + Y .
D( z ) = D(aX + Y ) =M [(aX + Y ) − M (aX + Y )] = M [a ( X − M ( X )) + (Y − M (Y ))] =M a 2 ( X − M ( X )) 2 + 2a( X − M ( X ))(Y − M (Y )) + (Y − M (Y )) 2 =a 2 D( X ) + 2a cov( X , Y ) + D(Y ) .Заметим, что отсюда следует свойство дисперсии (при a =1)D( X + Y ) = D( X ) + 2 cov( X , Y ) + D(Y ) .22[]стр.
2502.11.2005Основы теор. вер. и матем. статистикиДоцент кафедры «Прикладная математика» Галкин С.В.Так как D( z ) ≥ 0 , то a D( X ) + 2a cov( X , Y ) + D(Y ) ≥ 0 . Это возможно только, еслидискриминант этого квадратного трехчлена относительно a меньше или равен нулю.Выпишем это требование к дискриминанту:4a 2 (cov( X , Y )) 2 − 4a 2 D( X ) D(Y ) ≤ 0 . Отсюда следует свойство 5.6. Для того, чтобы случайные величины были линейно зависимы (Y = aX +b),необходимо и достаточно, чтобы cov( X , Y ) = D( X ) D(Y )2Необходимость.ПустьY=aX+b.2222D(Y ) = M (((aX + b) − (aM ( X ) + b)) ) = M (a ( X − M ( X )) ) = a D( X )cov( X , Y ) = M (( X − M ( X ))(Y − M (Y ))) = M (( X − M ( X ))(aX + b − aM ( X ) − b) =ТогдаaM (( X − M ( X )) 2 ) = aD( X ) = D( X ) a 2 D( X ) = D( X ) D(Y )Достаточность.
Пустьcov( X , Y ) = D( X ) D(Y ) . Тогда (доказательство свойства 5)D( z ) = D(aX + Y ) = 0,следовательно, z - детерминированнаяaX + Y = const , поэтому величины X, Y – линейно зависимы.cov( X , Y )Коэффициентом корреляции называется ρ =.D( X ) D(Y )величина,т.е.Свойства коэффициента корреляции.1.2.3.4.5.ρ (X , X ) = 1Если X, Y – независимы, то ρ ( X , Y ) = 0ρ (aX + b, cY + d ) = sign(ac) ρ ( X , Y )− 1 ≤ ρ (X ,Y ) ≤ 1ρ ( X , Y ) = 1 тогда и только тогда, когда X,Y линейно зависимы.Двумерное равномерное распределениеСлучайный вектор (X, Y) равномерно распределен в области D (площадь D равна S), еслиего плотность распределения задана так: p(x,y) = 0, если x ∉ D, p(x,y) = 1/S, если x∈D.Пример. Случайный вектор (X,Y) равномерно распределен в прямоугольнике 0≤x≤a,0≤x≤b.abb1aM (X ) =dx ∫ xdy = , аналогично M (Y ) = .∫2ab 0 02aM (X 2 ) =bb21a222MY=.,аналогично()dxxdy=3ab ∫0 ∫03a2 a2 a2b2D( X ) = M ( X ) − ( M ( X )) =−=, аналогично D(Y ) =.34 1212ab11 a 2 b 2 abM ( XY ) =dxxydy==ab ∫0 ∫0ab 2 2422ababab ab a b b a abcov( X , Y ) = M (( X − )(Y − )) = M ( XY ) − M (Y ) − M ( X ) +=−−+=0222244 22 22 4Следовательно, случайные величины X, Y не коррелированны.стр.
2602.11.2005Основы теор. вер. и матем. статистикиДоцент кафедры «Прикладная математика» Галкин С.В.Двумерное нормальное распределениеДвумерная случайная величина (X,Y) распределена нормально со средними значениямиm, m2, дисперсиями σ 12 , σ 22 и коэффициентом корреляции ρ , если ее плотность задана:p ( x, y ) =12πσ 1σ 22 − 1 ( x − m1 )2(x − m1 )( y − m2 ) ( y − m2 )+ 2ρ+exp22σ 1σ 2σ 22 2(1 − ρ ) σ 11− ρ 2Задача линейного прогноза.m1 , m2 , σ 1 , σ 2 , ρ случайного вектора ( X 1 , X 2 ) . Вводится~случайная величина – оценка X = aX 1+b - линейный прогноз. Вычислить a, b , чтобылинейный прогноз был наилучшим среднеквадратическим (в смысле минимума погрешности~оценки: M (( X − X 2 ) 2 ) → min ).~~~~~~M (( X − X 2 ) 2 ) = D( X − X 2 ) + (M ( X − X 2 ))2 = D( X ) − 2 cov(X , X 2 ) + D( X 2 ) + ((M ( X ) − M ( X 2 ))2 =a 2σ 12 − 2aρσ 1σ 2 + σ 22 + (am1 + b − m2 ) 2 .За счет выбора b можно лишь минимизировать последнее слагаемое, сделав его нулем:b = m2 − am1 .Теперь остается обеспечить минимум квадратного трехчлена от a (найти вершинуЗаданы характеристикипараболы): a = −b = m2 − ρ− 2 ρσ 1σ 2σ= ρ 2 .
Подставляя это значение, найдем2σ12σ 1σ2m1 . Вычислим погрешность оценки при этих значениях параметровσ1σσ~M (( X − X 2 ) 2 ) = ( ρ 2 ) 2 σ 12 − 2 ρ 2 2 σ 1σ 2 + σ 22 = σ 22 (1 − ρ 2 ) .σ1σ1При линейной зависимости X 1 , X 2(ρ= 1) оценка точна, погрешность равна нулю.Чем меньше коэффициент корреляции, тем грубее оценка. В крайнем случае, при~~отсутствии корреляции ( ρ = 0 ) a = 0, b = m2 , X = m2 , M (( X − X 2 ) 2 ) = σ 22 .Лекция 7Законы больших чисел и центральная предельная теорема.Неравенства Чебышева.Первое неравенство Чебышева. Пусть случайная величина X≥0 и существует еематематическое ожидание M(X). Тогда для любого ε>0 выполнено первое неравенствоЧебышеваM (X )P( X ≥ ε ) ≤.εДоказательство.
В дискретном случаеnM ( X ) = ∑ xk P( X = x k ) ≥k =1∑( x k ≥ε )x k Pk ≥ ε∑P( x k ≥εk= εP ( X ≥ ε ) .В непрерывном случаестр. 2702.11.2005Основы теор. вер. и матем. статистикиM (X ) =Доцент кафедры «Прикладная математика» Галкин С.В.+∞∫ xp( x)dx ≥ ∫εxp( x)dx ≥ ε ∫εxp( x)dx ≥ εP( x ≥ ε ) .−∞( x≥ )( x≥ )Второе неравенство Чебышева. Пусть существуют математическое ожидание идисперсия случайной величины M ( X ) = m, D( X ) = D .
Тогда для любого α > 0 выполненовторое неравенство ЧебышеваDP( X − m ≥ α ) ≤ 2 .αДоказательство проведем для непрерывного случая, для дискретного случая онодоказывается аналогично.+∞D = ∫ ( x − m) 2 p( x)dx =−∞+∞∫ x−m−∞2p( x)dx ≥∫ α x−m2p( x)dx ≥ α 2x −m ≥∫ pα(x)dx ≥ α2P( X − m ≥ α )x −m ≥Последовательность случайных величин сходится по вероятности к числуP{X n } →a , если ∀ε > 0, δ > 0 ∃N (ε , δ ) : ∀n > N ⇒ P( X n − a < ε ) > 1 − δ .()aЗаконы больших чисел.Законы больших чисел могут быть записаны в разных формах, но суть их состоит в том,что при большом числе случайных явлений их средний результат практически перестает бытьслучайным.Теорема Чебышева(Закон больших чисел в форме Чебышева)При достаточно большом количестве независимых опытов среднее арифметическоенаблюденных значений случайной величины сходится по вероятности к ее математическомуожиданию.n∑Xk =1nkn→∞P→m.n∑XkmnnD( X ) D= m, D(Y ) == .nnnn2D(Y )DТогда по второму неравенству Чебышева P (Y − m ≥ ε ) ≤ 2 = 2 .εnεDDD<=δ ,Если выбрать N = E ( 2 ) , ( E ( ) - целая часть), то при n>N будет2nεδεNε 2следовательно, при n>N будет выполнено неравенство P{Y − m ≥ ε } < δ , поэтому при тех жеДоказательство.
Рассмотрим Y =значениях nk =1, M (Y ) =будет P{Y − m < ε } ≥ 1 − δ .nСледовательно,∑Xk =1nkn→∞P→m . Теорема Чебышева доказана.Обобщенная теорема Чебышева.Xn – независимые случайные величины с математическими ожиданиямиПусть X1,m1,…mn и дисперсиями D1…, Dn. Пусть дисперсии ограничены в совокупности (Dk < L, kстр. 2802.11.2005Основы теор. вер. и матем. статистикиДоцент кафедры «Прикладная математика» Галкин С.В.1,2…n). Тогда среднее арифметическое наблюденных значений случайных величин сходится повероятности к среднему арифметическому их математических ожиданий.∑k X k P ∑k mk→nnnДоказательство.Рассмотрим, как в предыдущей теореме Y =∑Xk =1nnk. M (Y ) =∑mk =1nk, nD ∑ X k 1122D(Y ) = k =12 = 2 M (∑ X k − M (∑ X k ) ) = 2 M (∑ ( X k − M ( X k )) ≤nnn122M ∑ ( X k − M ( X k ) ) + 2 ∑ ( X p − M ( X p ))( X k − M ( X k ))) =n2n p<k(случайные величины независимы, следовательно, и не коррелированны)11Ln L2→ 0 .