_учебник_ Теория вероятности. Н.И. Чернова. 2007 (1185320), страница 19
Текст из файла (страница 19)
Коэффициент корреляции обладает свойствами:1) если ξ и η независимы, то ρ(ξ, η) = 0;2) всегда |ρ(ξ, η)| 6 1;3) |ρ(ξ, η)| = 1 тогда и только тогда, когда ξ и η п. н. линейно связаны, т. е. существуют числа a 6= 0 и b такие, что P(η = aξ + b) = 1.Д о к а з а т е л ь с т в о. Свойство (1) мы уже много раз (сколько?) упоминали и один раз доказали. Более того, при рассмотрении свойств математического ожидания мы привели примеры 49 и 50 — два из многихвозможных примеров того, что свойство (1) в обратную сторону неверно.ξ − EξслуДокажем свойство (2).
Рассмотрим преобразование bξ = √Dξчайной величины, называемое стандартизацией. Случайная величина bξимеет нулевое математическое ожидание и единичную дисперсию:ξ − EξE bξ = E √Dξ=Eξ − Eξ√= 0;Dξξ − EξD (ξ − E ξ)= 1.E bξ 2 = D bξ = D √=DξDξКоэффициент корреляции теперь запишется проще: ρ(ξ, η) = E bξ · bη .Далее, неравенство (x ± y)2 > 0 равносильно неравенству12− (x2 + y 2 ) 6 xy 61 2(x + y 2 ).2Подставив в него bξ вместо x, bη вместо y и взяв математические ожидания всех частей неравенства, получим свойство (2):11η 2 6 ρ(ξ, η) = E bξ·bη 6E bξ 2 + bη 2 = 1.
(20)− 1 = − E bξ 2 + b22Докажем свойство (3). В одну сторону утверждение проверяется непосредственно: если η = aξ + b, то(1, a > 0,aD ξE (ξ(aξ + b)) − E ξ · E (aξ + b)√ √ρ(ξ, aξ + b) == √ √ 2=Dξ a DξD ξ D (aξ + b)−1, a < 0.106ГЛАВА IX. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ЗАВИСИМОСТИДокажем вторую часть свойства (3): если |ρ(ξ, η)| = 1, то существуютчисла a 6= 0 и b такие, что P(η = aξ + b) = 1. Рассмотрим сначала случай ρ(ξ, η) = ρ bξ, bη = 1. Тогда второе неравенство в формуле (20) превращается в равенство:21E bξ · bη = E bξ2 + bη 2 , т. е.
E bξ−bη = 0.2Если математическое ожидание неотрицательной случайной величины22bξ − bηравно нулю, то bξ − bη= 0, п. н. Поэтому с единичной вероятностьюη − Eηξ − Eξp= √,DηDξpη= √DηDξpξ + Eη − √DηDξE ξ = aξ + b.В случае ρ(ξ, η) = −1 нужно рассмотреть первое неравенство в формуле(20) и повторить рассуждения. Тем самым теорема 33 доказана.Полезно знать следующие часто употребляемые термины.О п р е д е л е н и е 41. Говорят, что ξ и η отрицательно коррелированы, если ρ(ξ, η) < 0; положительно коррелированы, если ρ(ξ, η) > 0;некоррелированы, если ρ(ξ, η) = 0.Смысл знака ρ(ξ, η) хорошо виден в случае ρ(ξ, η) = ±1.
Тогда знакρ равен знаку a в равенстве η = aξ + b п. н. Так, ρ(ξ, η) = 1 означает,что чем больше ξ, тем больше и η. Напротив, ρ(ξ, η) = −1 означает,что чем больше ξ, тем меньше η. Похожим образом можно трактоватьзнак коэффициента корреляции и в случае, когда |ρ(ξ, η)| < 1, помня приэтом, что зависимость между ξ и η теперь уже не линейная и, возможно,даже не функциональная.Так, величины ξ и ξ + η в примерах 64 и 65 положительно коррелированы, но их зависимость не функциональная.Следующее свойство показывает, что модуль коэффициента корреляции не меняется при линейных преобразованиях случайных величин.С в о й с т в о 20.
Для любых случайных величин ξ и η с конечнойи ненулевой дисперсией при любых постоянных a 6= 0 и b имеет меaсто равенство ρ(aξ + b, η) = sgn(a) · ρ(ξ, η), где sgn(a) =— знак|a|a.Д о к а з а т е л ь с т в о. Запишем ρ(aξ + b, η), не забывая про свойствадисперсии:cov(aξ + b, η)a cov(ξ, η)apρ(aξ + b, η) = q= p=· ρ(ξ, η).p|a|a2 D ξ D ηD (aξ + b) D η107§ 2. Коэффициент корреляцииП р и м е р 66. Если ξ и η суть координаты точки, брошенной наудачув треугольник D с вершинами (2, 0), (0, 0) и (0, 1), то их коэффициенткорреляции ρ(ξ, η) отрицателен.
Это можно объяснить так: чем большеξ, тем меньше у η возможностей быть большой.Полезно убедиться в этом, проверив справедливость следующих высказываний. Во-первых,((x1 − , 0 6 x 6 2,2 − 2y, 0 6 y 6 1,2fη (y) =fξ (x) =0,иначе0,иначе;и вычисленные по этим плотностям средние (вычислить) равны соответственно E ξ = 2/3 и E η = 1/3.Во-вторых, по определению многомерного равномерного распределенияв области D,Z2ZZE (ξ η) =1−x/2Zx · y · 1 dx dy =x y dy dx =0D1.60Ковариация (а с ней и коэффициент корреляции) отрицательна.У п р а ж н е н и е . Почему коэффициент корреляции в примере 66 существует? Какие свойства случайных величин гарантируют конечность второго момента? А из их ограниченности следует существование моментов?По какому из свойств математического ожидания это так?П р и м е р 67.
Найдём коэффициент корреляции между числом выпадений единицы и числом выпадений шестерки при n подбрасыванияхправильной игральной кости.Обозначим для i ∈ {1, . . . , 6} через ξi случайную величину, равнуючислу выпадений грани с i очками при n подбрасываниях кубика. Посчитаем cov(ξ1 , ξ6 ). Каждая из случайных величин ξi имеет биномиальное1n5nраспределение с параметрами n и , поэтому E ξi = , D ξi =.6636Далее заметим, что ξ1 + . . . + ξ6 = n. Из-за симметрии кубика математические ожидания E ξ1 ξ2 , E ξ1 ξ3 , . .
. , E ξ1 ξ6 одинаковы, но отличаются5nn2от E ξ1 ξ1 = E ξ21 = D ξ1 + (E ξ1 )2 =+ . Посчитаем E ξ1 (ξ1 + · · · + ξ6 ).3636С одной стороны, это число равноE ξ1 (ξ1 + . . . + ξ6 ) = E ξ1 · n =n2.6108ГЛАВА IX. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ЗАВИСИМОСТИС другой стороны,E ξ1 (ξ1 + . . . + ξ6 ) = E ξ21 + 5E ξ1 ξ6 =n25n5nn2++ 5E ξ1 ξ6 .3636n2−−, т. е. E ξ1 ξ6 =Отсюда 5E ξ1 ξ6 =63636искомый коэффициент корреляции равенρ(ξ1 , ξ6 ) =n2 − n. Следовательно,36E ξ1 ξ6 − E ξ1 E ξ61(n2 − n)/36 − n2 /36p=− .=5n/365D ξ1 D ξ6Интересно, что полученный коэффициент корреляции не зависит от n.У п р а ж н е н и е .
Объяснить знак величины ρ(ξ1 , ξ6 ). Вычислить коэффициент корреляции числа единиц и числа двоек при n подбрасываниях правильной игральной кости.П р и м е р 68. Вычислим математическое ожидание и дисперсию гипергеометрического распределения. Мы не могли сделать это раньше, таккак очень не хотели вычислять следующие суммы:X C k C n−kX C k C n−k2K N −K−Kkk2 K NEξ =,Eξ =,nnkCNkCNгде, напомним (чтобы читатель окончательно отказался от мысли вычислить эти суммы напрямую), суммирование ведётся по целым k таким, что0 6 k 6 K и 0 6 n − k 6 N − K.Рассмотрим урну, содержащую K белых шаров и N − K не белых,и пусть из неё наудачу и без возвращения выбирают по одному n шаров. Свяжем случайную величину ξ, равную числу белых шаров среди nвыбранных, с результатами отдельных извлечений шаров.Обозначим через ξi , где i = 1, .
. . , n, «индикатор» того, что i -й посчёту вынутый шар оказался белым: ξi = 1, если при i -м извлечениипоявился белый шар, иначе ξi = 0. Тогда ξ = ξ1 + . . . + ξn — число появившихся белых шаров, и математическое ожидание считается просто:E ξ = E (ξ1 + .
. . + ξn ) = E ξ1 + . . . + E ξn .Убедимся, что случайные величины ξ1 , . . . , ξn имеют одно и то жераспределение Бернулли Bp , где p = K / N.Пронумеруем шары: белые — номерами от одного до K, остальные —номерами от K + 1 до N. Элементарным исходом опыта является набориз n номеров шаров в схеме выбора n элементов из N без возвращенияnи с учётом порядка. Общее число исходов равно |Ω| = A N .109§ 2. Коэффициент корреляцииВычислим вероятность события Ai = {ξi = 1}.
Событие Ai включает всебя элементарные исходы (наборы), в которых на i -м месте стоит любойиз номеров белых шаров, а остальные n − 1 место занимают любые изоставшихся N − 1 номеров. По теореме 1 о перемножении шансов числоблагоприятных событию Ai исходов есть произведение K и An−1N −1 . ЗдесьK есть число способов поставить на i -е место один из номеров белыхшаров, An−1N −1 — число способов после этого разместить на оставшихся n−− 1 местах остальные N − 1 номеров шаров. Но тогдаn−1K A N −1K|A |=,p = P(ξi = 1) = P(Ai ) = i =n|Ω|NANчто совершенно очевидно: вероятность 20-му шару быть белым, если мыничего не знаем про первые 19, точно такая же, как вероятность первомушару быть белым и равна отношению числа белых шаров к числу всех.Вернёмся к математическому ожиданию:E ξ = E ξ1 + .
. . + E ξn = nE ξ1 = np =nK.NВычислим дисперсию ξ. До сих пор мы не интересовались совместнымраспределением ξ1 , . . . , ξn : для вычисления математического ожиданияих суммы нам было достаточно знания маргинальных распределений этихвеличин. Но дисперсия суммы уже не всегда равна сумме дисперсий. Зависимость величин ξ1 , . . . , ξn очевидна: если, скажем, случилось событиеA1 = {ξ1 = 1}, то вероятность второму шару быть белым уже не равнаотношению K / N :P(ξ2 = 1 | ξ1 = 1) =K −1K6== P(ξ2 = 1).N −1NПоэтому при вычислении дисперсии будем пользоваться свойством 19.
Вычислим ковариацию величин ξi и ξj , i 6= j. Для этого сначала посчитаемE (ξi ξj ). Произведение ξi ξj снова имеет распределение Бернулли: ξi ξj = 1,если при i-м и j -м извлечениях появились белые шары. Вероятность этогособытия равнаn−2K(K −1)A N −2|A ∩ Aj |K(K −1)P(ξi ξj = 1) = P(Ai ∩ Aj ) = i==.n|Ω|N(N−1)ANТогдаcov(ξi , ξj ) = E (ξi ξj ) − E ξi E ξj =K(K −1)K KK(N −K)−=− 2.N (N −1)N NN (N −1)110ГЛАВА IX. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ЗАВИСИМОСТИПодставляя одинаковые дисперсии D ξi = p(1 − p) и эти не зависящие отi и j ковариации в формулу дисперсии суммы, получаемnXXD ξ = D (ξ1 + . . .
+ ξn ) =D ξi +cov(ξi , ξj ) =i=1i6=j= np(1 − p) + n(n − 1)cov(ξ1 , ξ2 ) =KKK(N −K)Kn−1K= n1−− n(n−1) 21−1−.=nNNN (N −1)NNN −1Заметим любопытнейшую вещь: если вынимать шары с возвращением , то испытания станут независимыми испытаниями в схеме Бернулли;cтавшие независимыми величины ξi в сумме дадут число белых шаров,Kимеющее биномиальное распределение с параметрами n и p =и точноNnK, как и у числа белых шаровтакое же математическое ожидание np =Nпри выборе без возвращения.Дисперсия же у числа белых шаров при выборе без возвращения меньше, чем при выборе с возвращением — за счёт отрицательной коррелированности слагаемых ξi и ξj при i 6= j.ГЛАВА XСХОДИМОСТЬ ПОСЛЕДОВАТЕЛЬНОСТЕЙ СЛУЧАЙНЫХВЕЛИЧИНОткуда, наконец, вытекает то удивительное, по-видимому, следствие,что, если бы наблюдения над всеми событиями продолжать всю вечность, причём вероятность, наконец, перешла бы в полную достоверность, то было бы замечено, что в мире всё управляется точными отношениями и постоянным законом изменений, так что дажев вещах, в высшей степени случайных, мы принуждены были быпризнать как бы некоторую необходимость и, скажу я, рок.Якоб Бернулли.