Печинкин, Тескин, Цветкова и др. - Теория вероятностей (1077486), страница 39
Текст из файла (страница 39)
Можно сказать, что ковариация случайных величин отражает, насколько их зависимость близка к линейной. 314 7. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН Рассмотрим теперь и-мерный случайный вектор Х = (Х , ..., Х„). Определение 7.10. Матприцей ковариаций (ковариационной,иапгрицей) случайного вектора Х называют матрицу Е = (о1 ) = (сок(Х;, Х )), состоящую из ковариаций случайных величин Х; и Х . Пример 7.21. Рассмотрим двумерную случайную величину (Х, У), распределенную по нормальному закону.
Тогда Г (х-т1)(у-пгг) 2ко1 ог 1/ 1-рг ~ (х-т~)г 2р(х — ог1)(у — огг) (у-огг)г ~~ ~2ог(1-рг) 2о1пг(1 рг) 2огг(1-рг)/~ Делая замену и = (х — ти1)/о1, о = (у — туг)/ог, получаем соу(Х,У) = / р1-, ( -2р + ~))ьи = гк (1 — рг г(1 Р ) +со +СО 1,ж Внутренний интеграл равен ри. Поэтому +оо — и~/г сом(Х,У) = ро1ог ~ — е аи = ро1ог. ' 1л- 7.4. Ковариацин и коэффиаиент корреляции случааиык величин 315 Поскольку Рх = с1з, РУ = аз~, то матрица Е представляет собой матрицу ковариаций (в данном случае понятие „ковариационная матрица" мы ввели раньше, нежели выяснили смысл этого понятия).
Аналогично в общем случае и-мерного нормального случайного вектора элементы ~7; ковариационной матрицы Е являются ковариациями случайных величин Х; и Х.. ф Основные свойства матрицы ковариаций определяются следующей теоремой. Теорема 7.4. 1. Матрица ковариаций Е является симметрической. 2. Пусть тп-мерный случайный вектор У = (У1, ..., У ) получен из и-мерного случайного вектора Х = (Х1, ..., Х„) с помощью линейного преобразования В, т.е. У=ХВ+с. Тогда матрица ковариаций Ер случайного вектора У связана с матрицей ковариаций Е о случайного вектора Х соотношением Ер = В'ЕхВ. 3.
Матрица ковариаций Е является неотрицательно опредет ленной, т.е. ЬЕЬ > 0 для всех векторов Ь. м Утверждение 1 следует непосредственно из определения матрицы ковариаций. Пусть матрица В линейного преобразования У = ХВ+ с имеет вид В = (Ь; ). Вычислим ковариациюслучайных величин 316 7. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН У иУ". о о о сочЯ,Уу) = М(У;У ) = М~Д ХьЬмЯХ~Ь| ) = а о о в = ~~) М(ХьЬмХ~Ь| ) = ~) Ьмсоч(ХЫХ~)ЬИ.
й3=1 Записывая последнее равенство в матричной форме, получаем утверждение 2. Для доказательства утверждения 3 рассмотрим скалярную случайную величину У=ХЬ . В случае скалярной случайной величины У ее дисперсия ПУ = = Еу, и позтому в соответствии утверждением 2 теоремы имеем ПУ = ЕУ = ЬЕЬ, откуда в силу неотрицательности дисперсии получаем утвер- ждение 3.
в. Замечание 7.12. Для многомерного случайного вектора, распределенного по нормальному закону, свойства 1-3 ковариационной матрицы уже были получены ранее (см. б.б). Замечание 7.13. В том случае, когда ранг т ковариационной матрицы Е строго меньше размерности и вектора Х, можно доказать, что среди п случайных величин Х~,..., Х„имеется ровно т таких, что остальные и — т случайных величин являются их линейной комбинациеб [ТЧ). Это свойство также отмечалось нами для нормально распределенных случайных векторов. Существенным недостатком ковариации является то, что ее размерность совпадает с произведением размерностей случайных величин. Естественно, хотелось бы иметь безразмерную Т.4.
Коиариоция и коэффиииеит корреакиии саутайиых величии 317 характеристику степени линейной зависимости. Но это очень просто сделать — достаточно поделить ковариацию случайных величин на произведение их средних квадратичных отклонений. Определение 7.11. Коэффициентпом корре ищии случайных величин Х и У называют число р = р(Х, У), определяемое равенством (предполагается, что 1хХ ) 0 и 1хУ ) 0) сот(Х,У) нйх.ох' Теорема 7.5. Коэффициент корреляции имеет следующие свойства. 1. р(Х,Х) =1. 2. Если случайные величины Х и У являются независимыми (и существуют РХ > 0 и РУ > 0), то р(Х,У) = О. 3. р(а1Х1+Ьм азХз+Ьз) = ~р(Х1,Хз). При этом знак плюс нужно брать в том случае, когда а1 и аз имеют одинаковые знаки, и минус — в противном случае.
4. -1 <р(Х,У) <1. 5. ~р(Х,У)~ = 1 тогда и только тогда, когда случайные величины Х и У связаны линейной зависимостью. < Доказательство теоремы следует из свойств ковариации, и мы предлагаем провести его самостоятельно. ~ Пример 7.22. Найдем коэффициент корреляции случайных величин Х вЂ” числа очков, выпавших на верхней грани игральной кости, и У вЂ” на нижней (см. пример 5.5). Для этого сначала вычислим МХ, МУ, РХ, РУ и сот(Х,У). Воспользовавшись табл. 5.3, получим 1 1 1 1 1 1 МХ = МУ = 1 — + 2.
— + 3 — + 4 — + 5 — + 6 — = 3,5, 6 6 6 6 6 6 з 1 1 2 ПХ = ПУ = (1 — 3,5) — + (2 — 3,5) . — + (3 — 3,5) — + +(4-3,5) -+(5-3,5) — +(6-3,5) 1з1з135 6 ' б ' 6 12' 318 Т. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН сот(Х, У) = (1 — 3,5) (1 — 3,5) . О + (2 — 3,5) (1 — 3,5) О+ 1 + ... + (6 — 3,5)(1 — 3,5) — + (1 — 3,5)(2 — 3,5) О + ...
+ + (5 — 3,5)(2 — 3,5) — + (6 — 3,5)(2 — 3,5) О + ... + 1 1 1 + (4 — 3,5)(3 — 3,5). — + (3 — 3,5)(4 — 3,5) — + ... + 1 1 35 + (2 — 3,5)(5 — 3,5) — + ... + (1 — 3,5)(6 — 3,5) Таким образом, -35/12 Р= 35/12 = -1. Впрочем, это мы могли бы установить и без всяких вычислений в силу свойства 5 коэффициента корреляции, если бы вспомнили, что сумма чисел очков на противоположных гранях равна семи и, значит, Х = 7 — У (Х и У связаны линейной зависимостью с отрицательным коэффициентом пропорциональности). Пример 7.23. Температура воздуха Х1 и Хз в два последовательных дня представляет собой двумерную случайную величину с вектором средних (там твз), дисперсиями оз~ > О и озз > О и коэффициентом коРРелЯции Р.
РассмотРим новУю слУ- чайную величину (7.11) Хз =хХ1+Ь, где х, Ь вЂ” некоторые числа. Назовем Хз линейным прогнозом температуры воздуха на следующий день при известной температуре воздуха в предыдущий день. Подберем числа х и Ь таким образом, чтобы математическое ожидание М(Х вЂ” Х )з приняло минимальное значение.
В этом случае Хз называют наилучшим в средне квадратичном линейным прогнозом. В 7.4. коаарианил и лочффиииеит лорреллиии случайных аеличии 319 соответствии со свойствами математического ожидания и дис- персии находим М(Хг — Хг) = 12(Хг — Хг) + ~М(Хг — Хг)1 = РХг — 2сои(Хг, Хг) + 1лХг + (МХг — МХг) = (х а1 — 2храгаг+аг) + (хпг1+ Ь вЂ” упг)~.
Заметим, что первое слагаемое хга1г — 2хра1аг+ агг в последнем выражении зависит только от х. Второе слагаемое (хуп1 + Ь вЂ” епг) является неотрицательным, причем при любом фиксированном х его минимальное значение, равное нулю, достигается при ь= Минимум первого слагаемого достигается при аг Х =,О— а1 (7.12) Следовательно, минимальное значение математического ожидания М(Хг — Хг) достигается при х = Раг/а1 и Ь = упг— — Й$1Раг/а1 и равно: М(Хг — Хг) =Рог — 2Р аг+аг =(1 Р )аг Поэтому М(Хг — Хг) = О, т.е. Хг = Хг в случае ~р~ = 1, и наилучший линейный прогноз является абсолютно точным. Качество прогноза ухудшается с уменьшением ~р~.
При р = О наилучший линейный прогноз Хг — — Ь = упг, состоит в указании средней температуры на следующий день и не зависит от температуры в предыдущий день. Примеры 7.22 и 7.23 показывают, что коэффициент корреляции (также как и ковариация) отражают „степень линейной близости" случайных величин. При этом, если р ) О, то коэффициент пропорциональности (7.12) в наилучшем линейном приближении (7.11) одной случайной величины другой является положительным, а в случае Р ( Π— отрицательным.
320 7. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН Поэтому при р > 0 говорят о положительной корреляционной зависимости Х и У, при р ( 0 — об отирицательной. Например, рост и вес человека связаны положительной корреляционной зависимостью, а температура и время сохранности продукта — отрицательной.
Однако, коэффициент корреляции (ковариация) может не улавливать „степень нелинейнойблизости" случайныхвеличин. Для этой цели служат другие характеристики, например, корреляционное отношение, которое будет рассмотрено в 8.2. По аналогии с ковариационной матрицей для случайного вектора Х = (Х1, ..., Х„) можно ввести корреляционную матрицу. Определение 7.12. Хорреллционной (нормированной новориацнонной) матприцей случайного вектораХ называют матрицу Р = (р;;) = (р(х;,х,)), состоящую из коэффициентов корреляций случайных величин Х;иХ.