Учебник_Бочаров_Печинкин (846435), страница 28
Текст из файла (страница 28)
В этом случае нетрудно видеть из свойства 3, что если коэффициент пропорциональности хо положителен, то соч(б),(2) = чГО~~Обз, а если отрицателен, то соч(с«, ст) = — ч«06) 0с2. Таким образом, 5. сочф,б2) =- хч«Од(ОС2 тогда и только тогда, когда случайные величинь( С) и С2 линейно зависимь(. Наконец, раскрывая скобки в формуле, определяющей ковариацию, и используя свойства математического ожидания, получаем 6. СОЧ(Ч«), Чгз) = Мэг(эгт — Мэг) Мэгт.
Последнее свойство часто бывает полезным при численном подсчете ковариации. Заметим теперь, что введение ковариации позволяет выписать вы- ражение для дисперсии произвольных (а не только независимых) слу- чайных величин и к четырем уже известным свойствам дисперсии (см. параграф 3) можно добавить еще одно: 5. 0(6+Ч) = 06+ Ог)+ 2соч(б,ц), справедливое для произвольных (а не только независимых) случайных величин д и «р В общем случае ««-мерного случайного вектора (с).....сь) матри- цей ковариаций (ковариационной матрицей) называется л(атрица А = (соч(д„с«)), состояи(ая из ковариаций случайных величин б, и Г«. При мер 20.
Рассмотрим двумерную случайную величину (6, Ч), распре- деленную по нормальному закону (см. пример 16 в гл. 6). Тогда соч(6,Ч) = ((*- ч)«ьл~л-ьч)Ш-тг) Ь вЂ” «) « (х-т))(у — з) «() г«)( т и т т ! 1 д 2к«««а«(( ) — р« 127 4. Ковариация и корреляци~ случайных величин делая замену и =- (х — пи)(аь и =- (у — пм))аз, получаем соч(4,г)) = а~аз ] ] е»Г1 — е 1 "" дади = — — 'ч 2"'ч ' «)2я(! — рз) Внутренний интеграл равен ри. Поэтому и соч(с, П) = рамаз ] е 2 ди = ра~«гз.
ъ' 2;г з Поскольку 0Е =- а,, О») = а~, то матрица А представляет собой ковариацнонную матрицу (в данном случае название «ковариационная матрица» мы ввели раньше, нежели выяснили смысл этого понятия). Аналогично, в общем случае и-мерного нормального случайного вектора ф,...,бч) элементы а„ ковариационной матрицы А являются ковариациями случайных величин б, н б,. (2 П р и м е р 21. Пусть б~ — число очков, выпавших на одной игральной кости, а бз — на другой Рассмотрим случайные величины гп = б~ + бз (сумма очков на обеих костях) и чз = б1 — ба (разность очков).
тогда соч(«)н ОИ = М Ц~ Ч- ба — Мб1 — Мбэ)(б1 — бз — Мб| -Ь МЯ =- =М~(б~-мб)з-(б.-мы'] =0б1-0бз Случайные величины (1 и бэ одинаково распределены (и даже независимы), и, значит, 0б1 = 0бз, соч(цирз) = О. Однако несмотря на это, ш и уз зависимы, поскольку, например, из равенства гп = 2 (такое может произойти только при выпадении по одному очку на каждой кости) обязательно следует равенство Пэ = О. П Итак, ковариацию можно считать мерой независимости случайных величин (хотя и не очень хорошей, так как можно ввести другие, заведомо лучшие показатели независимости; оправданием повсеместного применения ковариации служит то, что она также относится к числу характеристик второго порядка). Существенным недостатком ковариации является то, что ее размерность совпадает с произведением размерностей случайных величин.
Естественно, нужно иметь безразмерную характеристику независимости. Ее очень просто получить, для этого достаточно поделить ковариацию на произведение средних квадратичных отклонений. Коэффициентом корреляции случайных величин й и г) наэьчвается число р = рЯ,г)), определяемое выражением соч(б, и) ,00б О, Коэффициент корреляции является уже безразмерной величиной.
128 Гл. 7. Числовые характеристики случаинь1х величин Выпишем его свойства, аналогичные свойствам ковариации: 05 1. Р(4,Я = =!. Если 4 и Ч независимы (и существуют 04 > О и 00 > 0), то 2. р(8, Ч) = О. Далее, пусть О! = а!41 + 51, 1!з = аз~э + Ьз (а! ф О, аз ф О). Тогда з. ч1чычг=. ° - 11,Ь11,Яо~, .1ьч, =.чч1ЬЛ,>. При этом знак плюс надо брать тогда, когда а! и аз имеют одинаковые знаки, и минус — в противном случае.
Наконец, 4. — 1 < р(Ь,э?) < 1. 5. р(5„Ч) = ш! тогда и только тогда, когда случайные величины 4 и э? линейно зависимы, Можно сказать, что коэффициент корреляции р отражает степень линейной зависимости случайных величин 4 и и. С возрастанием 4 случайная величина э) имеет тенденцию к увеличению при р > О и к уменьшению при р < О. Поэтому при р > О говорят о положи- тельной корреляционной зависимости 4 и г1, при р < 0 — об отри- !!ательной. Например, рост и вес человека связаны положительной корреляционной зависимостью, а температура и время сохранности продукта — отрицательной.
Если р = О, то случайные величины 4 и Ч называются некоррелированными. П р и м е р 22. Найдем коэффициент корреляции случайных величин 5— числа очков, выпавших на верхней грани игральной кости, и ц — на нижней (пример? из гл 6). Для этого сначала вычислим Мб, Мц, 05, 06 и соч(5, и). Воспользовавшись табл 3 из гл 6, имеем: мб — — мп = 1 . — + 2 — 4 3. — -,'-4 — 4 5- — + 6.
— = 3,5, 1 ! 1, 1 1 1 6 6 б б 6 6 06 =- Ог! = (! — 3,5) — 4 (2 — 3,5) — ж (3 — 3,5) - — -1- б 6 б Ч- (4 — 3,5)э — + (5 — 3,5)э — Ч- (6 — 3,5)э сои(8, П) = (1 — 3,5)(1 — 3,5) - О + (2 — 3,5)(1 — 3,5) . 0 4 ... + , (6 — 3,5)(1 — 3,5) — 4 (1 — 3,5)(2 — 3,5) О -1-...-1- 6 ч-(5 — 3,5)(2 — 3,5) — + (6 — 3,5)(2 — 3,5) О 4 ... 4 4 (4 — 3,5)(З вЂ” 3,5) — + ... + (3 — 3 5)(4 — 3 5) -1-(2 — 3,5)(5 — 3,5) — + .
+ (1 — 3,5)(6 — 3,5) Таким образом, р = ( — 35?'!2Я35/12) = - 1. Впрочем, это мы могли бы установить и без всяких вычислений по свойству 5 коэффициента корреляции, если 5. Условное лгатемааическое ожидание. Регрессия 129 бы вспомнили, что сумма чисел очков на противоположных гранях равна семи и, значит, С =- 7 — П (5 и П связаны линейной зависимостью с отрицательным коэффициентом пропорциональности). При мер 23. (Задача о наилучшем линейном прогнозе). Пусть (б~,бт)— двумерная случайная величина.
Рассмотрим новую случайную величину и = = бт — (х(~ Е а). Попытаемся подобрать числа х и а, доставляющие Мце минимальное значение. Из свойств дисперсии и математического ожидания имеем Мц = От! ж (Мт!) = [ОЕ1 — 2х сочЯ,бт) ж х Щ ч- [Мбз — (хМбт ж аЯ Дифференцируя Оц по х и приравнивая производную нулю, получаем, что минимальное значение Оц достигается при хо = соч(б|,бз)/Обе и равно (сот(51. бт)) а Оде Полагая теперь ао = Мбт — хоМбт, получаем минимальное значение второго слагаемого, равное нулю. Окончательно имеем, минимальное значение МП', равное [! — ре(бь бт)[Обь достигается при х = хо = ' ' и о, =- ао = Мба — (хоМбз).
сот ф, бт) обз Таким образом, коэффициент корреляции тесно связан с задачей наилучшего линейного приближения одной случайной величины другой, о чем говорилось выше Замечание. Рассмотренная задача имеет очень простую трактовку в терминах наилучшего линейного прогноза Действительно, пусть нам известно значение случайной величины 51 и мы хотим построить по этому значению наилучший в смысле среднего квадратичного отклонения линейный прогноз бт случайной величины бт.
Тогда этот прогноз определяется формулой й = хоб~ ч- ао, где то и ао определены выше и выражаются только через моменты случайных величин 51 и бз первого и второго порядка. В частности, при р(б~,бт) = ! прогноз будет точным (Мпт = О), а при рф,бт) = 0 состоит только в указании среднего значения ао = Мбэ (хо = О) Это еше раз подтверждает тезис о том, что коэффициент корреляции является мерой линейной зависимости случайных величин б~ и бт.
5. Условное математическое ожидание. Регрессия Пусть (д,ч) — двумерная случайная величина. В соответствии с результатами параграфа 5 гл. 6 (так как мы рекомендовали при первом прочтении пропустить этот параграф, то необходимо вернуться к нему и изучить изложенный там материал) можно определить условную функцию распределения случайной величины б при условии, что случайная величина ц приняла определенное значение гь Поскольку условная функция распределения обладает всеми свойствами обычной (безусловной) функции распределения, то по ней можно определить 5 П.П. Бочаров, А В. Печинкин 130 Гл. 7. Числовые характеристики случайнь»х величин математическое ожидание, которое естественно назвать условным мате,иатическим ожиданием, Для простоты изложения ограничимся здесь только случаями дискретной и непрерывной двумерных случайных величин (б, ц).
Начнем со случая дискретной случайной величины (б, г1). Пусть случайная величина 5 может принимать только значения Х!,...,Х„, а случайная величина»! — только значения У!,...,У . При каждом у рассмотрим условные вероятности х». = Р(Ц = Х, г! =- Уз) = = Р(с = Х„ц =- У37/Р(ц = — Уу) .=- р»з(рпу случайной величине с принять значение Х, при условии»1 = У (см. параграф 5 гл. 6). Назовем значением условного математического ожидания случайной величины 5 при условии ц = У число ь МК ц=Уз) =,'.Х-, По аналогии с (безусловным) математическим ожиданием значение условного математического ожидания при условии ц = У, описывает «среднее» значение случайной величины 5, но только при условии, что случайная величина т! приняла значение У, Из приведенного определения видно, что значение М(б ~ ц = — У ) условного математического ожидания зависит только от значения У, случайной величины ц.
Поэтому само условное математическое ожидание случайной величины б относительно случайной величины ц естественно определить как функцию М(б ц) = у(г!) от случаиной величины, т. е, тоже как случайную величину. Область определения функции у(у) совпадает со значениями У!,..., У„случайной величины гй а каждому значению Уу аргумента у ставится в соответствие число д(У ) = М(5 ~ ц = Уу). П р и и е р 24 Пусть р~ и ре — числа успехов в первом и втором испытаниях Бернулли с вероятностью успеха р.
Найдем М(р~ (из). Воспользовавшись табл 5 из гл 6, имеем М(р~ (р»=0)=0 у41 р.=р, М(р1(рз=-1)=0 у-Ь1 р=р. П П р и м е р 25 Найдем условное математическое ожидание М(б ) г1) случайной величины б — числа очков, выпавших на верхней грани игральной кости, относительно случайной величины ц — числа очков, выпавших иа нижней грани (см. пример 13 из гл б) В соответствии с приведенной там же табл.















