Гмурман - Теория вероятностей и математическая статистика (969547), страница 31
Текст из файла (страница 31)
Р е ш е н н е. Найдем условную плотность составляющей Х прн ) х) < рггз-рз по формуле (ч»е): !р (х ! !г) = !! (пгз) 1 Кг» к» прн ха+уз > гз, то !р(х)р)=О прн (х) > (»»»»), аналогично найдем условную плот- Так как /(х, у)=0 > )г" з рз Пользуясь формулой ность составляющей )г: )/(2 Уг~ — хз) прн )у( < рггз — хз, ф(р! х) = 0 прн ) р| > рггз — сз.
й 15. Условное математическое ожидание М (У ! х) / (х), которую называют функцией регрессии )г на Х. Аналогично определяются условное математическое ожидание случайной величины Х и функция регрессии Х иа У: М(Х)у)= р(у). 173 Важной характеристикой условного распределения вероятностей является условное математическое ожидание. Условным математическим ожиданием дискретной случайной величины )г при Х=х (х — определенное возможное значение Х) называют произведение возможных значений У на их условные вероятности: М(У(Х=х) =,'Е у,р(у,)х). (в) /» 1 Для непрерывных величин М (У ~ Х = х) = ~ уф (у ) х) ау, где ф(у)х) — условная нлотиость случайной величины )г при Х =х. Условное математическое ожидание М ()г ) х) есть функция от х: Пример.
Днскретная двумерная случайная велнчнна аадана табл. 5. Таблнпа 5 Найти условное математическое ожнданне составляющей У прн Х=кг=1. Решение. Найдем р(«1), для чего сложны вероятностя, помещенные в первом столбпе табл. 5: р (хг) =0,15+0,30=0,45. Найдем условное распределенне вероятностей велнчнны 1' прн Х=хг — — 1 (см. 4 13): р(у1 ) хд=р(км ут)/р (яд=0.15/0,45= 1/3; р (уа ( х,) =р (к,.
уа)/р (хд = 0,30/0,45 = 2/3. Найдем нскомое условное математическое ожнданне по формуле (е): а М(1'( Х=хт),1~~~~ у/р(у/(хг)=у,р(у,) х,)+у,р(у, ) «,1= /=! = 3 (1/3) + 6 (2/3) = 5. $16. Зависимые и независимые случайные величины Мы назвали две случайные величины независимыми, если закон распределения одной нз них не зависит от того, какие возможные значения приняла другая величина.
Из этого определения следует, что условные распределения независимых величии равны нх безусловным распределениям. Выведем необходимые и достаточные условия независимости случайных величин. Теорема. Для того чтобы случайные величины Х и У были независимыми, необходимо и достаточно, чяюбы функция распределения системы (Х, У) была равна произведению функций распределения составляющих: г (х, у) = Р, (х) Р, (у). Доказательство, а) Необходимость. Пусть Х и У независимы. Тогда события Х <х и У <у неза- 174 висимы, сладовательно, вероятность совмещения этих событий равна произведению нх веровггностей: Р(Х < х, У < у) = Р (Х < х) Р (У < у), или Р (х, у) = Р, (х) Р, (у).
б) Достаточность. Пусть Р(х, у)=Р,(х)Р,(у). Отсюда Р (Х < х, У < у) = Р (Х < х) Р (У < д), т. е. вероятность совмещения собьггий Х < х и У < д равна произведению вероятностей этих событий. Следова- тельно, случайные величины Х и У независимы. С л е д с т в и е . Для того чтобы непрерывные случайные величины Х и У были независимыми, необходимо и доста- точно, чтобы плотность совместного распределения си- стемы (Х, У) была равна произведению плотностей рас- пределения составляющихг 1 (х. У)=1. (х) 1,(у). Доказательство. а) Необходимость.
Пусть Х и У вЂ” независимые непрерывные случайные величины. Тогда (на основании предыдущей теоремы) Р(х. д)=Р,(х) Р,(у). Дифференцируя это равенство по х, затем по у, имеем аЧ ар,ау, или (по определению плотностей распределения двумерной и одномерной величин) ) (х, У) = 1, (х) 7, (У). б) Достаточность. Пусть 7'(х, У)= 7',(х) ~,(д). Интегрируя это равенство по х и по у, получим с к в ~ 1(х, у) йхйу= ~ ~,(х)йх ~ ~,(у)бу, О Ф Ф Ф или (см. з 8 гл. Х1к' и $ 3 гл.
Х() Р (х, у) = Р, (х) Р, (у). 175 Отсюда (на основании предыдущей теоремы) заключаем, что Х и У независимы. 3 а ме ч а вне. Так как прнведенные выше условяя являются неабходнмымн н достаточнымн, то можно дать новые определення незавнснмых случайных величин: 1) две случайные велнчнны называют незавнснмымн, если функння распределення снстемы этнх величин равна произведению функпнй аспределення составляющих; ) две непрерывные случайные величины называют независимымн, еслн плотность совместного распределения снстемы этих велнчнн равна пронзведенню плотностей распределення составляющнх. Промер.
Двумерная непрерывная случайная велнчнна (Х, !') задана плотностью совмеатного раопределення /(«, у)=(в1п «з1пу)/4 в квадрате 0<«<п, 0<у<я; вне квадрата /(«. у) О. Доказать, что составляющне Х н г независимы. Решение. Используя формулы (е) н (ев) $ !2, легко найдем плотностн распределения составляющнх; /д («) = Мп «/2. /з (у) = Мп у/2. Плотность совместного распределения рассматрнваемой снстемы равна произведению плотностей распределення составляющих, поэтому Х н Г невавнснмы. Разумеется, можно было доказать, что условные ваконы распределення составляющнх равны ях безусловным ваконам, откуда также следует незавнснмость Х н )г.
й 17. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции Для описания системы двух случайных величин кроме математических ожиданий н дисперсий составляющих используют и другие характеристики; к их числу относятся корреляционный момент и коэффициент корреляции. Корреляционнегм лгоменлгом )з„в случайных величин Х и У называют математическое ожидание произведения отклонений этих величин: р„„= М ЦХ вЂ” М <Х)] [) — М (~ )]). Для вычисления корреляционного момента дискретных величин используют формулу в в1 рва= ~~~~ ~~з~ [хг — М (Х)][у — М (г')] р(хг, у ), а для непрерывных величин — формулу )з„в =- ] '] [х — М (Х)][у — М (У)] / (х, у) г(х г(у. 17б Корреляционный момент служит для характеристики связи между величинами Х н У.
Как будет показано ниже, корреляционный момент равен нулю, если Х и У независимы; следовательно, если корреляционный момент не равен нулю, то Х и У вЂ” зависимые случайные величины. 3 а и е ч а н н е 1. Учитывая, что отклонения есть центрироваииые случайные величины (см. гл. У)П. й 2), корреляционный момент можно определить как математическое ожидание произведения центрнрованиых случайных величин: )гав ™ ( Л ~ ). За меча и не 2. Легко убедиться, что корреляционный момент можно записать в виде и „= М (Хг') — М (Л) М (1'). Теорема ).
Корреляиионный момент двух независимых случайных величин Х и У равен нулю. Доказательство. Так как Х и У вЂ” независимые случайные величины, то их отклонения Х вЂ” М (Х) и У вЂ” М (У) также независимы. Пользуясь свойствами математического ожидания (математическое ожидание произведения независимых случайных величин равно произведению математических ожиданий сомножителей) н отклонения (математическое ожидание отклонения равно нулю), получим р„„=м «[Х вЂ” М(Х)1[У вЂ” М(У)))= = М [Х вЂ” М (Х)) М [У вЂ” М (У)) = О. Из определения корреляционного момента следует, что он имеет размерность, равную произведению размерностей величин Х н У.
Другими словами, величина корреляционного момента зависит от единиц измерения случайных величин. По этой причине для одних и тех же двух величин величина корреляционного момента имеет различные значения в зависимости от того, в каких единицах были измерены величины. Пусть, например, Х и У были измерены в сантиметрах и )ь =2 см', если измерить Х и У в миллиметрах, то )а„в=200 мм.
Такая особенность корреляционного момента является недостатком этой числовой характеристики, поскольку сравнение корреляционных моментов различных систем случайных величин становится затруднительным. Для того чтобы устранить этот недостаток, вводят новую числовую характеристику — коэффициент корреляции.
!2 — 2730 Коэффициентом корреляции г„„случайных величин Х и У называют отношение корреляционного момента к произведению средних квадратических отклонений этих величин: г„„= )ь„и/(о„ое). Так как размерность р„„равна произведению размер- ностей величин Х и У, о имеет размерность величины Х, ои имеет размерность величины )' (см. гл. У111, $7), то г, — безразмерная величина.
Таким образом, величина коэффициента корреляции не зависит от выбора единиц измерения случайных величин. В этом состоит преиму- щество коэффициента корреляции перед корреляционным моментом. Очевидно, коэффициент корреляции независимых слу- чайных величин равен нулю (так как )ь„»=0). Заме ч а ни е 3. Во многих вопросах теории вероятностей це- лесообраано вместо случайной величины Х рассматривать нормиро- ванную случайную величину Х', которую определяют как отношение отклонения к среднему квадратическому отхлоненню: Х' = (Х вЂ” М (Х))(о„.
Нормированная величина имеет математическое ожидание, равное нулю, и дисперсию, равную единице. Действительно, используя свойства математического ожидания и днсперсик, имеем: м(х)=м ~ Гх — м,(х)1 1 ~ = — М[Х вЂ” М(Х)1 = — 0=0; '1 о„) о о„ п(х)=в 1, ~- —,()(х — м(х)1= —, ГХ вЂ” М (Х)1 1 В (Х) ох ох ох Легко убедиться, что ковффицнент иорреляции г „равен корре- ляционному моменту нормированных величин Х' и У: м ((х — м (хВ (1' — м 0'))) Гх — м (х) у — м (у)1 гья м[ охов о„ о„ 1 =м (х у')=и,,„,. Теорема 2.
Абсолютная величина корреляционного мо- мента двух случайных величин Х и )г не превьииает сред- него геометрического их дисперсий: )~Р Ри. Доказательство. Введем в рассмотрение случай- ную величину Я, =о Х вЂ” о„У и найдем ее дисперсию Р(Я,) = М 1Е,— т,,1а. Выполнив выкладки, получим Р (Ях) = 2охеоее — 2сг„о„р„„.
1уй Любая дисперсия неотрицательна, поэтому 2оР„'— 2о„о„р -. О. Отсюда р,„„~ о„о„. (»«) Введя случайную величину Е,=о„Х+о„Г, аналогично найдем р„„~ — о,о„. Объединим (««) и («««): — о„о„ч. р„„е~ о„о„, («««) или 1 р„„~ о„о„. Итак, Итак, й 18. Коррелированность н зависымасть случайных величин Две случайные величины Х и У называют коррелированными, если их корреляционный момент (или, что то же„коэффициент корреляции) отличен от нуля; Х и У называют некоррелированными величинами, если их корреляционный момент равен нулю.