Гмурман - Теория вероятностей и математическая статистика (969547), страница 32
Текст из файла (страница 32)
Две коррелированные величины также и зависимы. Действительно, допустив противное, мы должны заключить, что р„„=(), а это противоречит условию, так как для коррелироваиных величин р,„„*рьО, Обратное предположение не всегда имеет место, т. е. если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Дрчгими !2* 17Э р„„< ~ЄЄ. Теорема 3. Абсолютная величина коэффициента корреляции не превышает единицы.' ~ г„„~(1. Доказательство: Разделим обе части двойного неравенства (»«««) на произведение положительных чисел о„о„: словами, корреляционный момент двух зависимых величин может быть не равен нулю, но может и равняться нулю.
Убедимся на примере, что дае зависимые величины могут быть некоррелированными. Пример. Двумерная случайная величина (Х, у) задана плотностью распределения: 1(х, р) !(бп внутри эллипса хе!9+уз!4=1; 1(х, у)=0 вне этого эллипса. Доказать, что Х и )" — зависвмые некоррелнрованные величины. Р е ш е н и е. Воспользуемся ранее вычисленными плотностями распределения состаалявзшнх Х и )' (см.
э !2): 2 ! ), (х) = — у 9 — х', ) (у) — у' 4 — ра внутри заданного эллнп9п 2п са н, (х) = О, гз (у) = О вне его. ак как Г(х, р) ~1,(х)уз(р), то Х н г — зависимые величины (см. з !6). Для того чтобы доказать некоррелнрованнасть Х и г', достаточно убедиться в том, что Р„„О. Найдем корреляционный момент по формуле (см. З !у) рхэ = 1 1 ( — М (Х)) [у — М (г')) ) (х, у) бх бр. Поскольку функция /т (х) симметрична относительно осн Ор, то М(Х)=0; аналогично, М(г) 0 з силу симметрии 1 (у) относительно осн Ох.
Следовательно. Ф Э ~ хр)[х, у) кхЛу. Вынося постоянный множитель !(», э) за знак интеграла, получим Внутренний интеграл равен нулю (поаыитегральная функция печатна. пределы интегрирования симметричны относительно начала координат), следовательно, р „О. т.е. зависимые случайные величины Х и г некоррелированы. Итак, из коррелированиости двух случайных величин следует их зависимость, ио из зависимости еще не вытекает коррелированность. Из независимости двух величин следует их некоррелированность, но из некоррелированностн егце нельзя заключить о независимости этих величин.
Заметим, однако, что из некоррелированности нормально распределенных величин вытекает их независимость. Это утверждение будет доказано в следующем параграфе. 9 19. Нормальный закон распределения на плоскости На практике часто встречаются двумерные случайные величины, распределение которых нормально. Нормальным эаконом распределения на плоскости называют распределение вероятностей двумерной случайной величины (Х, У), если 1(х, у)= х 2яа„.о„]' ! — с~~у з Гы-ао ° <у-аи' ж — Ф~ у-Оа1 + уl у (1-гуу) уу оуу у у (у) Мы видим, что нормальный закон на плоскости определяется пятью параметрами: а„а„а„, о„и г„. Можно доказать, что зти параметры имеют следующий вероятностный смысл: ао ау — математические ожидания, о„, о„— средние квадратические отклонения, ㄄— козффнциейт корреляции величин Х и 1'. Убедимся в том, что если составляющие двумерной нормально распределенной случайной величины некоррелированны, то оии и независимы.
Действительно, пусть Х и У некоррелированны. Тогда, полагая в формуле (*) г у=О, получим ((х, у)=. 1 — у,у [(»- ао~/оу+(у-аи1/уу1 е 2яь оу ь„й хя оуй 2Я Таким образом, если составляющие нормально распределенной случайной величины некоррелированны, то плотность совместного распределения системы равна произведению плотностей распределения составляющих, а отсюда и следует независимость составляющих (см. 9 16). Справедливо и обратное утверждение (см. 9 18). Итак, для нормально распределенных составляющих двумерной случайной величины понятия независимости и иекоррелироваиности равносильны.
1в! 3 а м е ч а н н е. Используя формулы (') н (еь) $12, можно доказать. что если двумерная случайная величина распределена нормально с параметрамн ам оз, о„. о„, г„„, то се составляющие также распределены нормально с параметрамн, соответственно равнымн и,, о„н аз, ор. й 20. Линейная регрессия. Прямые линли среднеквадратической регрессии Рассмотрим двумерную случайную величину (Х, У), где Х н У вЂ” зависимые случайные величины. Представим одну из величин как функцию другой.
Ограничимся приближенным представлением (точное приближение, вообще говоря, невозможно) величины У в виде линейной функции величины Х: У ж й (х) = аХ+ (), где сс и () — параметры, подлежащие определению. Это можно сделать различными способами: наиболее употребительный из них — метод наименьших квадратов. Функцию й'(Х)=аХ+(1 называют «наилучшим приближениемэ У в смысле метода наименьших квадратов, если математическое ожидание М(У вЂ” а(Х)1« принимает наименьшее возможное значение; функцию п(х) называют среднеквадратической регрессией У на Х.
Теорема. Линейная средняя квадратическая регрессия У на Х имеет вид и (Х) = тр + г — (Х вЂ” т„), где т,=М(Х), тр=М(У), а„=у'О(Х), ар=~ГБ(У), г=р„рг(о„о„) — коэффициент корреляции величин Х и У. Дока з а тельство. Введем в рассмотрение функцию двух независимых аргументов а и (3: Р (сс, р) = М (У вЂ” сс — '(1Х1«. (*) Учитывая, что М (Х вЂ” т„) = М (У вЂ” тр) = О, М ((Х вЂ” т„) Х х(У вЂ” тр)|=р„„=га,ар, и выполнив выкладки, получим Р (а, р) = а„'+ (ззо' — 2го,ор(1+ (тр — а — '(ут„)з. Исследуем функцию Р(сс, ()) на зкстремум, для чего приравняем нулю частные производные: —,= — 2(тр — а — ()т„) =О, Е дР щ.
2()а,*,— 2галор = О, дг" 182 Отсюда а, а„ я= г — сс=т — г — т . о„ а а„ »' Легко убедиться, что при этих значениях а и (1 рассматриваемая функция принимает наименьшее значение. Итак, линейная средняя квадратическая регрессия У и Х имеет вид аэ аа и(Х) = а+ $3Х = т„— г — т»+ г — Х, или и (Х) = т„+ г — ~ (Х вЂ” т„). а„ Коэффициент р = г — называют коэ4фициентом регрессии У на Х, а прямую аа у — т„= г — (х — т,) (") называют прямой среднеквидратической регрессии У на Х. Подставив найденные значения и н р в соотношение (*), получим минимальное значение функции Р(а, Щ, равное о,',(1 — г').
Величину о,',(1 — г*) называют остаточной дисперсией случайной величины У относительно случайной величины Х; она характеризует величину ошибки, которую допускают при замене У линейной функцией и(Х)= =сс+рХ. При г =~! остаточная дисперсия равна нулю; другими словами, при этих крайних значениях коэффициента корреляции не возникает ошибки при представлении У в виде линейной функции от Х. Итак, если коэффициент корреляции г = ~1, то У и Х связаны л н н е й н о й функциональной зависимостью. Аналогично можно получить прямую среднеквадратической регрессии Х на У: х — т„=г — "(У вЂ” т ) (»»Ф) (" Ю г ~» — коэффициент регрессии Х на У) и остаточную аа дисперсию о',(1 — г') величины Х относительно У.
Если г =~1, то обе прямые регрессии, как видно из (**) и (***), совпадают. Из уравнений (**) и (***) следует, что обе прямые регрессии проходят через точку (т; та), которую называют центром совместного распределения величин Х и У. 183 $2!. Линейная корреляция. Норььальная корреляция Рассмотрим двумерную случайную величину (Х, У).
Если обе функции регрессии У на Х и Х на У линейны (см. 2 15), то говорят, что Х и У связаны линейной корреляционной зависимостью. Очевидно, что графики линейных функций регрессии — прямые линии, причем можно доказать, что они совпадают с прямымн средне- квадратической регрессии (см.
2 20). Имеет место следующая важная теорема. Теорема. Если двумерная случайная величина (Х, У) распределена нормально, то Х и У связаны линейной корреляционной зависимостью. Доказательство. Двумерная плотность вероятности (см. 2 19) / (х у) е-(и'+о'-»гиич!» о-кч! (ь) ! 2яо»ое уГ:7Э где и = (х — а,)/о„, о = (у — а,)/о „.
Плотность вероятности составляющей Х (см. 2 19, замечание) / (х) = е-"ч» ! 1 У' (ФФФ) Найдем функцию регрессии М (У (х), для чего сначала найдем условный закон распределения величины У при Х=х 1см. $14, формула (**)1: ф(у!х) — '») . / (». з) Подставив (*) и (**) в правую часть этой формулы и выполнив выкладки, имеем ф(у( ) = е-и-'ю'и' !»-"и. ! 1/' тяо„ Заменив и и о по формулам (ьь), окончательно получим ф(у(х) = е !В4 Полученное условное распределение нормально с математическим ожиданием (функцией регрессии У на Х) М ()' (х) =аз+г — (х — а,) и« и дисперсией о'„(1 — г'). Аналогично можно получить функцию регрессии Х на )г: М (Х ) у) = а, + г — (у — а,), пз Так как обе функции регрессии линейны, то корреляция между величинами Х и У линейная, что и требовалось доказать. Принимая во внимание вероятностный смысл параметров двумерного нормального распределения (см.
9 19), заключаем, что уравнения прямых регрессии из и„ у — а, г — (х — а,), х — а, = г —" (у — а,) а„ У совпадают с уравнениями прямых среднеквадратической регрессии (см. 2 20). !. Найти законы распределемия составлюощпк дискретной двумерной случайной велкчииы, заданной законом распределения Овгз.
Х «г к кз У Уг Уз р 0,22 0,29 0,49 р 0,40 0,00 2. Найти вероятность того, что составляющая Х двумерной случайной величины примет значение Х < 1/2 и прн атом составляющая 1' примет значение г' < !/3, если известна функпкя распределения скстемы Р(«, у) = ~ — агс(я 2к+ — ) ~ — агИКЗу+ — ) . /1 1 т ~к 2) ),м 2). Оиы. Р (Х < 1/2, г < 1/3) =9/!0.
3. Найти вероятность попадания случайной точки (Х; )г) в прямоугольник, ограниченный прямыми к =и/4, «=я/2. у и/6. у=п/3. !65 если невестка функция распределення Р (», у) = з1п х з)и у (ОС х ец и/2, 0 С у ч и/2). Ояы. Р (и/4 < Х < и/2, н/б < 1' < и/3) 0,11, 4. Найти плотность распределення системы двух случайных ве- лнчнн по нзвестной функция распределения Р(х, у).=(1 — е-зз) (1 — е-зз) (х мО, у~О). дзр Оягв. /(х.
у)= — =бе-'зх+зи. дх ду 5. Внутрн прямоугольника. ограннчеяного прямымн х=О, х=и/2, у=О, у =и/2, плотность распределеякя системы двух слу- чайных велнчнн /(х, у) =С з)и (х+у); вне прямоугольннка /(х, у) =О. Нзйтн: а) велячнну С; б) функцию распределення системы. Оаы. а) С 05; б) Р(х, у) 05(з!их-1-з!ну — з)и (х+у)) (О е- х е- и/2, 0 ~ у е- и/2). 6. Система двух случайных велнчнн распределена равномерно: в прямоугольнике, ограннченном прямымн х=4, х=б.