Б.А. Севастьянов - Курс теории вероятностей и математической статистики (1119910), страница 9
Текст из файла (страница 9)
Совокупность случайных величин ~ь ~„..., ~„ порождает разбиение а~,~,...1, состоящее из событий вада А, =(вн в,.(а)= х,,(=1,..., и), и алгебру .4;,...;, состоящую из событий вида (($ь..., $„)ен В), где  — подмножество п-мерного пространства К". Так жс, как в двумерном случае, по п-мерному закону (20) определяются маргинальные одномерныс, двумерные и т. п. законы распределения, например, Р($~=хц)= ~ р Се,...!„нз"'~' Р ($~ хп 3з АД Е риаз ... Так же, как н в случае одной случайной величины, мы 'часто будем считать, что случайные величины ~ь ~з, ..., С, заданы, если задан их п-мерный закон распределения (20).
В этом случае всегда можно построить такое конечное вероятностное пространство (й, Ф, Р), на котором можно определитьслучайныевеличины $ь$з, ... ..., С„так, чтобы их п-мерное распределение совпадало с (20). Например, мы можем положить й (м), где гв=(хн,, ..., х„~ ), 1 ~(1~(й~ и р(гв)=р 1 3'" л Иногда п случайных Величин ~ь $м ..., С„ мы будем трактовать как компоненты случайного вектора = (вь Ь, ..., $,). Распределением случайного вектора $ будет и-мерное распределение Р (С ен В) = ~ Р (~ = х), в где  — множество точек и-мерного пространства, хем = (хь ..., х,) — возможные векторные значения слу.
чайного вектора $. й 15. Незавнснмость случайных велнчнн В общем случае одномерные законы распределения не определяют многомерного закона. Однако в важном случае независимых случайных величин по одномерным 54 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) законам распределения однозначно восстанавливаются многомерные распределения. Определение 1. Случайные величины еь еь ...
..., е„называются независимыми, если порожденные ими алгебры ,5ФЕ,, зУЕ,>...,,5Ф1 независимы. Поскольку каждая из алгебр Фз, состоит из сабы. тий вида (е; ~ В), где В«=1«', то данное выше определение эквивалентно следующему: случайные величины еь ..., е„независимы, если для любых числовых мно* жеста В; Р (Й~ Я Вь ..., $л Я Вл) = Ц Р Я~ ЕЕ В;). (21) Из теоремы 6 в $10 следует, что независимость алгебр зутн .... Ф:„равносильна независимости порождающих нх разбиений аза ..., ЕА, Это приводит еще к одному эквивалентному определению независимости: случайные величины еи..., $„независимы, если для любых хп,, ... '''ю хл1 л Р($, — хн,,..., йл — хл)л) — Д Р($~ — хи«).
Теорем а 1. Если случайные величины Ен $м ..., $„ независимы, а ус(х) — числовые функции, то случайные величины т11 =й1ф), п2 = й2($«), ..., т1л= йлйл) так. зсе независимы. Доказательство. Так как имеет место включение Фе,(1,1 ильзе то УтвеРждение сРазУ следУет из оп. ределения 1. Определение независимости (21) можно распространить на случайные векторы ег=(ен ° Вс ц) конно ненты которых являются случайными величинами. Для этого надо потребовать, чтобы равенство (21) выполня. лось для любых множеств В~ «:-Й" из гсмерного евкли.
дона пространства. Для таких независимых случайных векторов тоже будет справедлива теорема, аналогичная теореме 1, если а;(х) — функции, отображающие г('~ и Л*' и« вЂ” зпмерные случайные векторы. » !а иезлВищ!мость случлииых Величин 56 свойство математических ожислучайные величины $1, $», ... Мультипликатнвное даний. Теорема 2. Если ..., $, независимы, то М$Д.... $„= Ц М$1, (22) До к а з а т ел ь с т в о. Докажем (22) сначала для дз,х случайных величин.
Пусть $, !1 независимы, и $= ~ х!!А! Ч = Е у!Тз ~ где х1<х»« ... хм у!<у « ... у . Отсюда и<!Лучаем, в силу аддитивности математического ожидания: » т » т -"Ч= Е Е !У!ТА,В; МЕ!)= ~ ~ х,у!Р(А.В.) Из независимости В, ц следует Р(А!В!)=Р(А!)Р(В!), поэтому М~„= ~'„х,р (А,) Е у,Р (В,) = Мс . Ми. 1 1 Общий случай можно доказать по индукции, если положить $ = $1 ... е„1, и = $„И воспользоваться независимостью ь и !1. Из мультипликативного свойства (22) следует аддитивпое свойство дисперсии. Теорема 3. Если случайные величинь! $1, , $„независимы, то ОЕ + .
+~.)=О~ + " +Щ . (23) Доказательство. Докажем (23) для двух независимых случайных величин $ и и. Общий случай получается по индукции. Имеем 0(В+»))=М((»+!))— — М (. + и))»=, М [ — МВ+(ц — Ми))з= М а — МЦ'+ + М(ч — Мт))»+2М(",— М$)(Ч вЂ” Мт)). Так как $, !) независимы, то $ — М» и и — Мч также независимы. Поэтому М ($ — Мз) (!1 — М»)) = М (» — М$) ° М (») — М!)).
Отсюда следует утверждение, так как М ($ — Мв) = = Мз — М$=0. Еа Гл. 3. случАйные Величины (конечнАЕ схема! ф !6. Евклидово пространство случайных величин Геометрическая интерпретация. Пусть пространство элементарных событий й =(со) состоит из и элементов вь соа, ..., В3,.
Тогда каждой случайной величине $ = = Е(ет) можно поставить в соответствие и-мерный вектор $ =(Е(со!), ..., (!(вы)). Если ввести скалярное произведение (! норму !(9((= )/(е, $) и расстояние 1'яс. 9. Проекция $ на ВРЯную констант (о. ((ен Ч) Ъ/М (еь Ч)3 !! еь Ч(! то множество всех случайных величин, определенных на вероятностном пространстве (31, Ф, Р), можно рассматривать как и-мерное евклидово пространство.
Определим в этом пространстве прямую констант !Е =(Е: $(СО!)= Е(СО3) = . = $(СОа)). СПРОСКтИРУЕМ на пряму!о 13, т. е. найдем таку!о константу те ен 13, что с((Е, л!!) = пн'не((Е, с). с~1, Так как при любой константе с ~ (о М(~ — с)'= М(~ — ЬЦ)3+ (М~ — с)3=~ 0~, то та=М$ н с((Е, л(3)=~(сР~. Таким образом, про-. екция е на прямую констант (о — это математическое ожидание Ме, и е — М$ ортогонально со (ортогональность мы будем обозначать знаком 1, так что в нашем случае $ — М$.) (с), поскольку (е — Ме, 1) = О. Расстояние от 13 равно среднему квадратическому отклонению ° ~/0$ (см.
рис. 9). Рассмотрим две случайные величины $ и Ч. Полата Я Е= МЕ+ Е„Ч = МЧ+ Ч„найдем косинУс Угла сусч, между й! и т1,: соз !р (йь Ч,) М ($ — МЕ) (т! — Мт!) (24) 03!1 (!Ч!!! (/Ой 1)Ч 5 1ц ВВклидОВО НРОстРАнстВО случлиных Величин 57 Этот косинус носит название коэфчэициента корреляции между $ и Ч и обозначается р($, Ч). Числитель справа в (24) носит название ковариации между 3 н Ч и обозначается СОчв, ч) = Ма — М$)(ч Мч). (25) Из (24) и (25) имеем Р(ь Ч) = Сот' (4, тй Из неравенства Коши — Буняковского (М$1Ч1)т~< М$;-'. МЧ', следует, что всегда (р($, Ч) ((1.
Если случайные величины $ н Ч независимы, то Сот($, ч)=0 (танкан Сот($, ч)=М($ — М$) (Ч— -Мч)='МВ-М$) М(ч— Мч)=0), следовательно, н р ($,Ч) = О. Если р ($, Ч)= р= 4+л =О, то й1 ~ т1, и случай- В лю ные величины $ и Ч па- рис. !О. Проекция Ч ия плоскость зыва1отся некоррели рованнмми. Из определения коэффициента корреляции вытекает, что при а,а М О р (а1Е + р1, атч + ря) = — ° †'! р (Е, т1), Спроектируем вектор Ч на плоскость, в которой лежат (с и ~. Проекция 'Ч = а$+ р определяется константами о; и р (см. рис, 10), прн которых Ч вЂ” а$ — р.) 1 и Ч вЂ” а$ — Р.! й, т.
е. М (ч — а$ — р) . 1 =' О, М(Ч вЂ” а$ — Р) 5=0, Это приводит и системе линейных уравнений относительно а н р: а ° М$+(1= Мч, а. М$т+(1, Щ М$Ч $3 Гл. а случлиные Величины еконечнАЕ схемА> Решая эту систему, получаем мйч — ме мч а= уй> — (уй) м! мч — матч м; а~ аеач а> ае =Мч — р — а уй а е где а'-= 0е, а,',= 0Ч, р=р(е, Ч), Таким образом, для проекции Ч получаем выражение ч = Мч + р —," .й — М~), (26) называемое уравнениегч регрессии Ч на й. Формула (26) дает чинейное относительно ~ выра>кение т1, для которого М(Ч вЂ” >!)В=пни.
Вычислим это расстояние: е('(ч, ч)=М(ч — ч)В=М~ч — Мч — р —,'„Й вЂ” Ма)) = =- М(ч — Мч)-"+ ре+' М(ь — М$)е— а$ — 2р — М (е — М'-') (ч — Мч) = а ае = ае +реве — 2рае =от (1 — ре) ч ч ч ч Полученное выражение а-'„(1 — р') носит название остаточной дисперсии. Если ре = 1, то М (Ч вЂ” Ч)' = О н Ч = Ч с вероятностью 1, т. е. с вероятностью 1 в этом случае $ и Ч линейно связаны: ч — мч — м. а. Таким образом, коэффициент корреляции р = р($,Ч) является мерой зависимости между е и >!.
Если 5 и >! независимы, то р = О; если же !>а = 1, то ", и Ч зависимы друг от друга линейно, причем при р =1 т! монотонно возрастает вместе с еа, а при р = — 1 — убываег. Если случайные величины $ь ..., еа завнсимьп то прн вычислении дисперсии их суммы мои>но пользоваться следующей теоремой. а >т. услОВные м»темАтические ожидания бй Т е о р е м а 4.
Имеет место формула 0($>+ ° ° ° + $ )=~', 0$»+ 2 Х Соч($», $>) Док аз а тел ь ство. Докажем теорему для суммы $+ ч). Общий случай доказывается аналогично. Имеем Оа+и)=М(а — Ми+(и-Ми))а= = М й — МЮ+ М(т) — Мч))Я+ 2М(6 — М5)(т) - Мт)) = = Р$ + Рт) + 2 Соч 5, т)). й 17.
Условные математические ожидания Таблнца 5 Закон раскреяеленяя услояноа нероятностн Значения Р (В1.4 (а)) ~ Р (В1А>) ~ Р (В1А») ~ ° .. ~Р (В!Аи) Р (А1) ~ Р (А») ~ ° ° ° ~ Р (Ая) Вероятности которая принимает значение Р(В1А») при о>еи А». Закон распределения этой случайной величины Р(В1Ф(а)) определяется таблицей 5. Правую часть формулы полной вероятности Р(В)= ~ Р(А»)Р(В(А») » 1 Вернемся к понятию условной вероятности. Пусть дано разбиение а: А,+ ...