Б.А. Севастьянов - Курс теории вероятностей и математической статистики (1115332), страница 9
Текст из файла (страница 9)
..., Е„называются независимьгми, если порожденные ими алгебры !г' ' ' ' ' ЕА независимы. Поскольку каждая из алгебр МЕ, состоит из событий вида (с! ен В), где В с: —.>гг, то данное выше определение эквивалентно следующему:случайные величины 5„..., ~„независимы, если для любых числовых множеств В! л Р(й, Вь ..., Ь„е= В„) --П Р й! -=В ). (21) ! 1 Из теоремы 6 в $ 10 следует, что независимость алгебр Фен .....4е равносильна независимости порождающих их разбиений и!н ..
„а! . Это приводит еще к одному эквивалентному определению независимости: случайные величины $„..., $„независимы, если для любых хпн ° ° ° ~ ХА!. Р (е! = хин..., 5„= х„г„) = Ц Р (5! = хг>!). Теор ем а 1. Если случайные величины $!, $г, ..., 5„ независимы, а уг(х) — числовые фунщии, то случайные величинь! т!! = д!(Е!), >1г = йг($г) °,, Ча = д~($л) также независимье Д о к а з а т е л ь с т в о. Так как имеет место включение Фе,(Е,.~ с: — Фен то утверждение сразу следует из определения 1.
Определение независимости (21) можно распространить на случайные векторы Ег=(Е!!,..., 5!„), компоненты которых являются случайными величинами. Для этого надо потребовать, чтобы равенство (21) выполнялось для любых множеств В, с: — 11!"! из г;-мерного евкли. дова пространства. Для таких независимых случайных векторов тоже будет справедлива теорема, аналогичная теореме 1, если дг(х) — функпии, отображающие К! и Й" тн — зг-мерные случайные векторы. э 1а нвзАВисимость случхлиых Всличи!! 56 (22) Д о к а з а т е л ь с т в о.
Докажем (22) сначала для двух случайных величин. Пусть с, Ч независимы, и $= Е хА!. ч = Х у!)в 1-1 ' 1=1 где х! (хз( ... ~ хл, у1< у! < ... ~ у„,. Отсюда получаем, в силу аддитивности математического ожидания: 1Ч = Х Х х уА1в, МИ = Х Е х1утР (А;В!). 1-1 1-1 1=1! ! Из независимости $, Ч следует Р(А1В!) =- Р(А!) Р(В!), поэтому М$Ч= ~, х1Р(А;) ~ у!Р(В!)=М$ МЧ.
Общий случай можно доказать по индукции, если положить а $1 ... $„1, ч = $„н воспользоваться независимостью й и ч. " Из мультипликативного свойства (22) следует адднтнвное свойство дисперсии. Ге о р ем а 3. Если случайные величины $„независимы, то 0 Й1+ ° ° ° + 5п) = 061+ ... + 0$д. (23) Доказательство. Докажем (23) для двух независимых случайных величин $ н Ч. Общий случай получается по индукции. имеем 0($+ ч)= Мф+ч)— — М Й+ ч)Р = М Гй — МЫ + (ч — Мч))! = М (ь — МЫ + +М(ч — Мч)'+2М(ь — Мь)(ч — Мч).
так как $, ч независимы, то к — Ма' н ч — Мч также независимы. Поэтому М(й — Мь~) (ч — Мч)= М (з — М$) М (ч — Мч). Отсюда следует утверждение, так как М (а — МЫ М$ — М$ О. й!(удьтипликативиое свойство математических ожи- даний. Теорем а 2. Если случайные величины $1, $з, независимы, то М~ДХ .. $„=Ц М$1, ! 1 ЕЕ ГЛ. 3. СЛУЧАИНЫЕ ВЕЛИЧИНЫ !КОНЕЧ11АЯ СХЕМА! ф 16. Евклидово пространство случайных величин Геометрическая интерпретация.
Пусть пространство элементарных событий ьа =(от) состоит нз п элементов со1, сог, ..., соя. Тогда каждой случайной величине й = = $(от) можно поставить в соответствие и-мерный вектор $ =($(о11)... $(со„)), Если ввести скалярное произведение б норму !!й!!=~/(~ 5) и расстояние Рнс. 9. Проекция й на пРЯмУю констант !е.
!(еь ) /М(еь,, т)г то множество всех случайных величин, определенных нз вероятностном пространстве (аа, М, Р), можно рассмагривать как и-мерное евклидово пространство. Определим в этом пространстве прямую констант 1Е =(Ц: Ц(ЕО1) = Е(СОг) = ... = $(ая) ). СПРОЕКТИРУЕМ на прямую 1о, т. е. найдем такую константу та ее 1о, что с((е, и!1)=пнпг1(е, с).
ее! Так как при любой константе с ~ 1о М (е — с)' = М ($ — М$)г+ (Мй — с)'=н 0$, то и!е=М$ и 11($, те)=~!!Щ. Таким образом, проекция $ на прямую констант 1о — это математическое ожидание Ме, и $ — Ме ортогонально 1о (ортогональность мы будем обозначать знаком .(., так что в нашем случае 5 — М$.1 1о), поскольку (в — М$, 1)= О.
Расстояние $ от 1о равно среднему квадратическому отклонению -~/0$ (см. рис. 9). Рассмотрим две случайныс величины $ и т). Полагая е = Ме+ $„11 = Мг) + 11„найдем косинус угла <р~,ч, между е! и Ч1: 1!Ой гАЧ з !6, ВВклилОВО .ИРОстРАнстВО случАйных Ввличин Вт Этот косинус носит название коэффициента корреляции между $ и т) и обозначается р($.т)). Числитель справа в (24) носит название «овариации между $ и т) и обозначается Сочч,с, т))=Мф Мс)(т) М,) Из (24) и (25) имеем сот(В, ч) Из неравенства Коши — Буняковского (М$!т)!)'~ (МЦ Мц'; следует, что Всегда ! РЯ, т!) !к=1. Если случайные величины $ и т) независимы, то Сот(В, т))=0 (так как С .В ~)=Ма — МД(ив -Мт1)=ма — Мв м(т!— — Мт))=О), следовательно, н р Я,т)) = О.
Если р ($, т))= =О„то $! .1 т1! и случай- д ел ные величины $ и ц ия- Ряс. !О. Проекция т! нл плоскость Вываются не«оррелировпннмми. Из определения коэффициента корреляции вытекает, что прк а,а, Ф О р ( ~В+ Р, .ч+ Р ) = — ' — ~р(В, ч). Спроектируем вектор ц на плоскость, в которой лежат 1о и $. Проекция т) = а"„+ Р определяется константами а и Р (см. рис. !0), при которых ц — ас — Р.) 1 н и — ай — Р1 $,т.е. М(т! аз — Р) 1=0, М (т1 — ац — Р) В = О. Это приводит к системе линейных уравнений относительно а и Р; а ° Мс+Р=Мц, а ° М~Я+Р.
М1 Щт) ая гл. 3. случАттиьтв Величины (коначкАя схкмАт Решая эту систему, получаем МР~ М; Мч Мйт — (Мй)а Мйт Мч — Мэч Мй ае атач а „ — =р — ' а~ аг э Мй = Мп — р=а, а где а'-=0$, а'„=От), р=р6, т)). Таким образом, дли проекции т! получаем выражение т1= Ми+ р — '" (~ — М$), ат называемое урааненттг.тт регрессии т) на $, Формула (26) дает линейное относительно й выражение т1, для которого М (т) — т))' = пт)п.
Вычислим это расстояние' (, ч) — М (ч ч) — (1 )ч)Ч вЂ” ~6 — МЫ)— , а, = М(Ч Мт)) + р а М($ М5)т — 2р — ~ М (ь — Мь) (т! — Мт)) = = — а'-„' + рэа'- — 2р а-", = а„'- (1 — р'). Полученное выражение а'-„(1 — р') яосит название остаточной днспгрсии. Если р'= 1, то М(т) — Ч)'=О и т)=тт с вероягностью 1, т. е. с вероятностью 1 в этом случае $ н т) линейно связаны: ч — Мч ~ — М.', =р а,т а' Таким образом, коэффициент корреляции р = р(с, т)) является мерой зависимости между $ и гь Если В и т) иезавнсцмы, то р = О; если же и' = 1, то ~~ и т) зависимы друг от друга линейно, причем прн р =- 1 т) монотонно возрастает вместе с й, а прп р = — 1 — убываег. Если случайные величины ст, ....
ьч, зависимы, то при вычислении дисперсии их суммы можно пользоваться следующей теоремой, й 1т. услОВные математические Ожидания бй Теорем а 4. )тлеет леесто формула и 0(Р,+ ... +~„)=~ 0$„+2 ,')", Сочф„5,). Д о к а з а т е л ь с т в о. Докажем теорему для суммы Е+ Ч. Общий случай доказывается анзлогпчно. Имеем 0 6+ Ч) = М Я вЂ” Мес) + (Ч вЂ” МЧ))' = М Я вЂ” МЫ'+ М(Ч вЂ” МЧ)'+2МЯ вЂ” МФ)(Ч вЂ” МЧ) = =0%+0Ч+2Сочй, Ч). б 17.
Условные математические ожиданий Вернемся к понятию условной вероятности. Пусть дано разбиение а: А,+ ... +А„=(7, (27) причем Р(Аа) >О для всех й. Относительно каждого события Аа из разбиения и любого события В я.:,Ф можно образовать условную вероятность Р (В1 А„) = Р (Ал) — Пусть Ф(а) — алгебра событий порожден- Р (ВАа) ная разбиением (27). Определим условную вероятность Р(В),яс(а)) относительно Ф(а) как случайную величину, Таблица 5 Закон распределения условной вероятности Р (В!ла) Р (В(Ат) Значения Р (В1.4 (а)) Р (В(А~) Р (Ае) Р (А~) Вероятности Р (Ал) которая принимает значение Р(В(Аа) при со ~ Аа. Закон распределения втой случайной величины Р(В 1,4(а)) определяется таблицей 5. Правую часть формулы полной вероятности п Р(В) = )' Р(Аа) Р(В1Аа) гл, а случАйные величины (конечт!Ая схемА! условным математическим ожиданием т» при заданном значении $ = хх будет тогда сумма М ( !»» е = хх) = ) у! Р (т» = у !» $ = хх) = ! 1 ') »!!Р(Ч у!, Е = хх) ! ! Р»з=хх» Мы можем считать М(!»»Е=хх) значениями случайной величины М®$), являющейся функцией от $ и равной М(т»~е = хх) ' при 5 = хь Случайную величину М(т»~~) будем называть условным математическим ожиданием при заданном $.
От этой случайной величины можно вычислить математическое ожидание М [М (!»» $)] =,)'., Р ($ = хх) М (т» В = хх). (29) А ! Теорема 5. х»А!еет место равенство М [М (!1» е)1 = Мт». (30) можно теперь трактовать как математическое ожидание МР(В)Ф(и)) случайной величины Р(В»вФ(а)). Пусть разбиение а» определяется случайной величиной Е: А!,=(Е=хх).
Обозначим вУ~ алгебру, порожденную е. Условная вероятность Р(В ~.Ф!) в этом случае есть функция от значений Е, и мы обозначаем ее Р(В~3), а ее значение — через Р(В»е=хх). Предположим теперь, что В! =(т» =у!), 1= 1, ... , т, образуют разбиение, порожденное случайной ве. личиной т».
Условным законом распределения т» при заданном значении 5 = хх назовем набор условных ве. роятностей Р(Ч у,, $ хх) Р(п=у! Б=хх) = (~=хх) 1=1, ..., и!; 8 88. неРАВенство чеБь1шеВА. ЕАХОн БОльших чисел В1 Доказательство. Подставляя в (29) значения условных математических ожиданий (28), имеем М[М(чй)) = Х РВ=ЕА) М(Ч Я=ХА) = 8-~ л ги ЮВ = Х Х р Р(ч = ун в = А) = Е и Р (ч = И = мч. А„, 1 ! Теорема доказана.