Ю.В. Прохоров, Л.С. Пономаренко - Лекции по теории вероятностей и математической статистике (1115359), страница 5
Текст из файла (страница 5)
Отношение PP(AB)называют условной вероятностью(A)события B при условия, что наступило событие A, и обозначают P(B|A).В случае, когда P(B) = P(B|A), естественно говорить, что событиеB не зависит от события A. Но в этом случае P(B) · P(A) = P(AB),откуда следует, что P(A) = P(A|B), если только P(B) 6= 0. То есть втом случае, когда A не зависит от B, событие B также не зависит отA. Поэтому естественнее дать определение независимости двух событийв симметричной форме, распространяющееся и на события с нулевойвероятностью.Определение 4.2.
События A и B называются независимыми, еслиP(AB) = P(A) · P(B).Задача 4.1. Проведем опыт, состоящий в подбрасывании двух костей.Покажите, что события A и B, введенные в рассмотренном выше примере, независимы.В математической статистике мы рассмотрим более содержательныепримеры: независимость пола ребенка от различия в возрасте родителей, независимость пола второго ребенка от пола старшего ребенка вдвухдетной семье, независимость длительности продолжения телефонного разговора от того, сколько он уже длится и т.д.4.2Независимость случайных величин. Взаимная независимость нескольких случайных событийРассмотрим несколько случайных величин X1 (ω), X2 (ω), .
. . , XN (ω) с возможными значениями xi,ji , где первый индекс соответствует номеру случайной величины, а второй номеру значения (1 ≤ ji ≤ mi ).25Определение 4.3. Случайные величины X1 , . . . , XN называются взаимно независимыми (или просто независимыми), если выполнены m1 ×m2 × . . . × mN соотношений:P{X1 (ω) = x1,j1 , . .
. , XN (ω) = xN,jN } =NYP{Xk (ω) = xk,jk },k=1где 1 ≤ jk ≤ mk ,k = 1, · · · , N.Замечание. Отметим, что существуют различные критерии независимости случайных величин, с которыми познакомимся в дальнейшем.В практических задачах обычно на основании каких-либо физических(или других) соображений предполагается независимость некоторых величин, а из этого выводится независимость (или зависимость) другихслучайных величин.Понятие взаимной независимости случайных событий можно ввести, исходя из определения независимости случайных величин.Определение 4.4.
События A1 , . . . , AN взаимно независимы, если взаимно независимы индикаторы этих событий IA1 (ω), . . . , IAN (ω).Это означает, чтоP{ω : IA1 (ω) = δ1 , . . . , IAN (ω) = δN } =NYP{ω : IAk (ω) = δk },k=1гдеδk =1,0,i = 1, · · · , N.Всего требуется выполнения 2N таких соотношений.Поясним определение взаимной независимости случайных событийдля частных случаев N = 2, 3.Пусть имеется два события A1 , A2 . Тогда необходимо выполнение 22соотношений:P(A1 A2 ) = P(A1 ) · P(A2 ),P(A1 A2 ) = P(A1 ) · P(A2 ),P(A1 A2 ) = P(A1 ) · P(A2 ),P(A1 A2 ) = P(A1 ) P(A2 ).Задача 4.2. Покажите, что в этом случае все соотношения вытекают изкакого-либо одного, например,из первого.26Таким образом взаимная независимость двух событий эквивалентнаопределенной выше независимости событий.Аналогичным образом можно выписать 23 = 8 соотношений, необходимых для взаимной независимости событий A1 , A2 , A3 :P(A1 A2 A3 ) = P(A1 ) P(A2 ) P(A3 ),...(4.1)P(A1 A2 A3 ) = P(A1 ) P(A2 ) P(A3 ).Задача 4.3.
Докажите, что в этом случае выполнение условий 4.1 взаимной независимости трех событий эквивалентно выполнению следующихравенств:P(A1 A2 ) = P(A1 ) P(A2 ),P(A1 A3 ) = P(A1 ) P(A3 ),(4.2)P(A2 A3 ) = P(A2 ) P(A3 ),P(A1 A2 A3 ) = P(A1 ) P(A2 ) P(A3 ).Задача 4.4.
Покажите, что в общем случае для взаимной независимостиN случайных событий необходимо и достаточно выполнение 2N − N − 1условий: для любого 2 ≤ k ≤ N, для любых наборов различных междусобой индексов i1 < i2 < . . . < ikP(Ai1 . . . Aik ) = P(Ai1 ) · . . . · P(Aik ).(4.3)Определение 4.5. События A1 , . .
. , AN называются попарно независимыми, если в (4.3) выполнены соотношения для k = 2.В частности, три события A1 , A2 , A3 называются попарно независимыми, если в ( 4.2) выполнены первые три равенства.Задача 4.5. Пусть события A, B, C, D– взаимно независимы,E = A ∪ B, F = C ∪ D. Докажите, что события E и F независимы.4.3Свойства независимых случайных величин и взаимно независимых случайныхсобытийСформулируем сначала общие свойства независимых случайных величин.Теорема 4.1. Пусть случайные величины X1 , .
. . , XN – независимы. Тогда для любых наборов 1 < j1 < j2 < . . . jk ≤ N случайные величиныXj1 , Xj2 , . . . , Xjk – независимы.27Доказательство. Проведем сначала доказательство для трех случайных величин. Чтобы показать, как это делается, и не загромождать записи индексами, рассмотрим независимые случайные величины U, V, Wсоответственно со значениямиU : u1 , . .
. , u l ,V : v1 , . . . , v m ,W : w1 , . . . , wn .Покажем, что из независимости трех случайных величин следует, чтолюбые две, например, U и V, также независимы. Для любых значенийэтих случайных величин из определения независимости случайных величин следуетP{U = ui , V = vj , W = wk } = P{U = ui } P{V = vj } P{W = wk }.Просуммируем эти равенства по 1 ≤ k ≤ n, получимnXP{U = ui , V = vj , W = wk } = P{U = ui } P{V = vj }k=1nXP{W = wk },k=1откуда получаемP{U = ui , V = vj } = P{U = ui } P{V = vj }.Аналогичными рассуждениями в общем случае можно показать, что если независимы любые N случайных величин, то независимы и произвольные N − 1 из этого набора случайных величин.Теорема 4.2. (Без доказательства.) Пусть случайные величины X1 , .
. . , XN– независимы и разбиты на непересекающиеся группы:X1,1 , . . . , X1,n1 ,X2,1 , · · · , X2,n2 ,...Xk,1 , . . . ,Xk,nk ,N = n1 + n2 + · · · + nk , k ≥ 2. Определим новые случайные величины Y1 = g1 (X1,1 , . . . , X1,n1 ), . . . , Yk = gk (Xk,1 , . . .
, Xk,nk ). Тогда Y1 , . . . , Ykтакже независимы.Эти теоремы вполне соответствуют нашим представлениям о независимости и аналогичны теоремам линейной алгебры ( если g1 , . . . , gk невырожденные линейные преобразования векторов).28Задача 4.6. Докажите утверждение теоремы 4.2 для случая n1 = n2 =· · · = nk = 1.Для случайных событий из этих теорем вытекают следующие утверждения.Теорема 4.3. Если события A1 , . . . , AN взаимно независимы, то и любые k из них также взаимно независимы.Для формулировки следующей теоремы напомним, что мы говорим,что событие A определяется по событиям A1 , . . .
, Al , еслиIA (ω) = f (IA1 (ω), . . . , IAl (ω)).Определение 4.6. Событие A определяется по случайным величинамX1 , . . . , Xl , еслиIA (ω) = g(X1 (ω), . . . , Xl (ω)),т.е. если по известным значениям случайных величин можно установить,наступило событие A или нет.Теорема 4.4. Если взаимно независимые события A1 , . . . , AN разбитына непересекающиеся группы событийA1,1 , · · · , A1,n1 ,...Ak,1 , . . . , Ak,nk ,а события B1 , . . . , Bk определяются каждое по своей группе событий,то B1 , . .
. , Bk также взаимно независимы.4.4Критерий независимости случайных величинТеорема 4.5. Для независимости случайных величин X1 , . . . , Xn необходимо и достаточно, чтобы при любом выборе полуинтервалов[a1 , b1 ), . . . , [aN , bN ) на числовой прямойP{ω : a1 ≤ X1 (ω) < b1 , . . . , aN ≤ XN (ω) < bN } =NYP{ω : ak ≤ Xk < bk }.k=1(4.4)29Замечание. В общем случае выполнение условий (4.4) берется в качестве определения независимости случайных величин.Доказательство. 1. Доказательство теоремы проведем для двух случайных величин U и V со значениями u1 , .
. . , ul и v1 , . . . , vm соответственно.Докажем сначала достаточность условия (4.4). Пусть uj , vk – произвольные значения этих случайных величин. Выберем интервалы [a, b), [c, d)таким образом, чтобы uj ∈ [a, b), vk ∈ [c, d), но других значений случайных величин в них не попадало. ТогдаP{U (ω) = uj , V (ω) = vk } = P{a ≤ U (ω) < b, c ≤ V (ω) < d} == P{a ≤ U (ω) < b} P{c ≤ V (ω) < d} = P{U (ω) = uj } P{V (ω) = vk }.2. Для доказательства необходимости (4.4) рассмотрим событие[C = {a ≤ U (ω) < b, c ≤ V (ω) < d} ={U (ω) = uj , V (ω) = vk }.uj ∈[a,b),vk ∈[c,d)Поскольку объединяемые события попарно не пересекаются, тоXP(C) =P{U (ω) = uj , V (ω) = vk }.uj ∈[a,b),vk ∈[c,d)Воспользовавшись независимостью случайных величин, получаемXP(C) =P{U (ω) = uj } P{V (ω) = vk } =uj ∈[a,b),vk ∈[c,d)= XP{U (ω) = uj } · uj ∈[a,b)XP{V (ω) = vk } =vk ∈[c,d)= P{a ≤ U (ω) < b} P{c ≤ V (ω) < d}.4.5Мультипликативное свойство математического ожидания независимых случайных величинТеорема 4.6.
Пусть X1 , . . . , XN – независимые случайные величины.Тогда!NNYYXi =EE Xi .i=1i=130Доказательство. 1. Докажем утверждение для двух случайных величинU и V. Обозначим Aj = {U (ω) = uj }, Bk = {V (ω) = vk }.События Aj ∩ Bk , (j = 1, l, k = 1, m) образуют разбиение Ω, причемесли ω ∈ Aj ∩ Bk , то U (ω) · V (ω) = uj · vk . Из леммы 3.1E(U V ) =ml XXuj vk P{Aj ∩ Bk }.j=1 k=1Используя независимость случайных величин, получим, чтоE(U V ) =l XmXuj vk P(Aj ) P(Bk ) =j=1 k=1=lXj=1!uj P(Aj )·mX!vk P(Bk )= E U · E V.k=12.
Пусть теперь N ≥ 3 и для любого числа сомножителей, не превосходящего N − 1, теорема верна. ПредставимX1 · . . . · XN = U · V,где U = X1 ·. . .·XN −1 , V = XN . В силу теоремы 4.2 случайные величиныU и V независимы, поэтомуE(U V ) = E U · E V = E(X1 · . . . · XN −1 ) · E XN .Но по предположению индукции первый множитель в правой части равен произведению математических ожиданий случайных величин, следовательно,E(X1 · .