Лекционный курс в ПДФ (1119925), страница 7
Текст из файла (страница 7)
3Закон распределения непрерывной случайнойвеличины можно определить заданием либо функции р(х), либо функции F(x).3536Правило 3-х I (трех “сигм”).Пусть имеется нормально распределённая случайная величина x сматематическим ожиданием, равным а и дисперсией s2.
Определим вероятность попадания x в интервал (а – 3s; а + 3s), то есть вероятность того, что xпринимает значения, отличающиеся от математического ожидания не более,чем на три среднеквадратических отклонения.P(а – 3s< x < а + 3s)=Ф(3) – Ф(–3)=2Ф(3)По таблице находим Ф(3)=0,49865, откуда следует, что 2Ф(3) практическиравняется единице.
Таким образом, можно сделать важный вывод: нормальнаяслучайная величина принимает значения, отклоняющиеся от еематематического ожидания не более чем на 3s.(Выбор числа 3 здесь условен и никак не обосновывается: можно быловыбрать 2,8, 2,9 или 3,2 и получить тот же вероятностный результат.
Учитывая,что Ф(2)=0,477, можно было бы говорить и о правиле 2–х “сигм”.)Совместное распределение двух случайных величин.Пусть пространство элементарных исходов W случайного экспериментатаково, что каждому исходу wij ставиться в соответствие значение случайнойвеличины x, равное xi и значение случайной величины h, равное yj.Примеры:1. Представим себе большую совокупность деталей, имеющих видстержня. Случайный эксперимент заключается в случайном выбореодного стержня.
Этот стержень имеет длину, которую будем обозначатьx и толщину—h (можно указать другие параметры—объем, вес, чистотаобработки, выраженная в стандартных единицах).2. Если результат эксперимента—случайный выбор какого–либопредприятия в данной области, то за x можно принимать объемпроизводства отнесенный к количеству сотрудников, а за h—объемпродукции, идущей на экспорт, тоже отнесенной к числу сотрудников.В этом случае мы можем говорить о совместном распределении случайныхвеличин x и h или о “двумерной” случайной величине.Если x и h дискретны и принимают конечное число значений (x – nзначений, а h – k значений), то закон совместного распределения случайныхвеличин x и h можно задать, если каждой паре чисел xi, yj (где xi принадлежитмножеству значений x, а y j—множеству значений h) поставить в соответствиевероятность pij, равную вероятности события, объединяющего все исходы wij (исостоящего лишь из этих исходов), которые приводят к значениямx = xi ; h = y j .Такой закон распределения можно задать в виде таблицы:37xx1xixnh¼¼y1y2¼yj¼ykр11¼р i1¼рn1P1р12¼р i2¼рn2P2¼¼¼¼¼¼р1j¼р ij¼рnjPj¼¼¼¼¼¼р1k¼р ik¼рnkPknP1¼Pi¼Pn¼(*)kjОчевидно å å pi = 1i =1 j =1Если просуммировать все рij в i–й строке, то получимkjå pi = Pij =1вероятность того, что случайная величина x примет значение xi.
Аналогично,если просуммировать все рij в j–м столбце, то получимnjjå pi = Pi =1вероятность того, что h принимает значение y j.Соответствие xi ® Pi (i = 1,2,¼,n) определяет закон распределения x,также как соответствие yj ® P j (j = 1,2,¼,k) определяет закон распределенияслучайной величины h.nki =1j =1j jОчевидно M x = å xi Pi , M h = å y P .Раньше мы говорили, что случайные величины x и h независимы, еслиpij=Pi×P j (i=1,2,¼,n; j=1,2,¼,k).Если это не выполняется, то x и h зависимы.В чем проявляется зависимость случайных величин x и h и как ее выявитьиз таблицы?Рассмотрим столбец y1.
Каждому числу xi поставим в соответствие числоpi1pi/1=(1)P1которое будем называть условной вероятностью x= xi при h=y1. Обратитевнимание на то, что это не вероятность Pi события x= xi, и сравните формулу (1)P( A 1 B).с уже известной формулой условной вероятности P( A / B) =P( B)Соответствиеxi®рi/1, (i=1,2,¼,n)38будем называть условным распределением случайной величины x при h=y1.nОчевидно å pi / 1 = 1 .i =1Аналогичные условные законы распределения случайной величины xможно построить при всех остальных значениях h, равных y2; y3,¼, yn ,ставя вpij nсоответствие числу xi условную вероятность pi/j =( å pi / j = 1 ).Pj i =1В таблице приведён условный закон распределения случайной величины xпри h=yjxx1x2pi/jp1jPjp2jPj¼xi¼pijPj¼xn¼pnjPjМожно ввести понятие условного математического ожидания x при h = yjnpij1 nM ( x / h = y j ) = å xi j = j å xi pijPP i =1i =1Заметим, что x и h равноценны. Можно ввести условное распределение hпри x=xi соответствиемpi jy ®(j = 1,2,¼,k)PiТакже можно ввести понятие условного математического ожиданияслучайной величины h при x=xi :jk1 k j jj piM ( h / x = xi ) = å y=åy pPiPi j =1 ij =1Из определения следует, что если x и h независимы, то все условныезаконы распределения одинаковы и совпадают с законом распределения x(напоминаем, что закон распределения x определяется в таблице (*) первым ипоследним столбцом).
При этом очевидно, совпадают все условныематематические ожидания М(x/h = yj) при j = 1,2,¼,k, которые равны Мx.Если условные законы распределения x при различных значениях hразличны, то говорят, что между x и h имеет место статистическая зависимость.Пример I.
Пусть закон совместного распределения двух случайныхвеличин x и h задан следующей таблицей. Здесь, как говорилось ранее, первыйи последний столбцы определяют закон распределения случайной величины x,а первая и последняя строки – закон распределения случайной величины h.j39231/3602/361/362/363/361/368/366/36 12/36Полигоны условных распределенийграфике (рис. 1).Здесь явно просматривается зависимость условного закона распределенияx от величины h.Пример II. (Уже встречавшийся).Пусть даны две независимые случайные величины x и h с законамираспределения002/3616/3618/36можноx1020304001/3xР1h12/31/363/367/3625/36изобразить на трехмерном13/4hР21/4Найдем законы распределений случайных величин a=x+h и b=x*haР13/1227/1232/12bР04/1216/1222/12Построим таблицу закона совместного распределения a и b.a123b0123/12003/121/126/1207/12002/122/124/126/122/12Чтобы получить a=2 и b=0, нужно чтобы x приняла значение 0, а hприняла значение 2.
Так как x и h независимы, тоР(a=2; b=0)= Р(x=0; h=2)=Р(x=0)*Р(h=2)=1/12.Очевидно также Р(a=3; b=0)=0.40Построим полигоны условныхраспределений. Здесь зависимость a отb довольно близка к функциональной:значению b=1 соответствует единственное a=2, значению b=2 соответствует единственное a=3, но приb=0 мы можем говорить лишь, что a с3вероятностьюпринимает значение 141– значение 2.4и с вероятностьюПример III.Рассмотрим закон совместного распределения x и h, заданный таблицейx123h0121/303/302/301/53/309/306/303/51/303/302/301/51/63/62/6В этом случае выполняется условие P(x=xi; h=yj)=P(x=xi)*P(h=yj),i=1,2,3¼; j=1,2,3,¼Построим законы условных распределенийxph=1 ( x) = ph= 2 (x) == ph=3 (x) = ph= 4 (x)11/523/531/5Законы условных распределений не отличаются друг от друга при h=1,2,3и совпадают с законом распределения случайной величины x.В данном случае x и h независимы.Характеристикой зависимости между случайными величинами x и hслужит математическое ожидание произведения отклонений x и h от ихцентров распределений (так иногда называют математическое ожиданиеслучайной величины), которое называется коэффициентом ковариации илипросто ковариацией.cov(x; h) = M((x–Mx)(h–Mh))Пусть x = {x1, x2, x3,¼, xn}, h = {y1, y2, y3,¼,yn}.
Тогдаnkcov(x; h)= å å ( xi - Mx)( y j - Mh)P((x = xi ) 1( h = y j ))i =1 j =1(2)41Эту формулу можно интерпретировать так. Если при больших значениях xболее вероятны большие значения h, а при малых значениях x более вероятнымалые значения h, то в правой части формулы (2) положительные слагаемыедоминируют, и ковариация принимает положительные значения.Если же более вероятны произведения (xi – Mx)(yj – Mh), состоящие изсомножителей разного знака, то есть исходы случайного эксперимента,приводящие к большим значениям x в основном приводят к малым значениям hи наоборот, то ковариация принимает большие по модулю отрицательныезначения.В первом случае принято говорить о прямой связи: с ростом x случайнаявеличина h имеет тенденцию к возрастанию.Во втором случае говорят об обратной связи: с ростом x случайнаявеличина h имеет тенденцию к уменьшению или падению.Если примерно одинаковый вклад в сумму дают и положительные иотрицательные произведения (xi – Mx)(yj – Mh)pij, то можно сказать, что всумме они будут “гасить” друг друга и ковариация будет близка к нулю.
В этомслучае не просматривается зависимость одной случайной величины от другой.Легко показать, что еслиP((x = xi)∩(h = yj)) = P(x = xi)P(h = yj) (i = 1,2,¼,n; j = 1,2,¼,k),òî cov(x; h)= 0.Действительно из (2) следуетnkå å xi - Mx y j - Mh Px = xi P h = y j =i =1 j = 1nki =1j =1= å xi - MxPx = xi × å y j - Mh P h = y j == M x - Mx M h - Mh = 0 × 0 = 0Здесь использовано очень важное свойство математического ожидания:математическое ожидание отклонения случайной величины от еематематического ожидания равно нулю.Доказательство (для дискретных случайных величин с конечным числомзначений).nnni =1i =1i =1M x - Mx = å xi - Mx P xi = å xi P xi - Mx å P xi = Mx - Mx = 0Ковариацию удобно представлять в видеcov(x; h)=M(xh–xMh–hMx+MxMh)=M(xh)–M(xMh)–M(hMx)+M(MxMh)==M(xh)–MhMx–MxMh+MxMh=M(xh)–MxMhКовариация двух случайных величин равна математическому ожиданиюих произведения минус произведение математических ожиданий.42Легко доказывается следующее свойство математического ожидания: еслиx и h—независимые случайные величины, то М(xh)=МxМh.
(Доказать самим,n mиспользуя формулу M(xh) = å å xi y j P x = xi P h = y j )i =1 j =1Таким образом, для независимых случайных величин x и h cov(x;h)=0.Лекция 943Коэффициент корреляции.Величина cov(x;h) зависит от единиц измерения, в которых выражаются xи h. (Например, пусть x и h—линейные размеры некоторой детали. Если заединицу измерения принять 1 см, то cov(x;h) примет одно значение, а если заединицу измерения принять 1 мм, то cov(x;h) примет другое, большее значение(при условии cov(x;h)¹0)). Поэтому cov(x;h) неудобно принимать за показательсвязи.Чтобы иметь дело с безразмерным показателем, рассмотрим случайныевеличиныN - MN N - MND - MD D - MDN* ===; D* =INIDDDDNТакие случайные величины называются нормированными отклонениямислучайных величин x и h.Каждая из случайных величин x* и h* имеет центром (математическоеожидание) нуль и дисперсию, равную единице.