Л.Н. Фадеева, А.В. Лебедев - Теория вероятностей и математическая статистика (1115296), страница 16
Текст из файла (страница 16)
Доказательство (дискретиый случай). 1) Константу С можно рассматривать как случайную величину, принимающую единственное значение С с вероятностью единица, так что МС = С х 1 = С. 2) Случайная величина С~ принимает значения Сх; вместо х,, с вероятностями рл таким образом, сумма увеличивается в С раз. 3) Используя ранее введенные обозначения, получаем М(1+ г//) = ~Х~' (х/ + У ) Рв = / х/ лз Р/' + ~~ У/ в~~Р» = !,/ / / =л' х/р,(х,.)+~>в~у р„(у/) =М(.+М!1.
/ 4) Аналогичным образом получаем М(гд)=~ху рв = в/ ху р,(х)р„(у,)= ~в хр (х) ~ у.р„(х )=МГ,.МП. 93 ЧАСТЫ. Теория вероятиостей Методом математической индукции можно доказать, что ма. тематическое ожидание суммы и случайных величин»„ »„..., » а равно сумме их математических ожиданий: М(»!+ »г+ - + ».) = М»! ™»г+ -. + М».. Диснерсией случайной величины» называется число Ю» = = М(» — М»)'.
Величина о=,~Ю» называется средним квадратическим отклонением. Из определения дисперсии вытекают формулы для вычисления дисперсии дискретной случайной величины: Ю» = Х ~(х! — М»)'р!, 1=! если случайная величина принимает конечное число значений Ю»= ) (х! — М»)'р! при условии сходимости ряда. В общем случае вычисляют дис- персию по другой (эквивалентной) формуле Ю» = М»' — (М»)' Доказательство. Из свойств математического ожидания получаем Ю» — М(» М»)т — М(»т 2»М» + (М»)т)— = М»г 2(М»)т+ (М»)т= М»! — (М»)т (разумеется, при условии существования конечных М»' и М»).
Для дисперсии справедливы следующие свойства: 1) ЮС = О (дисперсия постоянной равна нулю); 2) Ю(С») = СеЮ»; 3) Ю(»+ С) = Ю»; 4) ЕСЛИ СЛуЧайНЫЕ ВЕЛИЧИНЫ» И Ч НЕЗаВИСИМЫ, тО Ю(»+ т1) = = Ю»+ Ю!1. Доказательство. 1) ЮС = М(С вЂ” МС)' = М(С вЂ” С)'= МО = О. ) Ю ( С» ) М ( С» М ( Ц ) ) т М ( С» С М» ) т С М (» М» ) — С2Ю» 3) Ю(»+ С) = М((»+ С) — М(»+ С))'= М((»+ С) — (М»+ С))'= — М(» М»)т — Ю» 94 глава 5 4) Ю(»+.
т1) = М((».+ т)) — М(».+ Ч))т= М((» — М») ~- (т) — МЧ))т= = Ю»+ 2М((» — М»)(Ч вЂ” Мт1)) + Ют), гав М((» — М»)(Ч МЧ)) = М(»Ч»МЧ ЧМ»+ ттРМЧ) = М(»Ч) — 2М»Мч+ М»Мч = О. Методом математической индукции можно доказать, что если»„»„..., »„попарно независимы, то дисперсия их суммы равна сумме дисперсий: Ю(», +», + ... +»„) = Ю», + Ю», + ... + Ю»„. Модой случайной величины называют ее наиболее вероятное значение. В частности, наивероятнейшее значение числа успехов в схеме Бернулли — это мода бинамиального раслределеииа Медианой случайной величины» называют число х, такое, что Р(» < х „) = Р(» > х „) = 1/2. Для дискретной случайной величины» это число может не совпадать ни с одним из значений».
Поэтому медиану дискретной случайной величины определяют как любое число х „, лежащее между двумя соседними возможными значениями х! и х,.„такими, что Р(х) < 1/2; Р1ха!) > 1/2. Задача 4. Пусть случайная величина» имеет следующий закон распределения. Вычислить математическое ожидание Лт„ дисперсию Ю» и среднеквадратическое отклонение о. Решение. По определению математическое ожидание » равно М»=) хр,= — 1х1/4+Ох1/4+2х1/4=1/4. Далее: 3 М»т=~ ~х,.'р,.=( — 1) х1/4+О'х1/4+2тх1/4=5/4, !=! а потому Ю» = М»' — (М»)' = 5/4-! /16 =19/16. 99 ЧАСТЬ !. Теория вероятностей Среднее квадратическое отклонение о=,/Щ =т/19/4.
Задача 5. Для пары случайных величин из задачи 3 вычислить М(сп). 3 Решение. Воспользуемся формулой М~= ) х,р!. А именно, в ы! каждой клетке таблицы выполняем умножение соответствующих ЗНаЧЕНИй Х! И Уе РЕЗУЛЬтат УМНОжаЕМ На ВЕРОЯтНОСтЬ РР И ВСЕ ЗтО суммируем по всем клеткам таблицы. В итоге получаем М((т!) = — 1х1х1/16+( — 1)х2х3/16+Ох!х1/16+ Ох2хЗ/16+ +1х)х1/8+)х2х3/8= — 1/16 — 3/8+1/8+3/4= 7/16. $ б.б.
Основные дискретные распределения и их характеристики Распределение Бернулли (биномиольное распределение) определяется как закон распределения случайной величины, равной числу успехов в п испытаниях Бернулли. Эта случайная величина с может принять любое из значений О, 1, 2, ..., п, а их вероятности определяются формулой Бернулли: если р — вероятность успеха, т) — вероятность неудачи, то Р(с,=т) =Р„(т)=С„"р с1", т=0,1,...,п.
Для распределения Бернулли ЛЦ = пр, ЮС = прт7. Распределение Пуассона. Случайная величина, распределенная по закону Пуассона, может принять любое из значений О, 1, 2, ... (счетное множество значений), а их вероятности задаются формулой А Р(с=т)= — е', т=О, 1,2, ...,т»>0. т! Для распределения Пуассона Лес = А, И, = А. Геометрическое распределение имеет случайная величина 4, равная числу испытаний Бернулли до первоео «успеха» (включи- 96 глввв з ча тельно) с вероятносп ю «успеха» в одном испытании, равной р.
Такая случайная величина с принимает значения 1, 2, 3, ..., а их вероятности задаются формулой Р(в, = т) = рд" ', т = О, 1, 2, ..., О < р < 1, а =1 — р. для геометрического распределения А% = Чр Щ = Ч/р'. Гипергеометрическое распределение возникает, например, в задаче о выборке деталей. Пусть имеется Ф деталей, из которых М вЂ” стандартные. Делается выборка из и деталей. Случайная величина 4 определяется как число стандартных деталей в такой выборке.
Оно может равняться любому числу от 0 до п, но, конечно, не больше, чем М. С другой стороны, число нестандартных деталей в выборке не больше, чем Ф- М, поэтому число стандартных не меньше и — (Ф вЂ” М). Вероятности этих значений определяются гипергеометрической формулой С»с»» Р(Г=т)= " и-и т=шах(0, и — Ф+М), ...,пип(п, М). С„" Для гипергеометрического распределения Мс = ир, 2Ц = = (У вЂ” п)прц((Х вЂ” 1), где р = М/У, а = 1 — р. $ ч.у. Ковариация.
Коэффициент корреляции Ковариацией случайных величин г, и 11 называется число сот(4, ч) = М((4 — МЦНч — Мч)] (в предположении существования всех математических ожиданий). Ковариацию можно вычислить по более простой эквивалентной формуле сот(», Ч) = М(~Ч) — (МЧ)(МЧ). Действительно, сот(~, Ч) = М[(~ — М~)(Ч МЧ)1 = М(Рд — 4МЧ вЂ” ЧМ~+ + М~МЧ) = М(~ч) — 2М~Мч + Л1~Мч = Мйч) — (М~)(Мч). 97 4 Теор«» всроят«в«»в ЧАСТЫ.
Теория вероятностей Из определения ковариации вытекают следующие ее свойства: 1) если» и т) — независимые случайные величины, то сот (», т)) = О; 2) сот(», т)) = соч(ть»); 3) соч(С~, т)) = Ссоо(», ТТ); сот(», СТТ) = С сотт(», т1); 4) сот(», +»„т1) = сот(»о т1) + сотт(»„т)); сот(»1 т), + т)т) сотт(», т) ) + сот(», ТТ ), 5) сот(», ») = Ю»; 6) если случайные величины», и»т имеют конечные дисперсии Б», и И„, то дисперсия суммы этих случайных величин существует и равна Щ+»т) = Ю» + К + 2сот(»»т)' 2) -~~,~, < «„»)<ЖЯ,; 8) равенство сот(»с»т) = ~,/Ж,11»т достигается тогда и только тогда, когда случайные величины», и», линейно зависимы.
Доказательство. 1) В случае независимых случайных величин М(»ТТ)— — (М»НМп) = О, так как М(»т1) = (М»НМТ)). 2) От перемены мест сомножителей произведение не меняется. 3) сотт(С», тт) = М[(С» — М(С»)Нт) — Мтт)1 = М1(С» — СМ»)) х н (т) — Мт))1 = СМ((» — М»Нт1 — МТТ)] = Ссотт(», тТ). Аналогично для т). 4) Воспользуемся свойством математического ожидания: соч(Е,, +»,т1)= М(((Е,, +»,) — М(», +» )НтТ вЂ” МТТ)) = М((»~ М»~) + (»т М»т)НТ1 МтТ)) = м((», -м»Нч- мч))+ мЖт -м»,Нч- мч)) = = сот(Е.о т1) + сот(Е,„тТ).
Аналогично ддя П и ТТ 5) Получаем по определению дисперсии 6) 2)(» +» ) = М(» +» )' — (М(» +» ))™(» '+ 2»»т+ +» т) (~м» + М» )т= М» т+ 2М»» + тщ т — (М» )т — 2М»,М»,— — (тм» )' = Ю», + 2)»т+ 2сот(»о»т). 98 Глава 5 4в 7) Найдем дисперсию случайной величины п„=х«, — «,, где х — произвольное число. По свойствам дисперсии получим Юч — х'Ю« — 2хсоч(«, «) + Ю«г Как функция от х, дисперсия Юп„представляет собой квадратный трехчлен.
Но дисперсия любой случайной величины ие может быть меньше нуля, так что ЮП„> О для любого х. Поскольку Ю«, ~ О, то дискриминант уравнения Юп„= О должен быть неположителен, т.е. (соч(«, «)]' — Ю«,Ю«,ь О или ~соч(«, «)~ (,~Я,Я,. 8) Предположим, что дискриминант равен нулю, тогда уравнение х٠— 2хсоч(«„«,) + Ю«2= О имеет решение х, и Ют~ =О. Это означает, что П„, — = с, т.е. величина постоянная, й случайные величины «, и «, связаны линейной функциональной зависимостью «, = хв«, — с, причем если коэффициент пропорциональности х, положителен, то соч(«„«,) =,~Я,Ю«2, а если х, отрицателен„то соч(«„«,) = — ~Я,Ю«а . Свойствами 1 — 5 удобно пользоваться при вычислении ковариации от сложных выражений. Например: соч(2«+и, 3«-4п) = 2соч(«, 3« — 4п)+соч(п, 3« — 4п) = =бсоч(«, «) — 8соч(«, и)+Зсоч(ть «) — 4соч(ль и) = =бЮ«-5соч(«, п)-4Ю11.
Итак, ковариацию можно считать мерой зависимости случайных величин, так как для независимых случайных величин ковариация равна нулю. Существенным недостатком ковариации является то, что ее размерность совпадает с произведением размерностей случайных величин. Естественно, желательно иметь безразмерную характеристику зависимости. Таковой является коэффициент корреляции. Коэффициентам корреляции случайных величин «и и (с положительными дисперсиями) называется число соч(«, и) ,/ж,ф~ 99 ф ЧАСТЫ.
Теория вероятностей Коэффициент корреляции является одной из важных мер зависимости случайных величин. Как следует из свойств ковариации, он принимает значения от -1 до +1, отражая как силу зависимости (по абсолютной величине), так и характер (положительная или отрицательная). Чем ближе ~ р ~ к единице, тем с большим основанием можно считать, что с, и ~, находятся в линейной зависимости, т.е. коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную вероятностную зависимость, которая заключается в том, что при возрастании одной случайной величины другая имеет тенденцию изменяться по линейному закону.
Можно сказать, что коэффициент корреляции р отражает степень линейной зависимости случайных величин. С возрастанием ~, случайная величина ~, имеет тенденцию к увеличению при р > 0 и к уменьшению при р < О. Поэтому при р > 0 говорят о положительной корреляционной зависимости с, и с„, при р < 0 — об отрицательной. Для независимых случайных величин коэффициент корреляции равен нулю. Если р = О, то случайные величины называются некоррелированными. Из независимости случайных величин следует их некоррелированность, но наоборот — не всегда. Для линейно зависимых величин, т.е.
в случае и = ас + Ь, где а и Ь вЂ” константы, коэффициент корреляции равен +1 при а >Ои-!прин<О. Итак, для независимых случайных величин р = О, для линейно зависимых ~р ~ = 1, а в остальных случаях он находится в интервале -1 < р < 1. Задача 6. Дпя пары случайных величин из задачи 3 вычислить ковариацию сот(с, П). Решение. В предыдущей задаче уже было вычислено математическое ожидание М~п = 19/16. Осталось вычислить М~ и Мп.