Теория вероятности. Вентцель Е.С (4-е издание) (1082431), страница 31
Текст из файла (страница 31)
решенно. Разлагая знаисвагегь иа иножгпели, имеем: г (л») = к(1+ . ) Н(1+уг) из то10, чго функция г (л, у) рнслалгсь вз иронзведевие двух функций из которых одна зависит только от х, а другая — только от у, закточаем, вл) зависимые и независимые слзчлиные величины 173 чго величины К н У должны быть независимы.
Действительно, применяя формуаы (8.4.2) и (8.4.3), имеем: ! 1' гГУ ! У"'= -П+") .) -(1+у*) .(1+х)' СО аналогично 1 уа (у) огкула убеждаемся, что У(х, у) =Л (х)У,(у) и, следовательно, величины К и 1' независимы. Вышеизложенный критерий суждения о зависимости или независимости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает наоборот: закон распределения системы (Х, У) ие известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины Х к у независимы.
Тогда можно написать плотность распределения системы как произведение плотностей распределения отдельных величин, входящих в систему. Остановимся несколько подробнее на важных понятиях о «зависниостн» и «независимости» случайных величин. Понятие «зависимости» случайных величин. которым мы пользуемся в теории вероятностей, несколько отличается от обычного погжтия «зависимости» величин.
которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости — полную, жесткую, так называемую функциональную зависимость. Две величины Х и У называются функционально зависимыми, если, зная значение одной нз иих, можно точно указать значение другой, В теории вероятностей мы встречаеися с другим, более общим, типом зависимости — с вероятностной или «стохастнческой» зависимостью. Если величина )' связана с велкчиной Х вероятностной зависимостью.
то, зная значение Х, нельзя указать точно значение У, а можно указать только ее закон распределения, заансящкй от того, какое значение приняла величина Х. Вероятностная зависииость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более пРиближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай— годная независимость случайных велигин. Между зтнмн двумя крайничя ггп чая и ложат яге гоапзгчггг веооятчостнов зависимости — от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем функционально завис, ыьггг, в дейстзнтель"ости связаны весьма тесной вероятностной завнсимостщо: при 1У4 1Гл.
8 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН заданном значении одной нз этих величин другая колеблется в столь узких пределах, что ее практически можно. считать вполне определенной. С другой стороны, те величины, которые мы на практике считаем независимыми, в действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь. Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины Х и )г находятся в вероятностной зависимости, это не означает, что с изменением величины Х величина г" изменяется вполне определенным образом; это лишь означает, что с измененкем величины Х величина У имеет тенденцию также изменяться (например, возрастать нли убывать при возрастании Х).
Эта тенденция соблюдается лишь «в среднем», в общих чертах, и в каждом отдельном случае от нее возможны отступления. Рассмотрим, например, две такие случайные величины: Х вЂ” рост наугад взятого человека, У вЂ” его вес. Очевидно, величины Х н )г находятся в определенной вероятностной аавнсимостн; она выражается в том, что в общем люди с большим ростом имеют больший вес. Можно даже составить эмпкрнческую формулу, приближенно заменяющую эту вероятностную зависимость функциональной.
Такова, например, общеизвестная формула, приближенно выражающая зависимость между ростом и весом: У(кг) = Х(см) — 100. Формулы подобного типа, очевидно, не являются точными и выражают лишь некоторую среднюю, массовую закономерность, тенденцию, от которой в каждом отдельном случае возможны отступления. В вышеприведенном примере мы имели дело со случаем явно выраженной зависимости.
Рассмотрим теперь такие две случайные величины: Х вЂ” рост наугад взятого человека; 2 — его воараст. Очевидно, для взрослого человека величины Х и Е можно считать практически независимыми; напротив, для ребенка величины Х и 2 являются зависимымн. Приведем еще несколько примеров случайных величин, находящихся в различных степенях зависимости. 1. Из камней, составляющих кучу щебня, выбирается наугад один камень.
Случайная величина Я вЂ” вес камня; случайная величина А'.— наибольшая длина камня. Величины () и Ь находятся в явно выраженной вероятностной зависимости, 2. Производится стрельба ракетой в заданный район океана. Величина ЬХ вЂ” продольная ошибка точки попадания (недолет, перелет); случайная величина Ь(г — ошибка з скорости ракеты в конце активного участка дзнженля. Величины ЬХ н дуг явно зависимы, так как ошибка ЬЪ' является одной нз 1Л«вных причин, порождающих продольную ошибку ЬХ. зм числовые хавлктсгнстнхн системы двух ззличнн !75 8.6. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции В главе 6 мы ввели в рассмотрение числовые характеристики одной случайной величины Х вЂ” начальные и центральные моменты различных порядков.
Из зтих характеристик важнейшими являются две: математическое ожидание т„и дисперсия О, Аналогичные числовые характеристики †начальн и центральные моменты различных порядков — можно ввести и для системы двух случайных величин. Начальным моментом порядка (з, з системы (Х, У) называется математическое ожидание произведения Х на г'~: ам, —— М (Х~у~!.
(8.6.!) Центральным моментом порядка )з, з системы (Х, )') называется математическое ожидание произведения и-й и з-й степени соответствующих центрированных величин: р,„,=М1Х У'1 (8.6.2) где Х = Х вЂ” т, )' = )' — т . У' Выпишем формулы, служащие для непосредственного подсчета ьвнентов, Для прерызных случайных величин а„, = ~~', ~'.,хьучр!р с (8.6.3) р„„— 2',Х(х, т„) (у, т„) рбь (8.6.
4) / где р, = Р((Х =х)(У=у7)) — вероятность того, что система(Х, Г) примет значения (хн у7), а суммирование распространяется по всем возможным значениям случайных величин Х, !'. 3. Летательный аппарат, находясь в полете, измеряет высоту над поверхностью Земли с помощью барометрического прибора.
Рассматриваются две случайные величины: аН вЂ” ошибка измерения высоты и б — вес топлива, сохранившегося в топливных баках к моменту измерения. Величины ЬН и 0 практически можно считать независим ым и. В следующем и' мы познакомимся с некоторыми числовыми характеристиками системы случайных величин, которые дадут нам возможность оценивзть степень зависимости зтих величин. 176 системы случайных Величин [гл. а Для непрерынных случайных величин: . а„,= ~ ~ х у'у (х, у) ох йу, (8.6.6) лг =,,„=М[Х')'1=М[Х1.
ж = ае, = М [Хз ['11 = М [г 1. Совокупность математических ожиданий яг„, т„представляет собой хораалгерислаику лоложения системы. Геометрически это координаты средней точки на плоскости, вокруг которой происходит рассеивание точки (Х, У). Кроме первых начальных моментов, на практике широко применяются еще вторые центральные лголгеногм системы. Два из них представляют собой уже известные нам дислерсии величин Х и К". О =р =м[х Уе)=м[ха)=О[х), О„= р = М [Хе ['21 = М [)'т1 = О К[, характериаующие рассеивание случайной точки в йаправлении осей Ох н Оу. Особую роль как характеристика системы играет загород сме- шанный центральный жо,кгнш: Рь,=м[ХУ[, т.
е. математическое ожидание произведения центрированных величин. Ввиду того, что атот момент играет важную роль в теории систем слтчяяиых величин. Вязнем чля чего особое обозначение: К = М [Х г'1 = М [(Х вЂ” т ) (г' — т„)1. (8.6.7) Характеристика К„т называется хоррелдционнмм лгоментом (иначе — «моментом, связи») случайных величин Х, [г. р„, = ~ / (х — лг„) (у — т )' 7 (х, у) йх йу, (8.6 6) где 7'(х, у) — плотность распределения, системы. Помимо чисел й и г, характеризующих порядок момента по отношению к, отдельным величинам, рассматривается еще суммарный порядок момента й+- з, равный сумме показателей степеней при Х и К. Соответственно суммарному порядку моменты классифицируются на первые, вторые и т.
д. На практике обычно применяются только первые и вторые моменты. Первые начальные моменты представляют собой уже известные нам математические ожидания величии Х и г, входящих в систему: числовые хлелктаеистикн систимы двех величин 177 Бй Для прерывных случайных величин корреляционный момент выражается формулой Кее=Х Х(л~ те)(у/ те)ргр (8.6.8) ! 1 а для непрерывных — формулой К =~ ~ (л — т„)(у — т )1(х, у)длину. (8.6.9) Выясним смысл и назначение этой характеристики.
Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо рассеивания величин Х и Г, еще и с в я э ь и е ж д у н и м и. Для того чтобы убедиться в этом, докажем, что для независимых случайных величин корреляционныа момент равен нулго. Доказательство проведем для непрерывных случайных величин'). Пусть Х, г' — независимые непрерывные величины с плотностью распределения 7'(х, у). В п' 8.5 мы доказали, что для независимых величин 7(х, у) =7,(х)/з(у), (8.6.10) где Д (х), уз(У) — плотности РаспРеделениЯ соответственно величин Х.и Г. Подставляя выражение (8.6.10) в формулу (8.6.9).
видим, что интеграл (8.6.9) превращается в произведение двух интегралов: К = ~(х — т,)Л(л)игл ~ (у — т„) 7 (у)ду. Интеграл ~ (х — т ) у, (х) ах представляет собой не что иное, как первый центральный момент величины Х, и, следовательно, равен нулю; по той же причине равен нулю и второй сомножнтелгп слеловательно, лля независимых случайных величин К„= О, Таким образом, если корреляционный момент двух случайных величин отличен от нуля, это есть признак наличия зав исимости между ними. Из формулы (8.6.7) видно, что корреляционный момент характеризует не только зависимость величин, но и их рассеивание. Действительно, если, напрниер, одна из величин (Х, К) весьма мало (... - .„.