Лекции

Описание

Описание файла отсутствует
Картинка-подпись

Список файлов в архиве

0002

Распознанный текст из изображения:

Лекция 1. Предмет теории вероятностей. Случийные события. Алгебри событий. Относительния чистоти и вероятность случийного события. Полния группи событий. Клиссическое определение вероятности. Основные свойстви вероятности. Основные формулы комбиниторики.

В различных разделах науки и техники нередко возникают ситуации, когда результат каждого из многих проводимых опытов заранее предугадать невозможно, однако можно исследовать закономерности, возникающие при проведении серии опытов. Нельзя, например, точно сказать, какая сторона монеты окажется сверху при данном броске: герб или цифра — но при большом количестве бросков число выпадений герба приближается к половине количества бросков; нельзя заранее предсказать результат одного выстрела из данного орудия по данной цели, но при большом числе выстрелов частота попадания приближается к некоторому постоянному числу. Исследование вероятностных закономерностей массовых однородных явлений составляет предмет теории вероятностей.

Основным интуитивным понятием классической теории вероятностей является случайное событие. События, которые могут произойти в результате опыта, можно подразделить на три вида: а) достоверное событие — событие, которое всегда происходит при проведении опыта; б) невозможное событие — событие, которое в результате опыта произойти не может; в) случайное событие — событие, которое может либо произойти, либо не произойти. Например, при броске игральной кости достоверным событием является выпадение числа очков, не превышающего 6, невозможным — выпадение 10 очков, а случайным— выпадение 3 очков.

Алгебра событий.

Определение 1.1. Суммой А+В двух событий А и В называют событие, состоящее в том, что произошло хотя бы одно из событий А и В. Суммой нескольких событий, соответственно, называется событие, заключающееся в том, что произошло хотя бы одно из этих событий. Пример 1. Два стрелка делают по одному выстрелу по мишени. Если событие А— попадание первого стрелка, а событие  — второго, то сумма А+ — это хотя бы одно попадание при двух выстрелах. Пример 2. Если при броске игральной кости событием А, назвать выпадение г очков, то выпадение нечетного числа очков является суммой событий А~+А2+Аз. Назовем все возможные результаты данного опыта его исходами и предположим, что множество этих исходов, при которых происходит событие А (исходов, благоприятных событию А), можно представить в виде некоторой области на плоскости. Тогда множество исходов, при которых произойдет событие А+В, является объединением множеств исходов, благоприятных событиям А или В (рис. 1).

А+В

0003

Распознанный текст из изображения:

Определение 1.2. Произведением АВ событий А и В называется событие, состоящее в том, что произошло и событие А, и событие В. Аналогично произведением нескольких событий называется событие, заключающееся в том, что произошли все эти события. Пример 3. В примере 1 ( два выстрела по мишени) событием АВ будет попадание обоих стрелков. Пример 4. Если событие А состоит в том, что из колоды карт извлечена карта пиковой масти, а событие  — в том, что из колоды вынута дама, то событием АВ будет извлечение из колоды дамы пик. Геометрической иллюстрацией множества исходов опыта, благоприятных появлению произведения событий А и В, является пересечение областей, соответствующих исходам, благоприятным А и В,

Рис.2. Определение 1.3. Разностью А~В событий А и В называется событие, состоящее в том, что А произошло, а  — нет. Пример 5. Вернемся к примеру 1, где А~  — попадание первого стрелка при промахе второго. Пример 6. В примере 4 А~ — извлечение из колоды любой карты пиковой масти, кроме дамы. Наоборот, В ~А — извлечение дамы любой масти, кроме пик.

А-В

Рис.З. Введем еще несколько категорий событий. Определение 1.4. События А и В называются совместными, если они могут произойти оба в результате одного опыта. В противном случае (то есть если они не могут произойти одновременно) события называются несовместными. Примеры: совместными событиями являются попадания двух стрелков в примере 1 и появление карты пиковой масти и дамы в примере 4; несовместными — события А~ — А6 в примере 2.

0004

Распознанный текст из изображения:

Замечание 1. Если изобразить графически области исходов опыта, благоприятных

несовместным событиям, то они не будут иметь общих точек.

Замечание 2. Из определения несовместных событий следует, что их произведение

является невозможным событием.

Определение 1.5. Говорят, что события А1, А2,...,А„образуют полную группу, если в

результате опыта обязательно произойдет хотя бы одно из событий этой группы.

Замечание. В частности, если события, образующие полную группу, попарно несовместны, то в результате опыта произойдет одно и только одно из них. Такие события называют элементарными событиями.

Пример. В примере 2 события А1 — А6 (выпадение одного, двух,..., шести очков при одном

броске игральной кости) образуют полную группу несовместных событий.

Определение 1.б. События называются равновозможными, если нет оснований считать,

что одно из них является более возможным, чем другое.

Примеры: выпадение любого числа очков при броске игральной кости, появление любой

карты при случайном извлечении из колоды, выпадение герба или цифры при броске

монеты и т.п.

Классическое определение вероятности.

При изучении случайных событий возникает необходимость количественно сравнивать

возможность их появления в результате опыта. Например, при последовательном

извлечении из колоды пяти карт более возможна ситуация, когда появились карты разных

мастей, чем появление пяти карт одной масти; при десяти бросках монеты более

возможно чередование гербов и цифр, нежели выпадение подряд десяти гербов, и т.д.

Поэтому с каждым таким событием связывают по определенному правилу некоторое

число, которое тем больше, чем более возможно событие. Это число называется

вероятностью события и является вторым основным понятием теории вероятностей.

Отметим, что само понятие вероятности, как и понятие случайного события, является

аксиоматическим и поэтому не поддается строгому определению. То, что в дальнейшем

будет называться различными определениями вероятности, представляет собой способы

вычисления этой величины.

Определение 1. 7. Если все события, которые могут произойти в результате данного опыта,

а) попарно несовместны;

б) равновозможны;

в) образуют полную группу,

то говорят, что имеет место схема случаев.

Можно считать, что случаи представляют собой все множество исходов опыта. Пусть их

число равно и ( число возможных исходов), а при т из них происходит некоторое событие

А (число благоприятных исходов).

Определение 1.8. Вероятностью события А называется отношение числа исходов опыта, благоприятных этому событию, к числу возможных исходов:

р(А) = (1.1)

0005

Распознанный текст из изображения:

— классическое определение вероятности.

Свойства вероятности.

Из определения 1.8 вытекают следующие свойства вероятности:

Свойство 1. Вероятность достоверного события равна единице.

Доказательство. Так как достоверное событие всегда происходит в результате опыта, то

все исходы этого опыта являются для него благоприятными, то есть т п, следовательно,

Р(А) = 1.

Свойство 2. Вероятность невозможного события равна нулю.

Доказательство. Для невозможного события ни один исход опыта не является благоприятным, поэтому т = 0 и р(А) = О.

Свойство 3. Вероятность случайного события есть положительное число, заключенное

между нулем и единицей.

Доказательство. Случайное событие происходит при некоторых исходах опыта, но не при

всех, следовательно, 0 < т < п, и из (1.1) следует, что 0 <р(А) < 1.

Пример. Из урны, содержащей 6 белых и 4 черных шара, наудачу вынут шар. Найти

вероятность того, что он белый.

Решение. Будем считать элементарными событиями, или исходами опыта, извлечение из

урны каждого из имеющихся в ней шаров. Очевидно, что эти события удовлетворяют

всем условиям, позволяющим считать их схемой случаев. Следовательно, число

возможных исходов равно 10, а число исходов, благоприятных событию А (появлению

белого шара) — 6 (таково количество белых шаров в урне). Значит,

р(А) = = = 0,6.

п 10

Относительная частота. Статистическое определение вероятности.

Классическое определение вероятности применимо только для очень узкого класса задач, где все возможные исходы опыта можно свести к схеме случаев. В большинстве реальных задач эта схема неприменима. В таких ситуациях требуется определять вероятность события иным образом. Для этого введем вначале понятие относительной частоты Ж(А) события А как отношения числа опытов, в которых наблюдалось событие А, к общему количеству проведенных испытаний:

И'(А) = (1.2)

Х

где Х вЂ” общее число опытов, М вЂ” число появлений события А.

Большое количество экспериментов показало, что если опыты проводятся в одинаковых условиях, то для большого количества испытаний относительная частота изменяется мало, колеблясь около некоторого постоянного числа. Это число можно считать вероятностью рассматриваемого события.

Определение 1.9. Статистической вероятностью события считают его относительную

частоту или число, близкое к ней.

Замечание 1. Из формулы (1.2) следует, что свойства вероятности, доказанные для ее классического определения, справедливы и для статистического определения вероятности.

Замечание 2. Для существования статистической вероятности события А требуется:

0006

Распознанный текст из изображения:

1) возможность производить неограниченное число испытаний;

2) устойчивость относительных частот появления А в различных сериях достаточно

большого числа опытов.

Замечание 3. Недостатком статистического определения является неоднозначность

статистической вероятности.

Пример. Если в задаче задается вероятность попадания в мишень для данного стрелка

(скажем, р = 0,7), то эта величина получена в результате изучения статистики большого

количества серий выстрелов, в которых этот стрелок попадал в мишень около семидесяти

раз из каждой сотни выстрелов.

Основные формулы комбинаторики.

При вычислении вероятностей часто приходится использовать некоторые формулы

комбинаторики — науки, изучающей комбинации, которые можно составить по

определенным правилам из элементов некоторого конечного множества. Определим

основные такие комбинации.

Определение 1.10. Перестановки — это комбинации, составленные из всех п элементов

данного множества и отличающиеся только порядком их расположения. Число всех

возможных перестановок

Р„п! (1.3)

Пример. Сколько различных списков (отличающихся порядком фамилий) можно составить из 7 различных фамилий?

Решение. Р7 = 7! = 2 3 4 5 6 7 = 5040.

Определение 1.11. Размещения — комбинации из и элементов множества, содержащего п

различных элементов, отличающиеся либо составом элементов, либо их порядком. Число

всех возможных размещений

А. = п(п — 1)(п — 2)...(п — и+1). (1.4)

Пример. Сколько возможно различных вариантов пьедестала почета (первое, второе,

третье места), если в соревнованиях принимают участие 10 человек?

Решение. А,', =10 9 8=720.

Определение 1.12. Сочетания — неупорядоченные наборы из и элементов множества,

содержащего п различных элементов (то есть наборы, отличающиеся только составом

элементов). Число сочетаний

п!

С. = (1.5)

и! (п — и)!

Пример. В отборочных соревнованиях принимают участие 10 человек, из которых в финал

выходят трое. Сколько может быть различных троек финалистов?

Решение. В отличие от предыдущего примера, здесь не важен порядок финалистов,

следовательно, ищем число сочетаний из 10 по 3:

з 10! 8'9'10

3! 7! 6

0007

Распознанный текст из изображения:

Лекция 2.

Геометрические вероятности. Теореми сложения вероятностей. Противоположные

события. Условные вероятности. Теореми умножения вероятностей. Незивисимые

события. Вероятность появления хотя бы одного события.

Одним из недостатков классического определения вероятности является то, что оно неприменимо к испытаниям с бесконечным количеством исходов. В таких случаях можно воспользоваться понятием геометрической вероятности.

Пусть на отрезок Л наудачу брошена точка. Это означает, что точка обязательно попадет на отрезок Л и с равной возможностью может совпасть с любой точкой этого отрезка. При этом вероятность попадания точки на любую часть отрезка Л не зависит от расположения этой части на отрезке и пропорциональна его длине. Тогда вероятность того, что брошенная точка попадет на отрезок 1, являющийся частью отрезка Л, вычисляется по формуле:

Р= (2.1)

г

где 1 — длина отрезка 1, а Л вЂ” длина отрезка Л.

Можно дать аналогичную постановку задачи для точки, брошенной на плоскую область 5 и вероятности того, что она попадет на часть этой области к

Р= (2.1')

5

где ю площадь части области, а 5 — площадь всей области.

В трехмерном случае вероятность того, что точка, случайным образом расположенная в теле Г, попадет в его часть ч, задается формулой:

У

Р=

Г

(2. 1" )

где ч — объем части тела, а à — объем всего тела.

Пример 1. Найти вероятность того, что точка, наудачу брошенная в круг, не попадет в

правильный шестиугольник, вписанный в него.

Решение. Пусть радиус круга равен А, тогда сторона шестиугольника тоже равна А. При

з /з

этом площадь круга 5 = ~Ж~, а площадь шестиугольника ю = А~. Следовательно,

2

Рис.1.

з,Гз

~Ж' — А' д

5 ~Ж' 2г

Пример 2. На отрезок АВ случайным образом брошены три точки: С, Х> и М. Найти

вероятность того, что из отрезков АС, АХ> и АМ можно построить треугольник.

Решение. Обозначим длины отрезков АС, АВ и АМ через х, у и г и рассмотрим в качестве

возможных исходов множество точек трехмерного пространства с координатами (х, у, г).

Если принять длину отрезка равной 1, то эти множество возможных исходов представляет

собой куб с ребром, равным 1. Тогда множество благоприятных исходов состоит из точек,

для координат которых выполнены неравенства треугольника: х + у > г, х + г > у,

у+ г > х Это часть куба, отрезанная от него плоскостямих+у г, х+ г у, у+ г х

0008

Распознанный текст из изображения:

(одна из них, плоскость х + у г, проведена на рис.1). Каждая такая плоскость отделяет от

1 1 1

куба пирамиду, объем которой равен — — 1 = —. Следовательно, объем оставшейся части

3 2 6

1 1 у 1 1

~ = 1 — 3 — = —. Тогда р = — = —: 1 = —.

6 2 Г 2 2

Теорема сложения вероятностей.

Теореми 2.1 (теореми сложения). Вероятность р(А + В) суммы событий А и В равна

Р (А + В ) = р (А) + р (В) — р (АВ). (2.2) Доказательство.

Докажем теорему сложения для схемы случаев. Пусть и — число возможных исходов опыта, тА — число исходов, благоприятных событию А, тв число исходов, благоприятных событию В, а тАв число исходов опыта, при которых происходят оба события (то есть исходов, благоприятных произведению АВ). Тогда число исходов, при которых имеет место событие А + В, равно тА + тв тАв (так как в сумме (тА + тв) тАв учтено дважды: как исходы, благоприятные А, и исходы, благоприятные В). Следовательно, вероятность суммы можно определить по формуле (1.1):

(А+В) А + в Ав А + в Ав (А)+ (В) (АВ)

что и требовалось доказать.

Следствие 1. Теорему 2.1 можно распространить на случай суммы любого числа событий.

Например, для суммы трех событий А, В и С

Р(А + В + С) =р(А) +р(В) +р(С) — р(АВ) — р(АС) — р(ВС) +р(АВС) (2.3)

и т.д.

Следствие 2. Если события А и В несовместны, то тАв = О, и, следовательно, вероятность

суммы несовместных событий равна сумме их вероятностей:

Р(А + В) = р(А) + р(В).

(2.4)

Определение 2.1. Противоположными событиями называют два несовместных события,

образующих полную группу. Если одно из них назвать А, то второе принято обозначать

А.

Замечание. Таким образом, А заключается в том, что событие А не произошло.

Теореми 2.2. Сумма вероятностей противоположных событий равна 1:

р(А)+р(А ) = 1.

(2.5)

Замечание. В ряде задач проще искать не вероятность заданного события, а вероятность

события, противоположного ему, а затем найти требуемую вероятность по формуле (2.5).

Пример. Из урны, содержащей 2 белых и 6 черных шаров, случайным образом извлека-

ются 5 шаров. Найти вероятность того, что вынуты шары разных цветов.

Доказательство.

Так как А и А образуют полную группу, то одно из них обязательно произойдет в

результате опыта, то есть событие А + А является достоверным. Следовательно,

Р( А + А ) = 1. Но, так как А и А несовместны, из (2.4) следует, что Р(А + А ) =р(А) +р(А ).

Значит, р(А) +р(А ) = 1, что и требовалось доказать.

0009

Распознанный текст из изображения:

Решение. Событие А, противоположное заданному, заключается в том, что из урны

вынуто 5 шаров одного цвета, а так как белых шаров в ней всего два, то этот цвет может

быть только черным. Множество возможных исходов опыта найдем по формуле (1.5):

8! 678

п=С,' = ' = =56,

5! 3! 6

а множество исходов, благоприятных событию А — это число возможных наборов по 5

шаров только из шести черных:

и —,=С, =6.

— 6 3 3 25

Тогда р(А) = =, а р(А) = 1—

56 28 28 28

Теорема умножения вероятностей.

Теореми 2.3 (теореми умножения). Вероятность произведения двух событий равна

произведению вероятности одного из них на условную вероятность другого при условии,

что первое событие произошло:

р (АВ) = р (А) р (В А).

(2.6)

Доказательство.

Воспользуемся обозначениями теоремы 2.1. Тогда для вычисления р(В А) множеством

возможных исходов нужно считать т,~ (так как А произошло), а множеством

благоприятных исходов — те, при которых произошли и А, и В ( т~а ). Следовательно,

р(В/А) = ~~ = ~~ = р(АВ): р(А), откуда следует утверждение теоремы.

А А

Пример. Для поражения цели необходимо попасть в нее дважды. Вероятность первого

попадания равна 0,2, затем она не меняется при промахах, но после первого попадания

увеличивается вдвое. Найти вероятность того, что цель будет поражена первыми двумя

выстрелами.

Решение. Пусть событие А — попадание при первом выстреле, а событие  — попадание

при втором. Тогда р (А) = 0,2, р (В А) = 0,4, р (АВ) = 0,2 0,4 = 0,08.

Определение 2.2. Назовем условной вероятностью р(В/А) события В вероятность

события В при условии, что событие А произошло.

Замечание. Понятие условной вероятности используется в основном в случаях, когда

осуществление события А изменяет вероятность события В.

Примеры:

1) пусть событие А — извлечение из колоды в 32 карты туза, а событие  — то, что и

вторая вынутая из колоды карта окажется тузом. Тогда, если после первого раза

карта была возвращена в колоду, то вероятность вынуть вторично туз не меняется:

4 1

р(В) = р(А) = = — = 0,125. Если же первая карта в колоду не возвращается, то

32 8

осуществление события А приводит к тому, что в колоде осталась 31 карта, из

3

которых только 3 туза. Поэтому р(В/А) = = 0,097.

31

2) если событие А — попадание в самолет противника при первом выстреле из орудия,

а  — при втором, то первое попадание уменьшает маневренность самолета,

поэтому р(В А) увеличится по сравнению ср(А).

0010

Распознанный текст из изображения:

Следствие. Если подобным образом вычислить вероятность события ВА, совпадающего с

событием АВ, то получим, что р (ВА) =р (В) ' р (А В). Следовательно,

р (А) р (ВА) =р (В) р (А'В). (2.7)

Теорема умножения для независимых событий имеет вид:

р (АВ) = р (А) р (В), (2.8) то есть вероятность произведения независимых событий равна произведению их вероятностей.

При решении задач теоремы сложения и умножения обычно применяются вместе.

Пример. Два стрелка делают по одному выстрелу по мишени. Вероятности их попадания

при одном выстреле равны соответственно 0,6 и 0,7. Найти вероятности следующих

событий:

А — хотя бы одно попадание при двух выстрелах;

 — ровно одно попадание при двух выстрелах;

С вЂ” два попадания;

Х> — ни одного попадания.

Решение. Пусть событие Н~ — попадание первого стрелка, Нг — попадание второго. Тогда

А Н~+Нг,В Н~.Н, «-Н,.Н, С=Н,.Н, Д=Н,.Н, СобытияН~ иНгсовместныи

независимы, поэтому теорема сложения применяется в общем виде, а теорема умножения

— в виде (2.8). Следовательно, р(С) = 0,6'0,7 = 0,42, р(А) = 0,6+ 0,7 — 0,42 = 0,88,

р(В) = 0,6 0,3+ 0,7 0,4= 0,46 (так как события Н, Н, и Н, Н, несовместны),

р(Х>) = 0,4 0,3 = 0,12. Заметим, что события А и Х> являются противоположными, поэтому

р(А) = 1 — р(Х)).

Вероятность появления хотя бы одного события.

Теореми 2.4. Вероятность появления хотя бы одного из попарно независимых событий

А~, Аг,..., А„равна

р(А)=1 — ~яг ч,,

где д, вероятность события А,, противоположного событию А, .

Доказательство.

Если событие А заключается в появлении хотя бы одного события из А~, Аг,..., А„, то

события А и А,А, „,А. противоположны, поэтому по теореме 2.2 сумма их вероятностей

равна 1. Кроме того, поскольку А~, Аг,..., А„независимы, то независимы и А„А„..., А.,

следовательно, р(А,А,...А. ) = р(А,)р(А,)...р(А.) = д,д,...д.. Отсюда следует

справедливость формулы (2.9).

(2.9)

Пример. Сколько нужно произвести бросков монеты, чтобы с вероятностью не менее 0,9

выпал хотя бы один герб?

Решение. Вероятность выпадения герба при одном броске равна вероятности противопо-

ложного события (выпадения цифры) и равна 0,5. Тогда вероятность выпадения хотя бы

одного герба при и выстрелах равна 1- (0,5)" . Тогда из решения неравенства 1- (0,5)" > 0,9

следует, что и > 1оуг10 > 4.

10

Определение 2.3. Событие В называется независимым от события А, если появление

события А не изменяет вероятности В, то есть р (ВА) =р (В).

Замечание. Если событие В не зависит отА, то иА не зависит от В. Действительно, из (2.7)

следует при этом, что р (А) р (В) =р (В) р (А'В), откудар (А В) =р (А). Значит,

свойство независимости событий взаимно.

0011

Распознанный текст из изображения:

Лекция 3.

Формули полной вероятности и формули Бийеси Схеми и формули Бернулли.

Приближение Пуиссони для схемы Бернулли.

Определение 3.1. Пусть событие А может произойти только совместно с одним из событий

Н1, Н2,..., Н„, образующих полную группу несовместных событий. Тогда события Н1,

Н2,..., Н„называются гипотезами.

Теореми 3.1. Вероятность события А, наступающего совместно с гипотезами Н1, Н2,..., Н„,

равна:

р(А) =~р(Н,)р(А(Н,), (3.1)

~=1

где р(Н,) — вероятность г- й гипотезы, ар(А/Н) — вероятность события А при условии

реализации этой гипотезы. Формула (3.1) носит название формулы полной вероятности.

Доказательство.

Можно считать событие А суммой попарно несовместных событий АН1, АН2,..., АН„.

Тогда из теорем сложения и умножения следует, что

р(А) = р(АН, +АН, +...+АН.) = р(АН,)+р(АН,)+...+р(АН.) =~р(Н,)р(А(Н,),

~=1

что и требовалось доказать.

Пример. Имеются три одинаковые урны с шарами. В первой из них 3 белых и 4 черных шара, во второй — 2 белых и 5 черных, в третьей — 10 черных шаров. Из случайно выбранной урны наудачу вынут шар. Найти вероятность того, что он белый.

Решение. Будем считать гипотезами Н1, Н2 и Нз выбор урны с соответствующим номером.

1 Так как по условию задачи все гипотезы равновозможны, то р(Н,) = р(Н,) = р(Н,) = —.

3

Найдем условную вероятность А при реализации каждой гипотезы: р(А ~Н, ) = —,

7

2 1 3 1 2 1 5

р(А(Н,) = —, р(А(Н,) =О. Тогда р(А) = — — + — — + — 0= =0,238.

7 3 7 3 7 3 21

Формула Байеса (теорема гипотез).

Пусть известен результат опыта, а именно то, что произошло событие А. Этот факт может

изменить априорные (то есть известные до опыта) вероятности гипотез. Например, в

предыдущем примере извлечение из урны белого шара говорит о том, что этой урной не

могла быть третья, в которой нет белых шаров, то есть р (Нз~А) = О. Для переоценки

вероятностей гипотез при известном результате опыта используется формула Байеса:

р(Н, /А) = (3.2)

р(А)

Действительно, из (2.7) получим, что р(А)р(Н, /А) = р(Н,)р(А(Н,), откуда следует

справедливость формулы (3.2).

Пример. После двух выстрелов двух стрелков, вероятности попаданий которых равны 0,6

и 0,7, в мишени оказалась одна пробоина. Найти вероятность того, что попал первый

стрелок.

Решение. Пусть событие А — одно попадание при двух выстрелах, а гипотезы: Н1 — первый

попал, а второй промахнулся, Н2 — первый промахнулся, а второй попал, Нз — оба попали,

Н4 — оба промахнулись. Вероятности гипотез: р(Н1) = 0,6'0,3 = О, 1 8, р(Н2) = 0,4'0,7 = 0,28,

р(Нз) = 0,6 0,7 = 0,42, р(Н4) = 0,4 0,3 = 0,12. Тогда р(А/Н1) = р(А/Н2) = 1,

11

0012

Распознанный текст из изображения:

р(А/Нз) =р(А/Н4) = О. Следовательно, полная вероятность р(А) = 0,18 1+ 0,28 1 + 0,42 О+ 0,12 0 = 0,46. Применяя формулу Байеса, получим: р(Н, /А) = ' = = 0,391. 0181 9

0,46 23

Схема повторения испытаний. Формула Бернулли. Рассмотрим серию из и испытаний, в каждом из которых событие А появляется с одной и той же вероятностью р, причем результат каждого испытания не зависит от результатов остальных. Подобная постановка задачи называется схемой повторения испытаний. Найдем вероятность того, что в такой серии событие А произойдет ровно к раз (неважно, в какой последовательности). Интересующее нас событие представляет собой сумму равно- вероятных несовместных событий, заключающихся в том, что А произошло в некоторых к испытаниях и не произошло в остальных и к испытаниях. Число таких событий равно числу сочетаний из и по к, то есть С:, а вероятность каждого из них: р д", где д 1 — р— вероятность того, что в данном опыте А не произошло. Применяя теорему сложения для несовместных событий, получим формулу Бернулли:

р.(~)=с.' р' ~-'. (З.З) Пример. Для получения приза нужно собрать 5 изделий с особым знаком на этикетке. Найти вероятность того, что придется купить 10 изделий, если этикетки с этим знаком имеют 5',о изделий. Решение. Из постановки задачи следует, что последнее купленное изделие имеет особый знак. Следовательно, из предыдущих девяти эти знаки имели 4 изделия. Найдем вероятность этого по формуле Бернулли: р,(4) = С,' (0,05)' (0,95)' = 0,0006092.Тогда р = 0,0006092'0,05 = 0,0000304.

Приближение Пуассона для схемы Бернулли. Формула Бернулли требует громоздких расчетов при большом количестве испытаний. Можно получить более удобную для расчетов приближенную формулу, если при большом числе испытаний вероятность появления А в одном опыте мала, а произведение лр сохраняет постоянное значение для разных серий опытов ( то есть среднее число появлений события А в разных сериях испытаний остается неизменным). Применим формулу Бернулли:

л(л — 1)(л — 2)... (и — 1 + 1) . л(л — 1)... (и — 1 + 1) Я Я

р.® = Найдем предел полученного выражения при и — + ~о: р.®= 1пп1 1 — — 1 — — ...1 — 1 — — = 1пп1 — — 1 — — = е 1. Таким образом, формула Пуассона

~/с — Л

р.® = (3.4)

позволяет найти вероятность к появлений события А для массовых (и велико) и редких (р мало) событий.

12

0013

Распознанный текст из изображения:

Лекция 4.

Случийные величины. Зикон риспределения и функция риспределения дискретной

случийной величины. Биномиильное риспределение и риспределение Пуиссони

Наряду с понятием случайного события в теории вероятности используется и более удобное понятие случайной величины.

Определение 4.1. Случайной величиной называется величина, принимающая в результате опыта одно из своих возможных значений, причем заранее неизвестно, какое именно.

Будем обозначать случайные величины заглавными буквами латинского алфавита (Х У,У, ...), а их возможные значения — соответствующими малыми буквами (х„у„...).

Примеры: число очков, выпавших при броске игральной кости; число появлений герба при 10 бросках монеты; число выстрелов до первого попадания в цель; расстояние от центра мишени до пробоины при попадании.

Можно заметить, что множество возможных значений для перечисленных случайных величин имеет разный вид: для первых двух величин оно конечно ( соответственно 6 и 11 значений), для третьей величины множество значений бесконечно и представляет собой множество натуральных чисел, а для четвертой — все точки отрезка, длина которого равна радиусу мишени. Таким образом, для первых трех величин множество значений из отдельных (дискретных), изолированных друг от друга значений, а для четвертой оно представляет собой непрерывную область. По этому показателю случайные величины подразделяются на две группы: дискретные и непрерывные.

Определение 4.2. Случайная величина называется дискретной, если она принимает

отдельные, изолированные возможные значения с определенными вероятностями.

Определение 4.3. Случайная величина называется непрерывной, если множество ее возможных значений целиком заполняет некоторый конечный или бесконечный промежуток.

Дискретные случайные величины.

Для задания дискретной случайной величины нужно знать ее возможные значения и вероятности, с которыми принимаются эти значения. Соответствие между ними называется законом распределения случайной величины. Он может иметь вид таблицы, формулы или графика.

Таблица, в которой перечислены возможные значения дискретной случайной величины и соответствующие им вероятности, называется рядом распределения:

Заметим, что событие, заключающееся в том, что случайная величина примет одно из

п( ю)

своих возможных значений, является достоверным, поэтому ~ р, = 1.

~=1

Пример.. Два стрелка делают по одному выстрелу по мишени. Вероятности их попадания

при одном выстреле равны соответственно 0,6 и 0,7. Составить ряд распределения

случайной величины Х вЂ” числа попаданий после двух выстрелов.

Решение. Очевидно, что Х может принимать три значения: О, 1 и 2. Их вероятности

найдены в примере, рассмотренном в лекции 3. Следовательно, ряд распределения имеет

вид:

13

0014

Распознанный текст из изображения:

х1 х2 хЗ х4 х5

Функция распределения.

Определение 4.4. Функцией распределения Г(х) случайной величины Х называется

вероятность того, что случайная величина примет значение, меньшее х:

Е(х) =р (Х< х).

Свойства функции распределения.

1) 0 <Е(х) < 1.

Действительно, так как функция распределения представляет собой вероятность,

она может принимать только те значения, которые принимает вероятность.

2) Функция распределения является неубывающей функцией, то есть Е(х2) > Е(х1) при

х2 > хи Это следует из того, что Е(х2) =р(Х< х2) =р(Х< х1) +р(х1 <Х< х2) > Е(х1).

3) 1пп Е(х) = О, 1пп Е(х) =1. В частности, если все возможные значения Хлежат на

х — э — ю х — э-кю

интервале [а, о], то Е(х) = 0 при х < а и Е(х) = 1 при х > о. Действительно, Х < а—

событие невозможное, аХ< о достоверное.

4) Вероятность того, что случайная величина примет значение из интервала [а, о],

равна разности значений функции распределения на концах интервала:

р ( а < Х < о ) = Е® — Е(а).

Справедливость этого утверждения следует из определения функции

распределения (см. свойство 2).

Для дискретной случайной величины значение Е(х) в каждой точке представляет собой

сумму вероятностей тех ее возможных значений, которые меньше аргумента функции.

Пример. Найдем Е(х) для предыдущего примера:

О, х<0

012, О <х<1

0,12+ 0,46 = 0,58, 1 < х < 2

0,58+ 0,42 = 1, х > 2

Е(х) =

Соответственно график функции распределения имеет ступенчатый вид:

ределение.

14

Графически закон распределения дискретной случайной величины можно представить в

виде многоугольника распределения — ломаной, соединяющей точки плоскости с

координатами (х„р,).

0016

Распознанный текст из изображения:

Функция риспределения и плотность риспределения непрерывной случийной

величины, их взиимосвязь и свойстви. Ривномерное риспределение вероятностей.

р(а < Х < Ь) = ) у (х)гЬх.

формулой

Действительно, р(а < Х < Ь) = г'(Ь) — На) = ) у'(х)гЬх — ) у'(х)гЬх =) у'(х)гЬх.

-';со

4) ) у (х)гЬх = 1 (условие нормировки). Его справедливость следует из того, что

1у'(х)гЬх = г'(-<о), а 11т г'(х) =1.

5) 1пп ~(х) = О, так как Е(х) — + сопМ при х — + +сю,

х — узко

Таким образом, график плотности распределения представляет собой кривую, расположенную выше оси Ох, причем эта ось является ее горизонтальной асимптотой при х — + +~)о (последнее справедливо только для случайных величин, множеством возможных значений которых является все множество действительных чисел). Площадь криволинейной трапеции, ограниченной графиком этой функции, равна единице.

Замечание. Если все возможные значения непрерывной случайной величины сосредоточены на интервале [а, Ь], то все интегралы вычисляются в этих пределах, а вне интервала

[а, Ь] Ях) — = О.

Пример 1. Плотность распределения непрерывной случайной величины задана формулой

С

~(х),, оо < х < +ос.

1+х

Найти: а) значение константы С; б) вид функции распределения; в) р(-1 < х < 1).

Решение. а) значение константы С найдем из свойства 4:

16

Определение и свойства функции распределения сохраняются и для непрерывной случайной величины, для которой функцию распределения можно считать одним из видов задания закона распределения. Но для непрерывной случайной величины вероятность каждого отдельного ее значения равна О. Это следует из свойства 4 функции распределения: р(Х= а) = Е(а) — Е(а) = О. Поэтому для такой случайной величины имеет смысл говорить только о вероятности ее попадания в некоторый интервал.

Вторым способом задания закона распределения непрерывной случайной величины является так называемая плотность распределения (плотность вероятности, дифференциальная функция).

Определение 5.1. Функция Ях), называемая плотностью распределения непрерывной случайной величины, определяется по формуле:

~(х) = Е'(х), (5.1) то есть является производной функции распределения.

Свойства плотности распределения.

1) Ях) > О, так как функция распределения является неубывающей.

х

2) г (х) = ) л (г)г!г, что следует из определения плотности распределения.

3) Вероятность попадания случайной величины в интервал (а, Ь) определяется

0017

Распознанный текст из изображения:

+ оо

С Р' Р' 1

, сй = Саках = С вЂ” + — = Сг =1, откуда С = —.

1+х 2 2

1 ] 1 1 1 г 1 1

б) Е(х) = — ~, й = — акф ~ = — акфх+ — = — акфх+ —. 1+1' г 2 2

1' 1 1

в) Р( — 1 < х < 1) = — ~, сй = — акфх

~г [1+х'

Пример 2. Функция распределения непрерывной случайной величины имеет вид:

О, х<2

х — 2

,2<х<4

2

1, х>4.

Е(х) =

Найти плотность распределения.

Решение.

0', х< 2

/ О, х< 2

с х — 2

,2<х<4= 0,5,2<х<4

2

1', х>4

О, х > 4.

Л )=

Равномерный закон распределения.

Определение 5.2. Закон распределения непрерывной случайной величины называется

равномерным, если на интервале, которому принадлежат все возможные значения

случайной величины, плотность распределения сохраняет постоянное значение ( Ях) =

сопи| при а < х < Ь, Ях) = 0 при х < а, х > Ь.

Найдем значение, которое принимаете) при х я [а, Ь]. Из условия нормировки следует,

Ь Ь

1

что ] У [х)с[х = ] сс1х = с[5 — и) = 1, откуда У[х) = с =

Ь вЂ” а

Вероятность попадания равномерно распределенной случайной величины на интервал

Р

1 Р— и

[ск,В] [а <а <,В <Ь) равна прнэтом [ с[к =

Ь вЂ” а Ь вЂ” а

О, х<а

х — а

, а<х<Ь

Ь вЂ” а

1, х>Ь.

Вид функции распределения для нормального закона: Е(х) =

17

Часто на практике мы имеем дело со случайными величинами, распределенными определенным типовым образом, то есть такими, закон распределения которых имеет некоторую стандартную форму. В прошлой лекции были рассмотрены примеры таких законов распределения для дискретных случайных величин (биномиальный и Пуассона). Для непрерывных случайных величин тоже существуют часто встречающиеся виды закона распределения, и в качестве первого из них рассмотрим равномерный закон.

0018

Распознанный текст из изображения:

Пример. Автобусы некоторого маршрута идут с интервалом 5 минут. Найти вероятность

того, что пришедшему на остановку пассажиру придется ожидать автобуса не более 2

минут.

Решение. Время ожидания является случайной величиной, равномерно распределенной в

1 2

интервале [О, 5]. Тогда ~(х) = —, р(0 < х < 2) = — = 0,4.

5 5

18

0019

Распознанный текст из изображения:

Лекция б.

Нормильный зикон риспределения вероятностей. Нормильния кривия. Функция Липлиси. Вычисление вероятности попидиния в зидинный интервил нормильной случийной величины. Привило трех сигм. Покизительное риспределение. Функция нидежности. Покизительный зикон нидежности.

(х — а)

4) ~'(х)= е ' ' =0 прих а; ~'(х)>0 прих > а, ~'(х)<0 прих < а, о' ~/2г

1

Следовательно, а,

о ~/2г

— точка максимума.

5) Е(х а) =Яа х), то есть график симметричен относительно прямой х а.

2

6) ~"(х) = е ' 1, =0 при х=а о, то есть точки

о' ~/2г

О

1

а+ о, являются точками перегиба.

о. ~/2~те

Примерный вид кривой Гаусса изображен на рис.1.

Рис.1.

Найдем вид функции распределения для нормального закона:

х х (0 — а)

Р(х) = 1(Яй! = (е ' й!. (6.2)

о ~/2г

Перед нами так называемый «неберущийся» интеграл, который невозможно выразить

через элементарные функции. Поэтому для вычисления значений Е(х) приходится

пользоваться таблицами. Они составлены для случая, когда а = О, а а 1.

Определение б.2. Нормальное распределение с параметрами а = О, а 1 называется

нормированным, а его функция распределения

19

Определение б.1. Непрерывная случайная величина называется распределенной по

нормальному закону, если ее плотность распределения имеет вид:

(х — а)

~(х) = е (6.1)

о;/2г

Замечание. Таким образом, нормальное распределение определяется двумя параметрами:

а и ст.

График плотности нормального распределения называют нормальной кривой (кривой

Гаусса). Выясним, какой вид имеет эта кривая, для чего исследуем функцию (6.1).

1) Область определения этой функции: (-со, +со).

2) Ях) > 0 при любом х (следовательно, весь график расположен выше оси Ох).

3) 1пп~(х) =О, то есть ось Ох служит горизонтальной асимптотой графика при

х — эса

х — + +ос,

0020

Распознанный текст из изображения:

х

ср(х) = ) е ' г!! (6.3)

;/2г

функцией Лапласа.

Замечание. Функцию распределения для произвольных параметров можно выразить

х — а

2

х — а 1

через функцию Лапласа, если сделатьзамену: ! =, тогда г(х) = ) е 'г!!.

О ~/2г

Найдем вероятность попадания нормально распределенной случайной величины на

заданный интервал:

р(и < х < Р) =Е(Д вЂ” Е(и) = Ф вЂ” Ф

(6.4)

Пример. Случайная величина Х имеет нормальное распределение с параметрами а = 3,

о = 2. Найти вероятность того, что она примет значение из интервала (4, 8).

Решение.

р(4 < х < 8) = Е(8) — Е(4) = Ф вЂ” Ф . = Ф(2,5) — Ф(0,5) = 0,9938 — 0,6915 = 0,3023.

8 — 3 4 — 3

Правило «трех сигм».

Найдем вероятность того, что нормально распределенная случайная величина примет

значение из интервала (а — Зст, а + За):

р(а — Зо < х < а+ Зо ) = Ф(З) — Ф( — 3) = 0,9986 — 0,0014 = 0.9973.

Следовательно, вероятность того, что значение случайной величины окажется вне

этого интервала, равна 0,0027, то есть составляет 0,27',о и может считаться

пренебрежимо малой. Таким образом, на практике можно считать, что все возможные

значения нормально распределенной случайной величины лежат в интервале (а — За,

а+ За).

Полученный результат позволяет сформулировать правило «трех сигм»: если

случайная величина распределена нормально, то модуль ее отклонения от х а не

превосходит За.

Показательное распределение.

Определение б.3. Показательным (экспоненциальным) называют распределение

вероятностей непрерывной случайной величины Х которое описывается плотностью

Л)= (6.5)

В отличие от нормального распределения, показательный закон определяется только одним параметром Л. В этом его преимущество, так как обычно параметры распределения заранее не известны и их приходится оценивать приближенно. Понятно, что оценить один параметр проще, чем несколько.

Найдем функцию распределения показательного закона:

г(х) = 1~яй! = 10 г!гьл1е й! =1 — е . следовательно,

Е(х) =

1 — е~, х>0.

(6.6)

20

0021

Распознанный текст из изображения:

Теперь можно найти вероятность попадания показательно распределенной случайной

величины в интервал (а, 0):

р(а < х < 0) = е — е (6.7)

Значения функции е" можно найти из таблиц.

Функция надежности.

Пусть элемент (то есть некоторое устройство) начинает работать в момент времени ~0

0 и должен проработать в течение периода времени ~. Обозначим за Т непрерывную случайную величину — время безотказной работы элемента, тогда функция Е(~) = р(Т > ~) определяет вероятность отказа за время ~. Следовательно, вероятность безотказной работы за это же время равна

А(~)=р(Т> ~) = 1 — Е(~). (6.8)

Эта функция называется функцией надежности.

Показательный закон надежности.

Часто длительность безотказной работы элемента имеет показательное распределение,

то есть

Е(~) = 1 — е~'.

Следовательно, функция надежности в этом случае имеет вид:

А(~)=1 — Е(~)=1 — (1 — е )=е

Определение б.4. Показательным законом надежности называют функцию

надежности, определяемую равенством

А(~) = е (6.9)

где Л вЂ” интенсивность отказов.

Пример. Пусть время безотказной работы элемента распределено по показательному

закону с плотностью распределения Я~) = 0,1 е ' ' при ~ > О. Найти вероятность того,

что элемент проработает безотказно в течение 10 часов.

Решение. Так какЛ = 0,1, А(10) = е ' = е = 0,368.

21

0022

Распознанный текст из изображения:

Лекция 7.

Основные числовые хириктеристики дискретных и непрерывных случийных величин:

митемитическое ожидиние, дисперсия и среднее квидритическое отклонение. Их

свойстви и примеры.

Закон распределения (функция распределения и ряд распределения или плотность вероятности) полностью описывают поведение случайной величины. Но в ряде задач достаточно знать некоторые числовые характеристики исследуемой величины (например, ее среднее значение и возможное отклонение от него), чтобы ответить на поставленный вопрос. Рассмотрим основные числовые характеристики дискретных случайных величин.

Математическое ожидание.

Определение 7.1. Математическим ожиданием дискретной случайной величины называется сумма произведений ее возможных значений на соответствующие им вероятности:

М(Х) х1р1 + х2р2 + + х р (7.1)

Если число возможных значений случайной величины бесконечно, то М(Х) = ~ х,р,,

Пример 1. Найдем математическое ожидание случайной величины Х вЂ” числа стандартных

деталей среди трех, отобранных из партии в 10 деталей, среди которых 2 бракованных.

Составим ряд распределения для Х Из условия задачи следует, что Х может принимать

значения 1, 2, 3. р(1) = ', ' =, р(2) = ', ' =, р(3) =,' = . Тогда

С,', 15 С,', 15 С,', 15

М(Х) =1 +2 +3 = 24.

1 7 7

15 15 15

Пример 2. Определим математическое ожидание случайной величины Х вЂ” числа бросков

монеты до первого появления герба. Эта величина может принимать бесконечное число

значений (множество возможных значений есть множество натуральных чисел). Ряд ее

распределения имеет вид:

Х 1

(0,5)

(0,5)"

0,5

тогда м(х) = 2 = — -г2 ( — ) -гЗ Я -г ..-ги Н

22

если полученный ряд сходится абсолютно.

Замечание 1. Математическое ожидание называют иногда взвешенным средним, так как

оно приближенно равно среднему арифметическому наблюдаемых значений случайной

величины при большом числе опытов.

Замечание 2. Из определения математического ожидания следует, что его значение не

меньше наименьшего возможного значения случайной величины и не больше наибольше-

го.

Замечание 3. Математическое ожидание дискретной случайной величины есть неслучай-

ная (постоянная) величина. В дальнейшем увидим, что это же справедливо и для непре-

рывных случайных величин.

0023

Распознанный текст из изображения:

1 1 1 1 1

+ ~ +...=1 1+ — + — +...+ +... =1 2=2 (при вычислении дважды 2' ., 2' 2 4 2'

Свойства математического ожидания.

1) Математическое ожидание постоянной равно самой постоянной:

М(С) = С. (7.2)

Доказательство. Если рассматривать С как дискретную случайную величину,

принимающую только одно значение С с вероятностью р = 1, то М(С) = С 1 = С.

2) Постоянный множитель можно выносит за знак математического ожидания:

М(СХ) = СМ(Х).

Е

(7.3)

то ряд распределения для СХ имеет вид;

Сх,

Сх1

Схг

Тогда М(СХ) = Сх1р1+ Схгрг + ... + Сх„р„= С( х1р1+ хгрг + ... + х,р„) = СМ(Х),

Определение 7.2. Две случайные величины называются независимыми, если закон

распределения одной из них не зависит от того, какие значения приняла другая. В

противном случае случайные величины зависимы.

Определение 7.3. Назовем произведением независимых случайных величин Х и У

случайную величину ХУ, возможные значения которой равны произведениям всех

возможных значений Хна все возможные значения У, а соответствующие им вероят-

ности равны произведениям вероятностей сомножителей.

3) Математическое ожидание произведения двух независимых случайных величин

равно произведению их математических ожиданий:

М(ХУ) = М(Х)М(У). (7.4)

Доказательство. Для упрощения вычислений ограничимся случаем, когда Хи У

чения:

Следовательно, М(ХУ) = х1у1'р1д1 + хгу1'ргд1 + х1уг'р1дг + хгуг'рог = у1д1(х1р1 + хгрг) +

+ уг~'г(х1р1+ хгРг) = (у1~1 + угу) (х1р1+ хгрг) = М(Х) %,1')

23

использовалась формула суммы бесконечно убывающей геометрической прогрессии:

Ь, 1 1 1 1 1 1

5= ', откуда — + — +...+ +...=1, 1+ — + — +...+ +...=2).

1 — о 2 4 2' 2 4 2'

0024

Распознанный текст из изображения:

Замечание 1. Аналогично можно доказать это свойство для большего количества возможных значений сомножителей. Замечание 2. Свойство 3 справедливо для произведения любого числа независимых случайных величин, что доказывается методом математической индукции. Определение 7.4. Определим сумму случайных величин Хи скак случайную величину Х+ У, возможные значения которой равны суммам каждого возможного значения Хс каждым возможным значением У; вероятности таких сумм равны произведениям вероятностей слагаемых (для зависимых случайных величин— произведениям вероятности одного слагаемого на условную вероятность второго). 4) Математическое ожидание суммы двух случайных величин ( зависимых или независимых ) равно сумме математических ожиданий слагаемых:

М(Х+ У) =М(Х)+М(У). (7.5) Доказательство. Вновь рассмотрим случайные величины, заданные рядами распределения, приведенными при доказательстве свойства 3. Тогда возможными значениями Х+ У являются х1 + у1, х1 + уг, хг + у1, хг + уг. Обозначим их вероятности соответственно как р11, р1г, рг1 иргг. Найдем М(Х+У) = (х1 +у1)рп + (х1 +уг)р1г+ (хг +у1)рг1+ (хг+уг)ргг = = х1(рп + р1г) + хг(рг1 + ргг) + у1~рп + рг1) + уг(р1г + ргг). Докажем, что рп + ргг = рь Действительно, событие, состоящее в том, что Х+ У примет значения х1 +у1 или х1 +уг и вероятность которого равна р11+ ргг, совпадает с событием, заключающемся в том, что Х= х1 (его вероятность — р1). Аналогично доказывается, что рг1+ ргг = рг, р11+ рг1 = д1, р1г + ргг = дг. Значит,

М(Х+ 1') = х1р1+ хгрг+у1~1 +угу =М(Х) +МД Замечание. Из свойства 4 следует, что сумма любого числа случайных величин равна сумме математических ожиданий слагаемых. Пример. Найти математическое ожидание суммы числа очков, выпавших при броске пяти игральных костей. Найдем математическое ожидание числа очков, выпавших при броске одной кости:

1 7 М(Х1) = (1 + 2+ 3 + 4 + 5 + 6) — = —. Тому же числу равно математическое ожидание 6 2

1 5 числа очков, выпавших на любой кости. Следовательно, по свойству 4 М(Х)=5 — = —.

6 6

Дисперсия. Для того, чтобы иметь представление о поведении случайной величины, недостаточно знать только ее математическое ожидание. Рассмотрим две случайные величины: Хи У и рас а Найдем М(Х) = 49 0,1 + 50 0,8 + 51 0,1 = 50, М(У) = 0 0,5 + 100 0,5 = 50. Как видно, математические ожидания обеих величин равны, но если для Х М(Х) хорошо описывает поведение случайной величины, являясь ее наиболее вероятным возможным значением (причем остальные значения ненамного отличаются от 50), то значения У существенно отстоят отМ(У). Следовательно, наряду с математическим ожиданием желательно знать, насколько значения случайной величины отклоняются от него. Для характеристики этого показателя служит дисперсия. Определение 7.5. Дисперсией (рассеянием) случайной величины называется математическое ожидание квадрата ее отклонения от ее математического ожидания:

24

0025

Распознанный текст из изображения:

Х)(Х) = М (Х М(Х))'

(7.6)

Замечание 1. В определении дисперсии оценивается не само отклонение от среднего, а его

квадрат. Это сделано для того, чтобы отклонения разных знаков не компенсировали друг

друга.

Замечание 2. Из определения дисперсии следует, что эта величина принимает только

неотрицательные значения.

Замечание 3. Существует более удобная для расчетов формула для вычисления дисперсии,

справедливость которой доказывается в следующей теореме:

Теореми 7.1. Х>(Х) = М(Х') — М'(Х).

Доказательство.

Используя то, что М(Х) — постоянная величина, и свойства математического ожидания,

преобразуем формулу (7.6) к виду:

Х)(Х) = М(Х МЯ)' = М(Х' — 2ХМ(Х) + ЛР(Х)) = М(Х') — 2МЯ МЯ+ ЛР(Х) =

= М(Х') — 2ЛР(Х) + ЛР(Х) = М(Х') — ЛР(Х), что и требовалось доказать.

(7.7)

Пример. Вычислим дисперсии случайных величин Хи У, рассмотренных в начале этого

раздела. М(Х) = (49 0,1 + 50 0,8 + 51 0,1) — 50 = 2500,2 — 2500 = 0,2.

М(У) = (О 0,5 + 100'0,5) — 50' = 5000 — 2500 = 2500. Итак, дисперсия второй случайной

величины в несколько тысяч раз больше дисперсии первой. Таким образом, даже не зная

законов распределения этих величин, по известным значениям дисперсии мы можем

утверждать, что Х мало отклоняется от своего математического ожидания, в то время как

для У это отклонение весьма существенно.

Свойства дисперсии.

1) Дисперсия постоянной величины С равна нулю:

Х> (С) = О. (7.8)

Доказательство. Х>(С) = М((С М(С))') = М((С С)') = М(0) = О.

2) Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат:

Д(СХ) = СЧ~(Х). (7.9)

Доказательство. Х)(СХ) =М((СХ М(СХ))') =М((СХ СМ(Х))') =М(С'(Х М(Х))') =

= СЧ)(Х)

3) Дисперсия суммы двух независимых случайных величин равна сумме их

дисперсий:

Х)(Х+ У) = Х)(Х) + Х)(У). (7.10) Доказательство. Х>(Х+ У) = М(Х' + 2Х7+ Р) — (М(Х) + М(У))' = М(Х') + 2М(Х)М(У) +

+ М(У') — ЛР(Х) — 2М(Х)М(У) — ЛР(У) = (М(Л') — ЛР(Х)) + (М(У') — ЛР(У)) = Х)(Х) + Х)(У)

Следствие 1. Дисперсия суммы нескольких взаимно независимых случайных величин

равна сумме их дисперсий.

Следствие 2. Дисперсия суммы постоянной и случайной величин равна дисперсии

случайной величины.

4) Дисперсия разности двух независимых случайных величин равна сумме их

дисперсий:

25

Пример.

Найдем дисперсию случайной величины Х(числа стандартных деталей среди отобранных) в примере 1 данной лекции. Вычислим значения квадрата отклонения каждого возможного значения от математического ожидания:

(1 — 2,4) = 1,96; (2 — 2,4) = 0,16; (3 — 2,4) = 0,36. Следовательно,

Х>(Х) = 1,96 + 0,16 + 0,36 = = 0,373.

1 7 7 28

15 15 15 75

0027

Распознанный текст из изображения:

1. Биномиальное распределение.

Для дискретной случайной величины Х представляющей собой число появлений

события А в серии из и независимых испытаний (см. лекцию 6), М(Х) можно найти,

используя свойство 4 математического ожидания. Пусть Х1 — число появлений А в

первом испытании, Хг — во втором и т.д. При этом каждая из случайных величин Х

задается рядом распределения вида

Х О 1

Следовательно, М(Х) = р. Тогда М(Х) = ~М(Х,) = ~ р = пр.

с=1 с=1

Аналогичным образом вычислим дисперсию: Х>(Х) = О'о + 1'р р' р р' = р(1 — р),

откуда по свойству 4 дисперсии Х>(Х) = ~Х>(Х,) = лр(1 — р) = пру.

с=1

сю

и сю и — 1

Для определения дисперсии найдем вначале М(Х) = ~т е ' = а~т е ' =

И! 1 (И вЂ” 1)!

сю и — 1

сю и — 1 сю и — 1

= а~((т — 1) ь1) е ' = а ~(т — 1) е ' ь~ е ' = а(аь1).

(и — 1)!, (и — 1)!, (и — 1)!

Поэтому Х)(Х) = а2+ а а2 = а.

Замечание. Таким образом, обнаружено интересное свойство распределения Пуассона:

математическое ожидание равно дисперсии (и равно единственному параметру а,

определяющему распределение).

3. Равномерное распределение.

Для равномерно распределенной на отрезке [а, Ь] непрерывной случайной величины

2

М(Х) = 1х сУх =

Ь вЂ” а 2(Ь вЂ” а)

Ь вЂ” а а+А

, то есть математическое ожидание

2(Ь вЂ” а) 2

а

равномерно распределенной случайной величины равно абсциссе середины отрезка

[а, Ь].

Дисперсия

(а+~))' ~)' — а' (а+~))' а'+а~)+Ц' а'+2а~)+

Ь вЂ” а 4 3(Ь вЂ” а) 4 3 4

(Ь вЂ” а)

12

4. Нормальное распределение.

Для вычисления математического ожидания нормально распределенной случайной

з-ю г

2

величины воспользуемся твм, что интеграл Пуассона ) е ' ссх = Ч 2я .

—,-сю (х — а) —,-сю

г

М(Х)= )хе ' схх=(х= )= )(охьа)е 'схх=

о ~/2г о ~/2г

27

2. Закон Пуассона.

и сю и сю и — 1

Еслир(Х и) = е ', тоМ(Х) = ~т е ' = ае '~ = ае 'е' = а (использо-

И! 1 И! 1 (И вЂ” 1)!

валось разложение в ряд Тейлора функции е ).

0028

Распознанный текст из изображения:

-ею г

2

-ею г

2

а а

~юле ' й -г ~ е ' й = О г С2н = а ( первое слагаемое равно О, гаа

~/2г ~/2г ~/2г

как подынтегральная функция нечетна, а пределы интегрирования симметричны

относительно нуля).

-~-со (х — а2 2 -'-гю г г

1 г

2 2гга

В(Х)= ~(х — а) е '" сКк= ~г ге 'сКг=(ц=г,сЬ =ге ')=

о ~/2г ~/2г

+ оо

2

+ю г 2

-г ~е 'й = ( — О-г~2т)=а'.

~/2г

2

О

— ~ Г

~/2г

Следовательно, параметры нормального распределения (а и ср) равны соответствен-

но математическому ожиданию и среднему квадратическому отклонению иссле-

дуемой случайной величины.

28

0029

Распознанный текст из изображения:

Лекция 8.

Случийные векторы (системы нескольких случийных величин). Зикон риспределения вероятностей дискретной двумерной случийной величины. Функция риспределения и плотность риспределения двумерной случийной величины, их свойстви Вероятность попидиния случийной точки в произвольную облисть. Отыскиние плотностей вероятности составляющих двумерной случийной величины. Ривномерное риспределение ни плоскости.

Наряду с одномерными случайными величинами, возможные значения которых определяют-

ся одним числом, теория вероятностей рассматривает и многомерные случайные величины.

Каждое возможное значение такой величины представляет собой упорядоченный набор

нескольких чисел. Геометрической иллюстрацией этого понятия служат точки п-мерного

пространства, каждая координата которых является случайной величиной (дискретной или

непрерывной), или п-мерные векторы. Поэтому многомерные случайные величины называют

еще случайными векторами.

Двумерные случайные величины.

1. Дискретные двумерные случайные величины.

Закон распределения дискретной двумерной случайной величины (Х У) имеет вид

таблицы с двойным входом, задающей перечень возможных значений каждой компоненты

При этом сумма вероятностей, стоящих во всех клетках таблицы, равна 1.

Зная закон распределения двумерной случайной величины, можно найти законы распреде-

ления ее составляющих. Действительно, событие Х х1 представляется собой сумму

несовместных событий (Х х1, У у1), (Х х1, У у2),..., (Х х1, У у ), поэтому

р(Х х1) = р(х1, у1) + р(х1, у2) +... + р(х1, у ) (в правой части находится сумма вероятностей,

стоящих в столбце, соответствующем Х х1). Так же можно найти вероятности остальных

возможных значений Х Для определения вероятностей возможных значений У нужно

сложить вероятности, стоящие в строке таблицы, соответствующей У у,.

Пример 1. Дан закон распределения двумерной случайной величины:

Х

-0,8

0,1

0,3

0,1

-0,5

0,15

0,25

0,1

Найти законы распределения составляющих.

Решение. Складывая стоящие в таблице вероятности «по столбцам», получим ряд распре-

деления для Х:

Х

0,25

0,55

0,2

Складывая те же вероятности «по строкам», найдем ряд распределения для Г

29

0030

Распознанный текст из изображения:

-0,8

-0,5

0,5

0,5

2. Непрерывные двумерные случайные величины.

Определение 8.1. Функцией распределения Г(х, у) двумерной случайной величины (Х У)

называется вероятность того, что Х < х, а У < у:

Е(х, у) =р (Х< х, У<у).

(8.1)

Рис.1.

Замечание. Определение функции распределения справедливо как для непрерывной, так и

для дискретной двумерной случайной величины.

Свойства функции распределения.

1) 0 ~ Е(х, у) ~ 1 (так как Е(х, у) является вероятностью).

2) Е(х, у) есть неубывающая функция по каждому аргументу:

Е(хг,у) > Е(х1,у), если хг > х1; Е(х, уг) > Е(х, у1), если уг > уь

Доказательство. Е(хг,у) =р(Х< хг, У<у) =р(Х< х1, У<у)+р(х1 ~Х< хг, У<у) >

> р(Х < х1, У < у) = Е(х1, у). Аналогично доказывается и второе утверждение.

3) Имеют место предельные соотношения:

а) Е(-т,у) = 0; Ь) Е(х, -со) = 0; с) Е(-со, -со) = 0; с1) Е(со, со) = 1,

Доказательство. События а), Ь) и с) невозможны ( так как невозможно событие Х<- со

или У <- со), а событие с1) достоверно, откуда следует справедливость приведенных

равенств.

30

Это означает, что точка (Х У) попадет в область, заштрихованную на рис. 1, если вершина

прямого угла располагается в точке (х, у).

0031

Распознанный текст из изображения:

4) При у со функция распределения двумерной случайной величины становится функцией распределения составляющей Х:

Е(х, со) =Е)(х).

При х со функция распределения двумерной случайной величины становится

функцией распределения составляющей У:

-ц( со у) ~рг(у).

Доказательство. Так как событие У < со достоверно, то Е(х, со) = р(Х < х) = Е)(х).

Аналогично доказывается второе утверждение.

Определение 8.2. Плотностью совместного распределения вероятностей (двумер-

ной плотностью вероятности) непрерывной двумерной случайной величины называ-

ется смешанная частная производная 2-го порядка от функции распределения:

д'Е(х, у)

Ьау

(8.2)

Замечание. Двумерная плотность вероятности представляет собой предел отношения

вероятности попадания случайной точки в прямоугольник со сторонами Лх и Лу к

площади этого прямоугольника при Лх — + О, Лу — + О.

Свойства двумерной плотности вероятности.

1) Ях, у) > О (см. предыдущее замечание: вероятность попадания точки в прямоугольник неотрицательна, площадь этого прямоугольника положительна, следовательно, предел их отношения неотрицателен).

у х

2) г'(х, у) = ) 1 )'(х, у)гну (следует из определения двумерной плотности вероятности).

3) ) 1 )'(х, у)гйшу = 1 (поскольку это вероятность того, что точка попадет на плоскость Оху, то есть достоверного события).

Вероятность попадания случайной точки в произвольную область.

р((Х, У) ~ !Э) = Оу !х,у)йхйу.

Р

(8.3)

31

Пусть в плоскости Оху задана произвольная область |>. Найдем вероятность того, что точка,

координаты которой представляют собой систему двух случайных величин (двумерную

случайную величину) с плотностью распределенияЯх, у), попадет в область |>. Разобьем эту

область прямыми, параллельными осям координат, на прямоугольники со сторонами Лх и Лу.

Вероятность попадания в каждый такой прямоугольник равна ~ф, и, )Ахи, где ф, и, )—

координаты точки, принадлежащей прямоугольнику. Тогда вероятность попадания точки в

область |> есть предел интегральной суммы ~ ~ф, п,)Ахи, то есть

0032

Распознанный текст из изображения:

Отыскание плотностей вероятности составляющих

двумерной случайной величины.

(8.4)

л(у) = 1л,ум

(8.4')

Аналогично находится

Ъ'словные законы распределения составляющих

дискретной двумерной случайной величины.

Рассмотрим дискретную двумерную случайную величину и найдем закон распределения

составляющей Х при условии, что У примет определенное значение (например, У у1). Для

этого воспользуемся формулой Байеса, считая гипотезами события Х х1, Х х2,..., Х= х„, а

событием А событие У уь При такой постановке задачи нам требуется найти условные

вероятности гипотез при условии, что А произошло. Следовательно,

/ ) Р(~ У))

Р(У )

Таким же образом можно найти вероятности возможных значений Х при условии, что У

принимает любое другое свое возможное значение:

) Р( г 7 У) )

Р(У,)

(8.5)

Аналогично находят условные законы распределения составляющей Г

)Р(~7У))

Р(х,)

(8.5')

Пример. Найдем закон распределения Х при условии У -0,8 и закон распределения У при

условии Х= 3 для случайной величины, рассмотренной в примере 1.

0,1 1 0,3 3 0,1 1

Р(х,/у,)= ' = — =0,2; р(х,/у,)= ' = — =0,6; Р(х,/у,)= ' = — =0,2. 0,5 5 0,5 5 0,5 5

0,3 6 0,25 5

055 11 055 11

Ъ'словные законы распределения составляющих дискретной двумерной случайной величины.

32

Выше было сказано, как найти функцию распределения каждой составляющей, зная двумерную

функцию распределения. Тогда по определению плотности распределения

0033

Распознанный текст из изображения:

Определение 8.3. Ъ'словной плотностью <р(х/у) распределения составляющих Хпри данном

значении У у называется

( / ) Х( 7У) Х( 7У)

Л(У) с .(

(8.6)

Аналогично определяется условная плотность вероятности У при Х х:

( / ) Х( 7У) Х( 7У)

Х(х)

) )'(х,у)Шу

(8.6')

Равномерное распределение на плоскости.

О вне его.

Найдем двумерную функцию распределения:

Е(х,у) =

1 (х — а)(у — с)

ЦЫхШу = при а < х < Ь, с < у < с( с (х, у) = О при х < а ипи

(Ь вЂ” а)(с/ — с) (Ь вЂ” а)(а — с)

у < с, Е(х, у) = 1 при х > Ь, у > Ы.

Функции распределения составляющих, вычисленные по формулам, приведенным в свойстве 4

х — а у — с

функции распределения, имеют вид: /,(х) =, Е,(у) =

Ь вЂ” а а — с

ЗЗ

Система двух случайных величин называется равномерно распределенной на плоскости, если ее плотность вероятностиЯх, у) = сопи| внутри некоторой области и равна О вне ее. Пусть данная область — прямоугольник вида а < х < Ь, с < у < К Тогда из свойств Ях, у) следует, что 1 1

внутри прямоугольника,

/.(х у) 5. (Ь вЂ” а)(а — с)

0034

Распознанный текст из изображения:

Лекция 9.

Некоторые числовые характеристики одномерных случайных величин: начальные и

центральные моменты, мода, медиана, квантиль, коэффициенты асимметрии и эксцесса.

Числовые характеристики двумерных случайных величин: начальные и центральные

моменты. Корреляционный момент и коэффициент корреляции. Коррелированность и

зависимость случайных величин.

Определение 9.1. Начальным моментом порядка к случайной величины Хназывается матема-

тическое ожидание величины Л~:

М (Л~).

(9.1)

В частности, н1 =М(Х), нг =М(Х). Следовательно, дисперсия В(Х) = нг — н12.

г

Определение 9.2. Центральным моментом порядка к случайной величины Хназывается мате-

матическое ожидание величины (Х М(Х)):

р„М((Х М(Х))').

(9.2)

В частности, ц,1 = М(Х М(Х)) = О, ц,г = М((Х М(Х)) ) = Х>(Х).

Можно получить соотношения, связывающие начальные и центральные моменты:

2 2 2 4

,и, — 1, — ъ'...и, — 1, — 31р, +21'...и4 — 14 — 41р, +61 р, — 31',.

Мода и медиана.

Определение 9.3. Модой Мдискретной случайной величины называется ее наиболее вероятное

значение, модой М непрерывной случайной величины — значение, в котором плотность

вероятности максимальна.

Пример 1.

Если ряд распределения дискретной случайной величины Х имеет вид:

Х

0,1

0,7

0,15

0,05

тоМ= 2.

Пример 2.

1

Для непрерывной случайной величины, заданной плотностью распределения ~(х) =

гг(1+ х')

модой является абсцисса точки максимума: М= О.

34

Такая характеристика случайной величины, как математическое ожидание, называется иногда

характеристикой положения, так как она дает представление о положении случайной величии-

ны на числовой оси. Другими характеристиками положения являются мода и медиана.

0035

Распознанный текст из изображения:

Замечание 1. Если кривая распределения имеет больше одного максимума, распределение

называется полимодальным, если эта кривая не имеет максимума, но имеет минимум — анти-

модальным,

Замечание 2. В общем случае мода и математическое ожидание не совпадают. Но, если распределение является симметричным и модальным (то есть кривая распределения симметрична относительно прямой х М) и имеет математическое ожидание, оно совпадает с модой.

Определение 9.4. Медианой Ме непрерывной случайной величины называют такое ее значение,

для которого

р(Х< Ме ) =р(Х> Ме ).

(9.3)

Замечание. Для симметричного модального распределения медиана совпадает с математичес-

ким ожиданием и модой.

Определение 9.5. Для случайной величины Хс функцией распределения Е(Х) квантилью

порядка р (О < р < 1) называется число К, такое, что Е(Х ) ~ р, Е(Х~ + 0) > р. В частности, если

Е(Х) строго монотонна, К,: Е(Х,) = р.

Асимметрия и эксцесс.

Если распределение не является симметричным, можно оценить асимметрию кривой распреде-

ления с помощью центрального момента 3-го порядка. Действительно, для симметричного

распределения все нечетные центральные моменты равны 0 ( как интегралы от нечетных функ-

ций в симметричных пределах), поэтому выбран нечетный момент наименьшего порядка, не

тождественно равный О. Чтобы получить безразмерную характеристику, его делят на ~~о (так

как цз имеет размерность куба случайной величины).

Определение 9.б. Коэффициентом асимметрии случайной величины называется

Рз

О

(9.4)

Рис.1.

Рис.2.

В частности, для кривой, изображенной на рис.1, Л~ > О, а на рис.2 — Л~ < О.

Для оценки поведения кривой распределения вблизи точки максимума (для определения того,

насколько «крутой» будет его вершина) применяется центральный момент 4-го порядка.

35

Графически прямая х Ме делит площадь фигуры, ограниченной кривой распределения, на две

равные части.

0037

Распознанный текст из изображения:

Х

х у

(9.9)

х = 1(х — м(х))), (х)~Й1(у — м(У)))2 (у)шу = ц (х)д,(у) = О.

Итак, две независимые случайные величины являются и некоррелированными. Однако понятия коррелированности и зависимости не эквивалентны, а именно, величины могут быть зависимыми, но при этом некоррелированными. Дело в том, что коэффициент корреляции характеризует не всякую зависимость, а только линейную. В частности, если У аХ+ Ь, то г ~1.

Найдем возможные значения коэффициента корреляции.

Теореми 9.1. г < 1.

Доказательство. Докажем сначала, что Х < о,о . Действительно, если рассмотреть случай-

ную величину У, = о Х вЂ” о,У и найти ее дисперсию, то получим: Х>(У, ) = 2о,'о' — 2о,о Х

Так как дисперсия всегда неотрицательна, то 2о,'о' — 2о,о Х > О, откуда Х < о,о

= г < О, что и требовалось доказать.

Отсюда

х

37

Корреляционный момент описывает связь между составляющими двумерной случайной величины. Действительно, убедимся, что для независимых Хи У Х„О. В этом случаеЯх,у) Яхту), тогда

0038

Распознанный текст из изображения:

Лекция 10.

Функции от случийных величин. Функция одного случийного иргументи, ее риспределение и

митемитическое ожидиние. Функция двух случийных иргументов. Риспределение суммы

незивисимых слигиемых. Устойчивость нормильного риспределения.

Определение 10.1. Если каждому возможному значению случайной величины Х соответствует одно возможное значение случайной величины У, то У называют функцией случайного аргумента Х: 1' Р(Х).

Выясним, как найти закон распределения функции по известному закону распределения аргумента.

1) Пусть аргумент Х вЂ” дискретная случайная величина, причем различным значениям Хсоответствуют различные значения Г Тогда вероятности соответствующих значений Хи У равны.

Пример 1. Ряд распределения для Химеет вид: Х 5 6 7 8

р 0,1 0,2 0,3 0,4

Найдем закон распределения функции У 2Л~ — 3: У 47 69 95 125

р 0,1 0,2 0,3 0,4

(при вычислении значений У в формулу, задающую функцию, подставляются возможные

значения Х).

2) Если разным значениям Х могут соответствовать одинаковые значения У, то вероятности значений аргумента, при которых функция принимает одно и то же значение, складываются.

Пример 2. Ряд распределения для Химеет вид: Х 0 1 2 3

р 0,1 0,2 0,3 0,4

Найдем закон распределения функции У Л~ — 2Х: У -1 0 3

р 0,2 0,4 0,4

(так как У= 0 при Х 0 и Х 2, тор(У 0) =р(Х= 0) + р(Х= 2) = 0,1+ 0,3 = 0,4 ).

3) Если Х вЂ” непрерывная случайная величина, У р(Х), р(х) — монотонная и дифференцируемая

функция, а р(у) — функция, обратная к р(х), то плотность распределения фу) случайно функции

У равна: Фу) = ХМ(у)) и'(у) (10.1)

з

(1+ з) 3 р '(1+у')

Математическое ожидание функции одного случайного аргумента.

Пусть У р(Х) — функция случайного аргумента Х и требуется найти ее математическое

ожидание, зная закон распределения Х.

1) Если Х вЂ” дискретная случайная величина, то

Пример 3. )'(х) =, у = х'. Тогда аг(у) = ~~Гу, д(у) = г(1+ х2)

38

В предыдущих лекциях рассматривались некоторые законы распределения случайных величин.

При решении задач часто удобно бывает представить исследуемую случайную величину как

функцию других случайных величин с известными законами распределения, что помогает уста-

новить и закон распределения заданной случайной величины.

0039

Распознанный текст из изображения:

М(У) = М(р(х)) = ~ р(х, ) р,.

~=1

Пример 3. Найдем М(У) для примера 1: М(У) = 47 0,1+ 69 0,2

2) Если Х вЂ” непрерывная случайная величина, то М(У) можно

известна плотность распределения фу), то

м0') = 1жы4'

Если же фу) найти сложно, то можно использовать известную

м0')=1<()л м

В частности, если все значения Х принадлежат промежутку (а,

м(у) = 1р(х)~(х)~й.

(10.2)

+ 95'0,3 + 125'0,4 = 97.

искать по-разному. Если

(10. 3)

плотность распределения Ях):

(10.4)

о), то

(10.4')

Функция двух случайных величин. Распределение суммы независимых слагаемых.

Определение 10.2. Если каждой паре возможных значений случайных величин Хи У соответ-

ствует одно возможное значение случайной величины У, то У называют функцией двух

случайных аргументов Хи У: У р(Х У).

1) Если Хи У вЂ” дискретные независимые случайные величины, то для определения закона распределения У Х+ У нужно найти все возможные значения У и соответствующие им вероятности.

Пример 4. Рассмотрим дискретные случайные величины Хи У, законы распределения которых

имеют вид: Х -2 1 3 У 0 1 2

р 0,3 0,4 0,3

р 0,2 0,5 0,3

+ 0 = -2 (р = 0,3'0,2 = 0,06), -2+ 1 = -1 (р = 0,3'0,5 = 0,15), 1~р=0,4'0,2=0,08),1+1=2~р=0,4'0,5=0,2),1+2=3 'О 2 = О 06), 3 + 1 = 4 ~р = 0 3'О 5 = 0,15), 3 + 2 = 5 (р = повторившегося дважды значения У 3, составим ряд

Найдем возможные значения Е -2 -2 + 2 = О (р = 0 3'О 3 = О 09), 1 + 0 = (р О 4'О 3 = 0,12), 3 + 0 = 3 ~р = О 3 0,3 0,3 = 0,09). Сложив вероятности распределения для Е

0,06

0,15

0,09

0,08

0,2

0,18

0,15

0,09

3) Если Хи У вЂ” непрерывные независимые случайные величины, то, если плотность вероятности хотя бы одного из аргументов задана на (-со, со) одной формулой, то плотность суммы

ф~) можно найти по формулам

д(г) = 1~;(х)~,(г — х)~Й = 1~;(г — у)~,(у)шу,

(10. 5)

39

Рассмотрим в качестве такой функции сумму Х+ Г В некоторых случаях можно найти ее закон

распределения, зная законы распределения слагаемых.

0040

Распознанный текст из изображения:

гдеЯх),Яу) — плотности распределения слагаемых. Если возможные значения аргументов

неотрицательны, то

(10.6)

Замечание. Плотность распределения суммы двух независимых случайных величин называют

композицией.

Ъ'стойчивость нормального распределения.

Определение 10.3. Закон распределения вероятностей называется устойчивым, если композиция таких законов есть тот же закон (возможно, отличающийся другими значениями параметров).

В частности, свойством устойчивости обладает нормальный закон распределения: композиция

нормальных законов тоже имеет нормальное распределение, причем ее математическое

ожидание и дисперсия равны суммам соответствующих характеристик слагаемых.

40

0042

Распознанный текст из изображения:

и преобразуем ее, учитывая соот-ношения М(Х и„) = М(У и,,) = О, М((Х т„)(У и,,)) =

=К„~ Пт„Сту;

Е(а,В) = о' +,В'о' — 2го о,В+ (и — а —,Ип )'

Найдем стационарные точки полученной функции, решив систему

Можно проверить, что при этих значениях функция Е(а, ф) имеет минимум, что доказывает

утверждение теоремы.

О

Определение 11.3. Коэффициент,В = г называется коэффициентом регрессии У на Х, а

х

О

у — и =г (х — и,)-

О-

х

(11.5)

прямая

— прямой среднеквадратической регрессии У на Х.

Подставив координаты стационарной точки в равенство (11.4), можно найти минимальное

значение функции Е(а, ф), равное о '(1 — г'). Эта величина называется остаточной дисперсией

У относительно Хи характеризует величину ошибки, допускаемой при замене У на фХ) = а+фХ

При г = +1 остаточная дисперсия равна О, то есть равенство (11.2) является не приближенным,

а точным. Следовательно, при г = +1 У и Х связаны линейной функциональной зависимостью.

Аналогично можно получить прямую среднеквадратической регрессии Хна Г

х

х — т,=г '(у — и )

О

у

(11.6)

и остаточную дисперсию Хотносительно Г При г = +1 обе прямые регрессии совпадают.

Решив систему из уравнений (11.5) и (11.6), можно найти точку пересечения прямых регрессии

— точку с координатами (и„, и ), называемую центром совместного распределения величин

Хи У.

Линейная корреляция.

Для двумерной случайной величины (Х У) можно ввести так называемое условное математическое ожидание Упри Х х. Для дискретной случайной величины оно определяется как

М(У Х = х) = ~ у, р(у, /х),

~=1

(11.7)

для непрерывной случайной величины—

м(у х = х) = 1ур(у!х)шу.

(11.8)

42

дЕ

= — 2(т — и — фт,) = О, ди

дЕ

=2,Во, — 2го,о = О. д,В

О О

Решением системы будет,В = г,и = и — г и,.

0043

Распознанный текст из изображения:

Определение 11.4. Функцией регрессии У на Х называется условное математическое ожидание

М( У 'х) =Ях).

Аналогично определяется условное математическое ожидание Хи функция регрессии Хна К

Определение 11.5. Если обе функции регрессии Хна У и У на Хлинейны, то говорят, что Хи У

связаны линейной корреляционной зависимостью.

При этом графики линейных функций регрессии являются прямыми линиями, причем можно

доказать, что эти линии совпадают с прямыми среднеквадратической регрессии.

Теореми 11.2. Если двумерная случайная величина (Х У) распределена нормально, то Хи У

связаны линейной корреляционной зависимостью.

Доказательство. Найдемусловныйзаконраспределения УприХ х р(у/х) =

Х(х)

используя формулу двумерной плотности вероятности нормального распределения (11.1) и

формулу плотности вероятности Х:

(11.9)

у — а !-х (х — а!

!

2ст (! — х '!

е ' . Полученное распределение является нормальным, а его мате-

а 1 — Г' /2т

О,

матическое ожидание М(У/х) = а, +г (х — а,) есть функция регрессии УнаХ(см. опредех

ление 11.4)). Аналогично можно получить функцию регрессии Хна Г

х

М(Х /у) = а, + г ' (у — а, ) .

Обе функции регрессии линейны, поэтому корреляция между Хи Улинейна, что и требовалось

доказать. При этом уравнения прямых регрессии имеют вид

х

х — а, =г '(у — а,),

О

то есть совпадают с уравнениями прямых среднеквадратической регрессии (см. формулы

(11.5), (11.6)).

43

х — а, у — а,

Сделаем замену и =

х у

О,

у — а, =г (х — а,),

х

(! — хи!

2

Тогда р(у/х) = е '" ' ' =

~/2го

0044

Распознанный текст из изображения:

Лекция 12.

Рассмотрим некоторые распределения, связанные с нормальным и широко применяющиеся в

математической статистике.

Распределение «хи-квадрат».

Пусть имеется несколько нормированных нормально распределенных случайных величин: Х),

Х2,..., Х„(а, = О, ст, 1). Тогда сумма их квадратов

(12.1)

является случайной величиной, распределенной по так называемому закону «хи-квадрат» с

п степенями свободы; если же слагаемые связаны каким-либо соотношением (например, ~Х, = пХ), то число степеней свободы к п 1.

Плотность этого распределения

О, х<0;

— -'-1

е 'х' х>0.

2'Г( )

Л)=

(12.2)

Здесь Г(к) = ) г* е ~Ж - гамма-функция; в частности, Г(п + 1) = и!

О

Следовательно, распределение «хи-квадрат» определяется одним параметром — числом степе-

ней свободы к.

Замечание 1. С увеличением числа степеней свободы распределение «хи-квадрат» постепенно

приближается к нормальному.

Замечание 2. С помощью распределения «хи-квадрат» определяются многие другие распреде-

ления, встречающиеся на практике, например, распределение случайной величины у

длины случайного вектора (Х), Х2,..., Х„), координаты которого независимы и распределены по

нормальному закону.

Распределение Стьюдента.

Рассмотрим две независимые случайные величины: У, имеющую нормальное распределение и

нормированную (то есть М( У) = О, и( У) = 1), и Г, распределенную по закону «хи-квадрат» с к

степенями свободы. Тогда величина

(12.3)

44

Риспределения «хи-квидритц Стьюденти и Фишери. Связь этих риспределений с нормиль-

ным риспределением.

0045

Распознанный текст из изображения:

имеет распределение, называемое ~ — распределением или распределением Стьюдента с 1

степенями свободы.

С возрастанием числа степеней свободы распределение Стьюдента быстро приближается к

нормальному.

Распределение Г Фишера — Снедекора.

Рассмотрим две независимые случайные величины У и Г, распределенные по закону «хи-

квадрат» со степенями свободы 11 и 12 и образуем из них новую величину

У/1,

2

(12.4)

Ее распределение называют распределением Г Фишера — Снедекора со степенями свободы

11 и 12. Плотность его распределения имеет вид

О, х<0;

lс1 — 2

2

(12.5)

х>0,

1 ' 2

ф2 + 1,Х)

параметрами — числами степеней свободы.

45

~1 ~2 Г

2 где С, =

2 2

Таким образом, распределение Фишера определяется двумя

0046

Распознанный текст из изображения:

Лекция 13.

Зикон болыиих чисел. Неривенство Чебышеви Теоремы Чебышеви и Бернулли.

Изучение статистических закономерностей позволило установить, что при некоторых условиях суммарное поведение большого количества случайных величин почти утрачивает случайный характер и становится закономерным (иначе говоря, случайные отклонения от некоторого среднего поведения взаимно погашаются). В частности, если влияние на сумму отдельных слагаемых является равномерно малым, закон распределения суммы приближается к нормальному. Математическая формулировка этого утверждения дается в группе теорем, называемой законом больших чисел.

Неравенство Чебышева.

Неравенство Чебышева, используемое для доказательства дальнейших теорем, справедливо как для непрерывных, так и для дискретных случайных величин. Докажем его для дискретных случайных величин,

Теореми 13.1(неривенство Чебышеви). р( Х М(Х) < в ) > Х>(Х) I в2. (13.1)

Доказательство. Пусть Хзадается рядом распределения

Х

Таккаксобытия Х М(Х) <ви Х М(Х) >впротивоположны,тор( Х М(Х) <в)+ +р( Х М(Х) > в) = 1, следовательно, р( Х М(Х) < в) = 1-р( Х М(Х) > в). Найдем р( Х М(Х) > в).

Ю = (2~1 — М(Х) )'р1 + (:сг — М(Х) )'рг + ... + (х~ М Х) )2р, . Исключим из этой суммы те слагаемые, для которых Х М(Х) < в. При этом сумма может только уменьшиться, так как все входящие в нее слагаемые неотрицательны. Для определенности будем считать, что отброшены первые к слагаемых. Тогда

1-~(Х) > (хи — МЯ) Рь1 + (х~ г — МЯ) рог + ... + (.'с„МЯ) р > в2 (ри + р~+г + + р ). ОтмЕтим, чтОр1-,1+р1-,г + ... +р„ЕСть вЕрОятнОСть тОгО, чтО Х М(Х) > В, так как ЭтО сумма вероятностей всех возможных значений Х для которых это неравенство

справедливо. Следовательно, В(Х) > в2р(Х М(Х) > в), илир (Х М(Х) > в) <В(Х) / в2. Тогда вероятность противоположного события р( Х М(Х) < в ) > Х>(Х) / в2, что и требовалось доказать.

Теоремы Чебышева и Бернулли.

Теореми 13.2 (теореми Чебышеви). Если Х1, Хг,..., Մ— попарно независимые случайные

величины, дисперсии которых равномерно ограничены ( Х>(Х) < С), то для сколь угодно

малого числа в вероятность неравенства

Х, +Х, +...+Х. М(Х,)+М(Х,)+...+М(Х.)

будет сколь угодно близка к 1, если число случайных величин достаточно велико.

Замечание. Иначе говоря, при выполнении этих условий

Х, +Х, +...+Х. М(Х,)+М(Х,)+...+М(Х.)

1пп р( 1 2 п )

— Х, +Х, +...+Х.

Доказательство. Рассмотрим новую случайную величину Х = ' и найдем

Л

ее математическое ожидание. Используя свойства математического ожидания, получим,

46

0047

Распознанный текст из изображения:

Х, +Х, +...+Х. М(Х,)+М(Х,)+...+М(Х.)

что М . Применим к Х неравенство

Чебышева:

Х, +Х, +...+Х.

Х, +Х, +„,+Х. М(Х,)+М(Х,)+„,+М(Х.) л

р( 1 2 ''' п )>1

Так

как рассматриваемые случайные величины независимы, то, учитывая условие теоремы,

Х, +Х, +...+Х. В(Х,)+В(Х,)+...+В(Х.) Сл С

имеем: Х) < = . Используя этот

Л Л Л Л

результат, представим предыдущее неравенство в виде:

Х, +Х, +...+Х. М(Х,)+М(Х,)+...+М(Х.) С

р( < е) > 1, . Перейдем к пределу

Х, +Х, +...+Х. М(Х,)+М(Х,)+...+М(Х.)

при п — + ос; 1ппр( < е) >1. Поскольку

вероятность не может быть больше 1, можно утверждать, что

Х, +Х, +...+Х. М(Х,)+М(Х,)+...+М(Х.)

1пп р( < е) =1. Теорема доказана.

Следствие.

Если Х1, Х2, ..., Մ— попарно независимые случайные величины с равномерно ограниченными дисперсиями, имеющие одинаковое математическое ожидание, равное а, то для

Х, +Х, +...+Х.

любого сколь угодно малого в > О вероятность неравенства ' ' '" ' а < е

Л

будет как угодно близка к 1, если число случайных величин достаточно велико. Иначе

Х, +Х, +...+Х.

говоря, 1ппр( ' а <е) =1.

Вывод: среднее арифметическое достаточно большого числа случайных величин прини-

мает значения, близкие к сумме их математических ожиданий, то есть утрачивает

характер случайной величины. Например, если проводится серия измерений какой-либо

физической величины, причем: а) результат каждого измерения не зависит от результатов

остальных, то есть все результаты представляют собой попарно независимые случайные

величины; б) измерения производятся без систематических ошибок (их математические

ожидания равны между собой и равны истинному значению а измеряемой величины);

в) обеспечена определенная точность измерений, следовательно, дисперсии рассматривае-

мых случайных величин равномерно ограничены; то при достаточно большом числе

измерений их среднее арифметическое окажется сколь угодно близким к истинному

значению измеряемой величины.

Теорема Бернулли.

Теореми 13.3 (теореми Бернулли). Если в каждом из и независимых опытов вероятность

р появления события А постоянна, то при достаточно большом числе испытаний вероят-

ность того, что модуль отклонения относительной частоты появлений А в и опытах отр

будет сколь угодно малым, как угодно близка к 1:

Ш

1ппр — р <е =1.

(13.2)

47

0048

Распознанный текст из изображения:

Доказательство. Введем случайные величины Х1, Х2, ..., Х„, где Х число появлений А в г-м опыте. При этом Х могут принимать только два значения: 1(с вероятностью р) и О (с вероятностью а 1 — р). Кроме того, рассматриваемые случайные величины попарно независимы и их дисперсии равномерно ограничены (так как Х>(Х) = ра, р + а 1, откуда ра < У4). Следовательно, к ним можно применить теорему Чебышева приМ р:

Х, +Х, +...+Х.

1ппр( ' р <в) =1.

Х, +Х, +...+Х. и Но ' ' ' =, так как Х принимает значение, равное 1, при появлении А в

Л Л данном опыте, и значение, равное О, если А не произошло. Таким образом,

Ш

1ппр — р <в =1, что и требовалось доказать.

Ш Замечание. Из теоремы Бернулли не следует, что 1пп = р. Речь идет лишь о вероятно-

П вЂ” +Ю Л сти того, что разность относительной частоты и вероятности по модулю может стать сколь угодно малой. Разница заключается в следующем: при обычной сходимости, рассматриваемой в математическом анализе, для всех и, начиная с некоторого значения,

Ш неравенство — р < в выполняется всегда; в нашем случае могут найтись такие

Л значения и, при которых это неравенство неверно. Этот вид сходимости называют сходимостью по вероятности.

48

0049

Распознанный текст из изображения:

Лекция 14.

Центрильния предельния теореми Ляпунови Предельния теореми Муиври-Липлиси

Характеристические функции.

Для доказательства центральной предельной теоремы используется метод характеристических функций.

Определение 14.1. Характеристической функцией случайной величины Х называется

функция

д (~) = М ( е ) (14.1)

Таким образом, д (~) представляет собой математическое ожидание некоторой комплексной

случайной величины У е ~~, связанной с величиной Х В частности, если Х вЂ” дискретная

случайная величина, заданная рядом распределения, то

ф~) = ~е' 'р,. (14.2)

)с=1

Для непрерывной случайной величины с плотностью распределения Ях)

-~-со

д(К) = ) е' у (х)с1е. (14.3)

Пример 1. Пусть Х вЂ” число выпадений 6 очков при одном броске игральной кости. Тогда по

5 „, 1 5+е"

формуле (14.2) ф~) = е"' — + е"'

6 6 6

Пример 2. Найдем характеристическую функцию для нормированной непрерывной

2

х

случайной величины, распределенной по нормальному закону ~(х) = е ' . По

~/2г

х

2

з-з х

2 2

е 'ссх= )е 'ссх=е ' (иопользовалаоь формула

~/2г

с1х

формуле (14.3) д(К) = ) е'"

~/2г

-';со АС вЂ” В

— Ах 42Вх С в А

и то,

А

что ~2 = -1).

Свойства характеристических функций.

1. ФункциюЯх) можно найти по известной функции ф~) по формуле

-';со

у(х) = ) е ' д(К)Ж. (14.4)

22г

( преобразование (14.3) называется преобразованием Фурье, а преобразование (14.4)—

обратным преобразованием Фурье ).

2. Если случайные величины Хи У связаны соотношением У аХ то их характеристические

функции связаны соотношением

~, (~) = ~„(а~).

(14.5)

49

Закон больших чисел не исследует вид предельного закона распределения суммы случайных

величин. Этот вопрос рассмотрен в группе теорем, называемых центральной предельной

теоремой. Они утверждают, что закон распределения суммы случайных величин, каждая из

которых может иметь различные распределения, приближается к нормальному при достаточ-

но большом числе слагаемых. Этим объясняется важность нормального закона для практичес-

ких приложений.

Комментарии

Рекомендуем также
Дата публикации 20 августа 2013 в 00:17
Рейтинг -
0
0
0
0
0
Автор zzyxel (4,54 из 5)
Цена Бесплатно
Качество Качество не указано
Просмотры 527
Скачивания 198
Размер 3,31 Mb
Жалобы Не было ни одной удовлетворённой жалобы на этот файл.
Безопасность Файл был вручную проверен администрацией в том числе и на вирусы
Поделитесь ссылкой:
Свежие статьи