Галкин С.В., Панов В.Ф., Петрухина О.С. - Краткий курс теории вероятностей (1071993), страница 3
Текст из файла (страница 3)
P⎝ i =1 ⎠n −1⎛⎞A/⎜ n ∏ Ai ⎟ .⎝⎠i =1Событие А будем называть независимым от события В, если P(A / B) = P(A), т. е. если условная вероятность равна безусловной.Два события называются независимыми, если наступлениеодного из них не изменяет вероятность другого. В противномслучае события называются зависимыми.События А1, А2, …, Аn называются независимыми в совокупности, если для любых k из них вероятность их произведенияравна произведению их вероятностей. В частности, выполненосоотношениеn⎛ n⎞Р ⎜ ∏ Аi ⎟ = ∏ Р ( Аi ).⎝ i =1 ⎠ i =115Можно показать, что из попарной независимости не вытекает независимость в совокупности.Пример.
Наугад вытаскивается одна карта из тщательно перетасованной колоды в 36 карт.Событие А — вытащили даму; Р ( А ) = 4/36 = 1/9.Если имеется дополнительная информация, что произошлособытие В — вытащили карту бубновой масти, тоP ( AB ) 1/36== 1/9;P (B )1/4P ( A ) = Р ( A / B ) ⇒ А и В — независимы.Р (B ) = 1/4, P ( AB ) =1/36;P (A /B) =Если имеется дополнительная информация, что произошлособытие С — вытащили карту с изображением (валета, дамыили короля), тоP (C ) = 12/36;P ( A /C ) =P ( AC ) = 4/36;P ( AC )4/36== 1/3 ≠ 1/9;P (C )12/36P ( A ) ≠ P ( A /C ) ⇒⇒ A и C — зависимы.Пример.
На плотной бумаге написано слово «стипендия».Разрезав надпись на карточки «с», «т», «и», «п», «е», «н», «д»,«и», «я» и перемешав их, вытаскиваем наугад шесть букв. Каковавероятность того, что мы вытащим последовательно «п», «е»,«н», «с», «и», «я»?P(пенсия) = P(п) P(е/п) P(н/пе) P(с/пен) P(и/пенс) P(я/пенси) == 1/9 1/8 1/7 1/6 2/5 1/4 = 1/30240.Решая эту задачу методами комбинаторики, получаемР(пенсия) =Р2А96=2!1.=9 ⋅ 8 ⋅ 7 ⋅ 6 ⋅ 5 ⋅ 4 302402.3.
Формула вероятности суммы совместных событий(теорема сложения вероятностей)Пусть мы имеем два совместных события А и В (рис. 6).Преобразуем их сумму в сумму несовместных событий:А + В = А + В \ A ⇒ Р ( А + В ) = Р ( А ) + Р (В \ A );16B = B \ A + AB ⇒ P ( B ) = P ( B \ A ) + P ( AB ) ⇒⇒ P ( B \ A ) = P ( B ) − P ( AB ) .Подставляя второе выражение в первое, получаемР ( А + В ) = Р ( А ) + Р (В ) − Р ( АВ ) .Эта формула составляет суть теоремыРис. 6сложения вероятностей: вероятность суммы событий равна сумме вероятностей этих событий за вычетомвероятности произведения событий.Пример.
По мишени один раз стреляют два стрелка. Вероятность попадания первого стрелка в мишень р1 = 0,7, второго — р2 = 0,8. Какова вероятность того, что кто-нибудь из нихпопадет в мишень?Событие А = А1 + А2 — попадание в мишень; событие А1 —попал первый стрелок; событие А2 — попал второй стрелок. ТогдаР(А) = Р(А1 + А2) = Р(А1) + Р(А2 ) – Р(А1А2) == Р(А1) + Р(А2) – Р(А1)Р(А2) = 0,7 + 0,8 – 0,7 · 0,8 = 0,94.Получим вероятность суммы трех совместных событийP ( A + B + C ) = P ( A + B ) + P (C ) − P (( A + B )C ) =P ( A ) + P ( B ) − P ( AB ) + P (C ) − P ( AC ) − P ( BC ) + P ( ABC ) ,так как АСВС = АВС.В результате запишемР(А + В + С) = Р(А) + Р(В) + Р(С) — Р(АВ) –– Р(АС) – Р(ВС) + Р(АВС).Обобщим полученный результат на сумму n совместных событий:n⎛ n⎞Р ⎜ ∑ Аi ⎟ = ∑ P ( Ai ) − ∑ P ( Ai A j ) +⎝ i −1 ⎠ i =1i< j⎛ n⎞P ( Ai A j Ak ) + … + (−1)n +1 P ⎜ ∏ Ai ⎟ .⎝ i =1 ⎠i < j <k∑172.4.
Формула полной вероятностиПусть требуется определить вероятность события А, котороеможет произойти в сочетании с одним из событий Н1, Н2, …, Нn,образующихполнуюгруппунесовместныхсобытийn⎛⎞⎜ ∑ H i = Ω, H i H j = ∅, i ≠ j ⎟ . Эти события будем называть ги⎝ i =1⎠потезами (рис. 7).Н1Н2Н3АН1АН2АН3АНn-2Hn-2АНn-1АНnHn-1HnРис. 7Определим вероятность события А:A = A Ω = A(H 1 + H 2 ++ Hn ) =n∑ AH i .i =1В соответствии со свойством 3) вероятности (см. разд. 1) итеоремой умножения вероятностейnР ( А ) = Р (∑ AH i ) =i =1Р ( А) =nni =1i =1∑ P ( AH i ) = ∑ P (H i )P ( A / H i ) ;n∑ P (H i )P ( A / H i ) .i =1Пример.
Из n экзаменационных билетов студент знает m(«хорошие» билеты). Что лучше: брать на экзамене билет первым или вторым?Введем событие А — студент взял «хороший» билет.mЕсли студент берет билет первым, то Р ( А ) = .n18Пусть студент берет билет вторым.Введем две гипотезы:Н1 — первый студент взял «хороший» билет, Н2 = H 1 .Вычислим вероятность события А:Р ( А ) = Р (Н 1 )Р ( А / H 1 ) + P (H 2 )P ( A / H 2 ) ==m m −1 ⎛m⎞ mm+ ⎜1 − ⎟= .n n −1 ⎝n ⎠ n −1 nСледовательно, безразлично, брать билет первым или вторым.2.5.
Формула Байеса (теорема гипотез)В соответствии с теоремой умножения вероятностейР(АНi) = Р(Hi)Р(А/Hi) = Р(A) Р(Hi/А).В это равенство подставим значение Р(А), вычисленное поформуле полной вероятности, и найдем Р(Hi /А):Р ( А) =n∑ P (H i )P ( A / H i ) ;i =1P (H i / A ) = P (H i )Р (А /Hi )=P ( A)P (H i )P ( A / H i )n∑ P (H i )P ( A / H i ).i =1Это следствие из теоремы умножения и формулы полной вероятности называется формулой Байеса, или теоремой гипотез.Вероятности гипотез Р(Нi), входящие в формулу полной вероятности, называют априорными, т.
е. «доопытными». Пустьопыт проведен и его результат известен, т. е. мы знаем, произошло или не произошло событие А. Такой результат мог бытьполучен при осуществлении какой-то одной гипотезы Нi. Дополнительная информация об исходе опыта перераспределяетвероятности гипотез. Эти перераспределенные вероятности гипотез Р(Нi/A) называют апостериорными, т. е. «послеопытными».Пример. В первой корзине находятся 1 камешек и 4 кусочкахлеба, во второй — 4 камешка и 1 кусочек хлеба. Мышка наугадвыбирает корзину, бежит к ней и вытаскивает кусочек хлеба —19событие А (предполагается, что этот кусочек затем вновь возвращается в корзину). Какова вероятность события А? Каковывероятности того, что второй раз мышка побежит к первой корзине, ко второй корзине? Какова вероятность того, что она второй раз вытащит кусочек хлеба?Рассмотрим гипотезы:Н1 — мышка бежит к первой корзине;Н2 — мышка бежит ко второй корзине;Р(Н1) = 1/2 = Р(Н2) — априорные вероятности;Р ( А / H 1 ) = 4/5, P ( A / H 2 ) = 1/5 ; P ( A ) = 4/5 1/2 + 1/5 1/2 = 1/2 ;Р(Н1/A) =P (H 1 )P ( A / H 1 )2∑ P (H i )P ( A / H i )=1/2 4/5= 4/5 ;1/2=1/2 1/5= 1/5 .1/2i =1Р(Н2/A) =P (H 2 )P ( A / H 2 )2∑ P (H i )P ( A / H i )i =1Вероятности Р(Н1 /A) и Р(Н2 /A) являются апостериорнымивероятностями.При втором подходе P ( A ) = 4/5 4/5 + 1/5 1/5 = 17/25 > 1/2 .Мышка обучилась, второй раз она выберет первую корзинус большей вероятностью и добьется большего успеха.Заметим, что это — один из основных принципов обучениякибернетических систем.3.
СЛУЧАЙНЫЕ ВЕЛИЧИНЫСлучайная величина — это величина (число), которая в результате опыта может принимать то или иное значение.Более строго, случайная величина — это числовая функцияслучайного события X = X ( ω ) , ω ∈ Ω ∈ S . Здесь S — алгебра событий.Случайная величина называется дискретной, если множествоее значений конечно или счетно. Например, число очков на20грани брошенной кости, число бросков монеты до появлениягерба — дискретные случайные величины.Случайная величина называется непрерывной, если ее значения заполняют некоторый интервал, возможно, бесконечный. Здесь надо рассматривать Σ-алгебру событий. Например,расстояние от центра мишени при стрельбе, время до отказаприбора, ошибка измерения — непрерывные случайные величины.Рассмотрим дискретную случайную величину, принимающую значения x1,..., xn .
Имеем полную группу (иначе не всезначения учтены) несовместных событий X = x1,..., X = xn . Веp1,..., pnроятности этих событий равны соответственноp+...+p=1.Будемговорить,чтодискретнаяслучайнаяве)( 1nличина X принимает значения x1,..., xn с вероятностямиp1,..., pn .Законом распределения дискретной случайной величины называется любое соотношение, устанавливающее зависимостьмежду ее значениями x1,..., xn и вероятностями p1,..., pn , с которыми эти значения достигаются.Основными формами закона распределения дискретнойслучайной величины является ряд распределения (табл. 2) и многоугольник распределения (рис. 8).Таблица 2xix1…xnpip1…pnp3p2p1, pnx1x2 x3…xnРис.
821Можно задать закон распределения в виде аналитическойзависимости, связывающей значения x1,..., xn и вероятностиp1,..., pn .Исследуем непрерывную случайную величину. Для непрерывной случайной величины P ( X = x ) = 0 , поэтому рассматривают события X < x и вероятности этих событий.Функцией распределения непрерывной случайной величиныF ( x ) называется вероятность события X < x :F (x ) = P (X < x ) .Свойства функции распределения:1) 0 ≤ F ( x ) ≤ 1 по аксиомам вероятности,2) F ( x1 ) ≤ F ( x 2 ) , если x1 < x 2 , т.
е. функция распределе-ния — неубывающая функция. В самом деле, X < x1 ⇒ X < x 2 ,следовательно, F ( x1 ) = P ( X < x1 ) ≤ P ( X < x 2 ) = F ( x 2 ) ;3) lim x →−∞ F ( x ) = 0, lim x →+∞ F ( x ) = 1 . Действительно, собы-тие X < −∞ — невозможное, и его вероятность нулевая. Событие X < +∞ — достоверное, и его вероятность равна 1;4) P (a ≤ X < b ) = F (b ) − F (a ) . Так как события A = ( X < a )и B = (a ≤ X ≤ b ) несовместны и событие C = ( X < b ) есть сумма этих событий, то= F (a ) + P (a ≤ X ≤ b ) .F (b ) = P ( X < b ) = P (C ) = P ( A ) + P ( B ) =График функции распределения имеет примерно такой жевид, как на рис.
9.F(x)1х0Рис. 9Функцию распределения можно определить и для дискретной случайной величины. Ее график будет графиком ступенча22той функции (рис. 10) со скачками pi в точках xi, непрерывнойслева в этих точках: P ( X = xi ) = pi = F ( xi + 0) − F ( xi ) .Для непрерывной случайной величины вводится плотностьраспределения вероятностей.F(x)1p3p2p10x1x2x3xnxРис. 10Плотностью распределения (вероятностей) называется производная функции распределения p ( x ) = F ′ ( x ) .Ясно, что F ( x ) =x∫ p ( x ) dx, так как F ( −∞ ) = 0,−∞P ( a ≤ X < b ) = F (b ) − F ( a ) =b∫ p ( x ) dx .aЧасто функцию распределения называют интегральным законом распределения, а плотность распределения — дифференциальным законом распределения.
Так как P ( x < X < x + ∆x ) ==x +∆x∫p( x )dx ≈ p( x )∆x , то выражение p(x)dx называется элемен-xтом вероятности.Свойства плотности распределения:1) p ( x ) ≥ 0 , так как функция распределения — неубывающая функция:+∞2)∫ p ( x ) dx = 1(условие нормировки), так как F ( +∞ ) = 1 .−∞Рассмотрим числовые характеристики случайных величин.23Определим начальный момент s-го порядка.Для дискретных случайных величинαs =n∑ xis pi .i =1Для непрерывных случайных величинαs =+∞∫x s p ( x ) dx .−∞Математическим ожиданием случайной величины называетсяее первый начальный момент mx = M(x) = α1( X ) .Для дискретных случайных величин mx = x1 p1 + ...