Краткий курс лекций (1077551), страница 3
Текст из файла (страница 3)
902.11.2005Основы теор. вер. и матем. статистикиДоцент кафедры «Прикладная математика» Галкин С.В.2) Дополнительная информация: произошло событие С – вытащена «картинка» (валеты,дамы, короли), P(C ) =12/36, P( AC ) =4/36.P( AС ) 4 / 36P( A / С ) === 1 / 3 ≠ 1 / 9; P ( A) ≠ Р( A / C ) ⇒ А и C – зависимы.P(С ) 12 / 36Пример 2. На плотной бумаге написано слово «стипендия»СТИПЕНДИЯРазрезав надпись на буквы и перемешав их, вытаскиваем наугад шесть букв.Какова вероятность того, что из вытащенных букв в порядке вытаскивания получитсяслово «пенсия»?Р(«пенсия») = Р(п)·Ре/п)·Р(н/пе)·Р(с/пен)·Р(и/пенс)·Р(я/пенси) == 1/9· 1/8 · 1/7 · 1/6· 2/5 ·14= 1/30240Решая эту задачу методами комбинаторики, получимР2!1Р(«пенсия») = 26 ==.А9 9 ⋅ 8 ⋅ 7 ⋅ 6 ⋅ 5 ⋅ 4 30240Формула вероятности суммы совместных событий(теорема сложения вероятностей)В соответствии со свойством 3) классической вероятности вероятность суммынесовместных событий равна сумме вероятностей этих событий.
А если события совместны?Пусть мы имеем два совместных события А и В. Преобразуем их сумму в суммунесовместных событий (см. диаграмму Венна).А + В = А + В \ A ⇒ Р ( А + В) = Р( А) + Р( В \ A)B = B \ A + AB ⇒ P(B ) = P(B \ A) + P( AB ) ⇒ P(B \ A) = P(B ) − P( AB )Подставляя второе выражение в первое, получимР ( А + В) = Р( А) + Р( В) − Р( АВ) .(2.10)Пример. По мишени один раз стреляют два стрелка. Вероятность попадания первогострелка в мишень р1 = 0,7, второго – р2 = 0,8. Какова вероятность того, что кто-нибудь из нихпопадет в мишень?А = А1 + А2,гдеА попадание в мишень;А1 – попал первый стрелок;А2 – попал второй стрелок.Р(А) = Р(А1 + А2) = Р(А1) + Р(А2) – Р(А1А2)== Р(А1) + Р(А2) – Р(А1 )Р(А2)== 0.7 + 0,8 – 0,7· 0,8 = 0,94.Получим вероятность суммы трех совместных событий.P( A + B + C ) = P( A + B ) + P(C ) − P(( A + B)C ) = P( A) + P(B ) − P( AB ) + P(C ) − P( AC ) −Получена− P(BC ) + P( ABC ), так как ACBC = ABCформулаР(А + В + С) = Р(А) + Р(В) + Р(С) – Р(АВ) – Р(АС) – Р(ВС) + Р(АВС)(2.11)Обобщая полученный результат на сумму n совместных событий, получим формулустр.
1002.11.2005Основы теор. вер. и матем. статистикиnni −1i =1Р (∑ Аi ) = ∑ P( Ai ) − ∑ P( Ai A j ) +i< jДоцент кафедры «Прикладная математика» Галкин С.В.n∑ P( Ai A j Ak ) + … + (−1) n+1 P(∏ Ai )i< j <k(2.12)i =1Формула полной вероятностиПусть требуется определить вероятность события А, которое может произойти всочетании с одним из событий Н1, Н2,…, Н n, образующих полную группу несовместныхnсобытий ( ∑ H i = Ω,i =1H i H j = Ø,i ≠ j ). Эти события будем называть гипотезами.Н1Н2Н3АН1АН2АН3АНn-2 АНn-1 АНnHn-2A = AΩ = A( H 1 + H 2 +Hn-1Hnn+ H n ) = ∑ AH ii =1В соответствии со свойством 3) вероятности и теоремой умножения вероятностейnnni =1i =1Р ( А) = Р(∑ AH i ) = ∑ P( AH i ) = ∑ P( H i ) P( A / H i )i =1nР ( А) = ∑ P ( H i ) P( A / H i )(2.13)i =1Пример.
Из n экзаменационных билетов студент знает m («хорошие билеты»). Чтолучше: брать на экзамене билет первым или вторым?Решение. Введем событие А – студент взял «хороший» билет.mСтудент берет билет первым. В этом случае Р( А) = .n1) Студент берет билет вторым. Введем две гипотезы:Н1 – первый студент взял «хороший» билет, Н2 = Н 1 .m m −1mmmР ( А) = Р( Н 1 ) Р ( А / H 1 ) + P( H 2 ) P( A / H 2 ) = ⋅+ (1 − ) ⋅= .n n −1n n −1 nВывод: безразлично, брать билет первым или вторым.Формула Байеса (теорема гипотез)В соответствии с теоремой умножения вероятностейР(АНi) = Р(Hi)·Р(А/Hi) = Р(A)·Р(Hi/А).В это равенство подставим значение Р(А), вычисленное по формуле полной вероятности(2.13) и найдем Р(Hi/А).nР ( А) = ∑ P ( H i ) P( A / H i )i =1Р(Нi/A) = P ( H i )Р( А / H i )P( H i ) P( A / H i )= nP( A)∑ P( H i ) P( A / H i )(2.14)i =1Это следствие из теоремы умножения и формулы полной вероятности называетсяформулой Байеса или теоремой гипотез.стр.
1102.11.2005Основы теор. вер. и матем. статистикиДоцент кафедры «Прикладная математика» Галкин С.В.В формуле полной вероятности определяется вероятность события до его появления, т.е.до того, как произведен опыт, в котором оно могло появиться. Вероятности гипотез Р(Нi),входящие в формулу полной вероятности, называют априорными, т.е. «до опытными».Пусть опыт произведен и его результат известен, т.е. мы знаем, произошло или непроизошло событие А. Получившийся результат мог произойти при осуществлении какой-тоодной гипотезы Нi.
Дополнительная информация об исходе опыта перераспределяетвероятности гипотез. Эти перераспределенные вероятности гипотез Р(Нi/A) называютапостериорными , т.е. «после опытными».Пример В одной из корзин 1 камешек и 4 кусочка хлеба, во второй – 4 камешка и 1кусочек хлеба. Мышка наугад выбирает корзину, бежит к ней и вытаскивает кусочек хлеба событие А (предполагается, что он затем вновь возвращается в корзину). Какова вероятностьсобытия А? Каковы вероятности того, что второй раз мышка побежит к первой корзине, ковторой корзине? Какова вероятность того, что она второй раз вытащит кусочек хлеба?Рассмотрим гипотезыН1 – мышка бежит к первой корзине,Н2 – мышка бежит ко второй корзине.Р(Н1) =1/2 = Р(Н2) (априорные вероятности)Р ( А / H 1 ) = 4 / 5 P ( A / H 2 ) = 1 / 5 . P ( A) = 4 / 5 1 / 2 + 1 / 5 1 / 2 = 1 / 2P( H 1 ) P( A / H 1 )1/ 2 4 / 5Р(Н1/A) = 2== 4/51/ 2∑ P( H i ) P( A / H i )i =1Р(Н2/A) =P( H 2 ) P( A / H 2 )2∑ P( H ) P( A / H )i =1i=1/ 2 1/ 5= 1/ 51/ 2(апостериорные вероятности).iПри втором подходе P( A) = 4 / 5 4 / 5 + 1 / 5 1 / 5 = 16 / 25 > 1 / 2Мышка обучилась, второй раз она выберет первую корзину с большей вероятностью и добьетсябольшего успеха.Заметим, что это – один из основных принципов обучения кибернетических систем.Лекция 3.Случайные величиныСлучайная величина – это величина (число), которая в результате опыта может приниматьто или иное значение.Более строго, случайная величина – это числовая функция случайного события.X = X (ω ), ω ∈ Ω ∈ ΒСлучайная величина называется дискретной, если множество ее значений конечно илисчетно.
Здесь Β - алгебра событий. Например, число очков на грани брошенной кости, числобросков монеты до появления герба – дискретные случайные величины.Случайная величина называется непрерывной, если ее значения заполняют некоторыйинтервал, возможно, бесконечный.
Здесь Β - сигма - алгебра событий. Например, расстояние отцентра мишени при стрельбе, время до отказа прибора, ошибка измерения – непрерывныеслучайные величины.Рассмотрим дискретную случайную величину, принимающую значения x1 ,...x n . Имеемполную группу (иначе, не все значения учтены) несовместных событий X = x1 ,...,X = x n .Вероятности этих событий равны соответственно p1 ,... p n ( p1 + ... + p n = 1) . Будем говорить, чтодискретная случайная величина X принимает значения x1 ,...x n с вероятностями p1 ,...
p n .стр. 1202.11.2005Основы теор. вер. и матем. статистикиДоцент кафедры «Прикладная математика» Галкин С.В.Законом распределения дискретнойслучайнойвеличины называется любоесоотношение, устанавливающее зависимость между ее значениями x1 ,...x n и вероятностямиp1 ,... p n , с которыми эти значения достигаются.Основные формы закона распределения дискретной случайной величины: рядраспределения – таблицаxix1 ….. x npip1….. p nмногоугольник распределенияp1,p3p2pnx1 x2x3 …xnМожно задать закон распределения в виде аналитической зависимости, связывающейзначения x1 ,...x n и вероятности p1 ,...
p n .Рассмотрим непрерывную случайную величину. Для непрерывной случайной величиныP( X = x ) = 0 , поэтому рассматривают события X < x и вероятности этих событий.Функцией распределения непрерывной случайной величины F (x ) называетсявероятность события X < x . F (x ) = P( X < x ) .Свойства функции распределения.1)0 ≤ F (x ) ≤ 1 по аксиомам вероятности,2) F ( x1 ) ≤ F ( x 2 ) , если x1 ≤ x 2 , т.е.
функция распределения – неубывающая функция.В самом деле, X < x1 ⇒ X < x 2 , следовательно, F ( x1 ) = P( X < x1 ) ≤ P( X < x 2 ) = F ( x 2 ) .lim x→+∞ F ( x ) = 1 В самом деле, событие X < −∞ - невозможное, и3) lim x →−∞ F ( x ) = 0,его вероятность нулевая. Событие X < +∞ - достоверное, и его вероятность равна 1.4) P(a ≤ X ≤ b ) = F (b ) − F (a ) . Так как события A = ( X < a ) и B = (a ≤ X ≤ b ) несовместныC = ( X < b)естьсуммаэтихсобытий,тоисобытиеF (b ) = P( X < b ) = P(C ) = P( A) + P(B ) = F (a ) + P(a ≤ X ≤ b ) .График функции распределения имеет, примерно, следующий видF(x)1xФункцию распределения можно определить и для дискретной случайной величины. Ееграфик будет графиком ступенчатой функции со скачками в pi в точках xi , непрерывной слевав этих точках.стр.
1302.11.2005Основы теор. вер. и матем. статистикиДоцент кафедры «Прикладная математика» Галкин С.В.F(x)1p2p1p3xx1x2x3xnДля непрерывной случайной величины вводится плотность распределения вероятностей.Плотностью распределения (вероятностей) называется производная функциираспределения p ( x ) = F ′( x ) .Ясно, что F ( x ) =xb∫ p(x )dx, т.к. F (− ∞ ) = 0,P(a < X < b ) = F (b ) − F (a ) = ∫ p ( x )dx .−∞aЧасто функцию распределения называют интегральным законом распределения, аплотность распределения – дифференциальным законом распределения. Так какP ( x < X < x + ∆x) =x + ∆x∫ p( x)dx ≈ p( x)∆x , то p(x)dx называется элементом вероятности.xСвойства плотности распределения.1) p ( x ) ≥ 0 , так как функция распределения – неубывающая функция,+∞2)∫ p(x )dx = 1 (условие нормировки) , так как F (+ ∞ ) = 1 .−∞Числовые характеристики случайных величин.Начальный момент s-го порядкаnДля дискретных случайных величин α s = ∑ xis pi .i =1Для непрерывных случайных величин α s =+∞∫ x p(x )dx .s−∞Математическим ожиданием случайной величины называется ее первый начальныймомент mx = M(x) = α 1 ( x) .Для дискретных случайных величин m x = x1 p1 + ...
+ x n p n . Если на числовой осирасположить точки x1 ,...x n с массами p1 ,... p n , то m x - абсцисса центра тяжести системы точек.Аналогично, для непрерывных случайных величин m x =+∞∫ xp( x)dx имеет смысл центра тяжести−∞кривой распределения.Свойства математического ожидания.1) M (C ) = C.Для дискретных случайных величин x = C, p = 1, M (C ) = x p =С.+∞+∞−∞−∞M ( X ) = ∫ Cp ( x )dx = C ∫ p(x )dx = C по условиюДля непрерывных случайных величиннормировки для плотности вероятностей.стр. 1402.11.2005Основы теор. вер. и матем.