Матем анализ 3 семестр вероятность (Лекции 1), страница 3
Описание файла
Файл "Матем анализ 3 семестр вероятность" внутри архива находится в папке "lekcii". Документ из архива "Лекции 1", который расположен в категории "". Всё это находится в предмете "теория вероятностей и математическая статистика" из , которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "лекции и семинары", в предмете "теория вероятности и математическая статистика" в общих файлах.
Онлайн просмотр документа "Матем анализ 3 семестр вероятность"
Текст 3 страницы из документа "Матем анализ 3 семестр вероятность"
Можно показать, что из попарной независимости не вытекает независимость в совокупности
Пример 1. Наугад вытаскивается одна карта из тщательно перетасованной колоды в 36 карт.
А – вытащенная карта – дама;
1) Дополнительная информация: произошло событие В – вытащена карта бубновой масти, 1/4, =1/36.
2) Дополнительная информация: произошло событие С – вытащена «картинка» (валеты, дамы, короли), =12/36, =4/36.
Пример 2. На плотной бумаге написано слово «стипендия»
С | Т | И | П | Е | Н | Д | И | Я |
Разрезав надпись на буквы и перемешав их, вытаскиваем наугад шесть букв.
Какова вероятность того, что из вытащенных букв в порядке вытаскивания получится слово «пенсия»?
Р(«пенсия») = Р(п)·Ре/п)·Р(н/пе)·Р(с/пен)·Р(и/пенс)·Р(я/пенси) =
= 1/9· 1/8 · 1/7 · 1/6 · 2/5 · = 1/30240
Решая эту задачу методами комбинаторики, получим
Формула вероятности суммы совместных событий
(теорема сложения вероятностей)
В соответствии со свойством 3) классической вероятности вероятность суммы несовместных событий равна сумме вероятностей этих событий. А если события совместны?
Пусть мы имеем два совместных события А и В. Преобразуем их сумму в сумму несовместных событий (см. диаграмму Венна).
Подставляя второе выражение в первое, получим
Пример. По мишени один раз стреляют два стрелка. Вероятность попадания первого стрелка в мишень р1 = 0,7, второго – р2 = 0,8. Какова вероятность того, что кто-нибудь из них попадет в мишень?
А = А1 + А2, где А попадание в мишень;
А1 – попал первый стрелок;
А2 – попал второй стрелок.
Р(А) = Р(А1 + А2) = Р(А1) + Р(А2) – Р(А1А2)=
= Р(А1) + Р(А2) – Р(А1 )Р(А2)=
= 0.7 + 0,8 – 0,7· 0,8 = 0,94.
Получим вероятность суммы трех совместных событий.
Р(А + В + С) = Р(А) + Р(В) + Р(С) – Р(АВ) – Р(АС) – Р(ВС) + Р(АВС) (2.11)
Обобщая полученный результат на сумму n совместных событий, получим формулу
Формула полной вероятности
Пусть требуется определить вероятность события А, которое может произойти в сочетании с одним из событий Н1, Н2,…, Н n, образующих полную группу несовместных событий ( Ø, ). Эти события будем называть гипотезами.
Н1 Н2 Н3
АН1 АН2 АН3
АНn-2 АНn-1 АНn
Hn-2 Hn-1 Hn
В соответствии со свойством 3) вероятности и теоремой умножения вероятностей
Пример. Из n экзаменационных билетов студент знает m («хорошие билеты» ). Что лучше: брать на экзамене билет первым или вторым?
Решение. Введем событие А – студент взял «хороший» билет.
Студент берет билет первым. В этом случае
-
Студент берет билет вторым. Введем две гипотезы:
Н1 – первый студент взял «хороший» билет, Н2 = .
Вывод: безразлично, брать билет первым или вторым.
Формула Байеса (теорема гипотез)
В соответствии с теоремой умножения вероятностей
Р(АНi) = Р(Hi)·Р(А/Hi) = Р(A)·Р(Hi/А).
В это равенство подставим значение Р(А), вычисленное по формуле полной вероятности (2.13) и найдем Р(Hi/А).
Это следствие из теоремы умножения и формулы полной вероятности называется формулой Байеса или теоремой гипотез.
В формуле полной вероятности определяется вероятность события до его появления, т.е. до того, как произведен опыт, в котором оно могло появиться. Вероятности гипотез Р(Нi), входящие в формулу полной вероятности, называют априорными, т.е. «до опытными».
Пусть опыт произведен и его результат известен, т.е. мы знаем, произошло или не произошло событие А. Получившийся результат мог произойти при осуществлении какой-то одной гипотезы Нi. Дополнительная информация об исходе опыта перераспределяет вероятности гипотез. Эти перераспределенные вероятности гипотез Р(Нi/A) называют апостериорными , т.е. «после опытными».
Пример В одной из корзин 1 камешек и 4 кусочка хлеба, во второй – 4 камешка и 1 кусочек хлеба. Мышка наугад выбирает корзину, бежит к ней и вытаскивает кусочек хлеба - событие А (предполагается, что он затем вновь возвращается в корзину). Какова вероятность события А? Каковы вероятности того, что второй раз мышка побежит к первой корзине, ко второй корзине? Какова вероятность того, что она второй раз вытащит кусочек хлеба?
Рассмотрим гипотезы
Н1 – мышка бежит к первой корзине,
Н2 – мышка бежит ко второй корзине.
Р(Н1) =1/2 = Р(Н2) (априорные вероятности)
Р(Н2/A) (апостериорные вероятности).
Мышка обучилась, второй раз она выберет первую корзину с большей вероятностью и добьется большего успеха.
Заметим, что это – один из основных принципов обучения кибернетических систем.
Лекция 3.
Случайные величины
Случайная величина – это величина (число), которая в результате опыта может принимать то или иное значение.
Более строго, случайная величина – это числовая функция случайного события.
Случайная величина называется дискретной, если множество ее значений конечно или счетно. Здесь - алгебра событий. Например, число очков на грани брошенной кости, число бросков монеты до появления герба – дискретные случайные величины.
Случайная величина называется непрерывной, если ее значения заполняют некоторый интервал, возможно, бесконечный. Здесь - сигма - алгебра событий. Например, расстояние от центра мишени при стрельбе, время до отказа прибора, ошибка измерения – непрерывные случайные величины.
Рассмотрим дискретную случайную величину, принимающую значения . Имеем полную группу (иначе, не все значения учтены) несовместных событий . Вероятности этих событий равны соответственно . Будем говорить, что дискретная случайная величина принимает значения с вероятностями .
Законом распределения дискретной случайной величины называется любое соотношение, устанавливающее зависимость между ее значениями и вероятностями , с которыми эти значения достигаются.
Основные формы закона распределения дискретной случайной величины: ряд распределения – таблица
м ногоугольник распределения
p3
p2
p1, pn
x1 x2 x3 …xn
Можно задать закон распределения в виде аналитической зависимости, связывающей значения и вероятности .
Рассмотрим непрерывную случайную величину. Для непрерывной случайной величины , поэтому рассматривают события и вероятности этих событий.
Функцией распределения непрерывной случайной величины называется вероятность события . = .
Свойства функции распределения.
-
, если , т.е. функция распределения – неубывающая функция. В самом деле, , следовательно, .
-
В самом деле, событие - невозможное, и его вероятность нулевая. Событие - достоверное, и его вероятность равна 1.
-
. Так как события несовместны и событие есть сумма этих событий, то .
График функции распределения имеет, примерно, следующий вид
F(x)
1
x
Функцию распределения можно определить и для дискретной случайной величины. Ее график будет графиком ступенчатой функции со скачками в pi в точках xi , непрерывной слева в этих точках.
F(x)
1
p3
p2
p1
x
x1 x2 x3 xn
Для непрерывной случайной величины вводится плотность распределения вероятностей.
Плотностью распределения (вероятностей) называется производная функции распределения .
Часто функцию распределения называют интегральным законом распределения, а плотность распределения – дифференциальным законом распределения. Так как , то p(x)dx называется элементом вероятности.
Свойства плотности распределения.
Числовые характеристики случайных величин.
Начальный момент s-го порядка
Для дискретных случайных величин .
Для непрерывных случайных величин .
Математическим ожиданием случайной величины называется ее первый начальный момент mx = M(x) = .
Для дискретных случайных величин . Если на числовой оси расположить точки с массами , то - абсцисса центра тяжести системы точек. Аналогично, для непрерывных случайных величин имеет смысл центра тяжести кривой распределения.
Свойства математического ожидания.
-
M (C ) = C.
Для дискретных случайных величин x = C, p = 1, M (C ) = x p =С.