Б.А. Севастьянов - Курс теории вероятностей и математической статистики (1119910), страница 7
Текст из файла (страница 7)
Найти вероятность того, что пешеходу придется ждать перехода а) больше двух секунд; б) больвге трех секунд. 10. Бросаются две игральные кости. Какова вероятность того, что на первой кости выпала 1, если известно, что на второй кости выпало число очков больше, чем на первойй (Применить формулу Байеса,) 11. В единичный квадрат со вписанным в него кругом независимо с равномерным распределением случайно бросаетса 6 частик.
Найти вероятность того, что нн одна нз пяти частей квадрата не будет свободна от частиц (см. рис. 8). Г л а в а 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) й 12. Случайные величины. Индикаторы Рассмотрим конечное вероятностное цространстао (11, Ф, Р). Числовую функцию от элементарного события ~ = $(в), а е= й, назовем случайной величиной,Мы будем обычно обозначать случайные величины греческими буквами ~, т1, Ь, р, т, ... и т. п. (в англо-американской литературе и иногда у иас случайные величины обозначаются прописными латинскими буквами Х, У, Л и т.п,).
П р н м е р 1, В схеме независимых испытаний Бернулли в $11 множество Й состоит из элементарных событий ы =(гэьвв ..., а,), где ья= 1, если при 1-м испытании произошел успех, и кя = О в случаенеуспеха, Случайная величина р — ' м(в) в~ + ыз+ . + ыа равна числу успехов при н испытаниях в схеме Бер. нулли. П р и м е р 2. Рассмотрим следующую урновую схему. Пусть в урне имеется У шаров, из них М белых, остальные — черные.
По схеме выборки без возвращения нз урны извлекаются п шаров (см. $ 4, пример 3). Пере- нумеруем все У шаров числами 1, 2, ..., У так, чтобы белые шары получили номера 1, 2, ..., М. Тогда множество й можно составить нз элементарных событий, состоящих из подмножеств в =(11 Еч Ц 1~ < < 1а « ... 1„, мощности и множества целых чисел (1,2, ..., У). Элементарное событие а =(1ь1ь ..., ь,) соответствует выборке, в которую вошли шары с номе- Рамн 1ь йь ..., 1.
Случайная величина ф, равная числу белых шаров в выборке, определяется как функция от в следующим образом: й = $(ы)= щ, если в е =(1ь ... ", ь), ь <М< 1, +1 при 1< гп<а; й(в)=0, если М < 1~,' 5(гэ) = н, если 1, < М. аз гл. 3. случАнные Величины (конечн»я схемА) Пусть д(х), ..., х,) — числовая функция от число- вых аргументов х„..., х„а $1, ..., К, — случайные ве- личины. Тогда сложная функция т) = т)(а)) = К(Ь(»)), ег(»)), , а,(а))) также будет случайной величиной. В частности, так определяются случайные велнчины, г г равные сумме К $» и произведению Ц$» счучайных »-1 »-! величин. С каждым событием А ~Ф можно связать случай- ную величину ( 1, если а)ен А, ( О, если а)ФА, называемую индихаторон события А.
Индикаторы удовлетворяют следующим легко проверяемым свойствам: )з = О, Уя =-е 1, !Ав = УА!в, УА = 1 — УА (1) Если события А), ..., А„попарно несовместны, то нетрудно установить, что »-1 »-1 Выведем формулу для индикатора объединения () А» » 1 .чюбых событий. Так как (») А„= П А», то учитывая свойства (1), мы имеем У =1 — !' — =! — 1 л л л 0 А» О А» О А» »-1 »-! » 1 =-1 — Д )А =1 — Ц (1 — !'А )г » 1 * » ! откуда следует л л = .Е 1А» — .Е уА»А! + 0 А„ » 1 + Е уА»А)Ал! ' ' + ( 1) гА1А! °" А ° (2) 1~»<!<м<л й и слкч»нные величины.
индикаторы 43 Обозначим х» < х» « ... х» всевозможные значения, которые принимает случайная величина $. С каждой случайной величиной $ можно связать разбиение иь состоящее из событий А; = (ьн $(о») =х»). В самом деле, так как х~ ~ хь то А»А; = И для»' =~ ); сумма А|+А»+ ... +А» есть достоверное событие в», так как хь х», ..., х» — все значения случайной величины с. Разбиение ав порождает алгебру событий Фь которая состоит из событий, представимых в виде ЯыВ)=(ео: $(в)енВ), где  — любое числовое множество.
Разбиение ие н алгебру Фй мы будем называть порожденными случайной величиной й. Любое событие ($ ~ В) представимо ввиде суммы ~, Аь где суммирование ведется по тем й для которых х» еи В. Случайную величину $ можно выразить с помощью индикаторов разбиения А~+ ... +А» = И через сумму ~=и)=Х у.,(), (3) так как левая и правая части (3) принимают одно и то же значение х» при о» ~ А» Законом распределении случайной величины й мы будем называть вероятность Р(вен В), рассматриваемую как функцию числового множества В. Закон распределения $ определяется значениями хь хь ...,хикоторые принимает $, и вероятностями Р(й хД этих значений. Обозначим Р(й = х») = р» Тогда закон распределения Р(й ен В) можно определить с помощью табл, 2, верхний ряд которой состоит из различных Таблица 2 Закон распределении случайной величины 44 ГЛ.
3. СЛУЧАИИЫЕ ВЕЛИЧИНЫ [КОНЕЧНАЯ СХЕМА) чисел хь а числа нижнего ряда удовлетворяют условиям р,~й, Ере — П (4) е 1 С помощью табл. 2 можно определить вероятность Р($евВ) ~'., р, (5) ., в для люоого числового множества В. В теории вероятностей часто говорят о случайной величине $ с законом распределения (5), ие указывая ни вероятностного пространства (Я, Ф, Р), ии функции е(со), которая задает случайную величину, В этом случае предполагается, что существует какое-то вероят. ностиое пространство (аа, бег, Р), иа котором можно определить функцию $ = $(со) так, что табл.
2 будет задавать ее закон распределения. Выбор вероятностного пространства каждый раз определяется существом задачи или простотой получающейся схемы. Простейшим вероятностным пространством, связанным с законом распределения (5), будет множество элементарных событий ь1 =(хохм ..., хе) с элементарными вероятностямп р(х;) = р;. Случайная величина е определяется тогда функцией Цх~) = хо Закон распределения индикатора 1л события А оп» ределяется табл. 3. Каждой случайной величине соответствует закон распределения. Один и тот же закон Таблица 3 Закон распределения индикатора IА распределения могут иметь разные случайные величины.
Например, если события А и В разные, но Р(А)= Р(В), то разные случайные величины 1А и 1а имеют одни и тот же закон распределения. Закон распределения $ иногда называют кратко просто законом или распределением. Законом распреде- з и млтемлтичвскон ожидлнив пения случайной величины иногда называют задающую его таблицу 2. Примеры законов распределения. 1. Биномиальный закон для числа успехов р нри и независимых испытаниях в схеме Бернулли: Р (1л = гп» = С„р (1 — р), гп = О, 1, ..., и (см. Я 11 и 12, пример 1). 2.
Гипергеометрическое распределение — раснреде. ление числа белыл шаров $ в выборке без возвращения объема и из урны, содержащей М белых и 1ч' — М черных шаров (см. $4, пример 3 и 3 12, пример 2): СИСл-т Р($=гп» и „" и, гп=0,1, ..., пнп(п, М). 3. Равномерное распределение на (1,2...,, й1»: Р($=гп»=у, гп=1,2, ..., У. ! ф 13. Математическое ожидание Пусть вероятность Р иа конечном вероятностном пространстве (1е, лФ, Р) определяется с помощью элементарных вероятностей р (а). Математическое ожидание случайной величины 5=5(а) обозначается М$ и определяется как сумма М~= Х,~(ы) р(м) Математическое ожидание 3 называют иногда среднии значением В или просто средним К.
Из этого определения вытекают следующие свойства математического ожидания: 1) М)~ = Р(А). В самом деле, ~, 1'л (гь) р (ге) = ~, р (гз) = Р (А). 2) Аддитивносты М5+т))= М$+ Мт). АВ ГЛ, 3, СЛУЧАЙНЫЕ ВЕЛИЧИНЫ !КОНЕЧНАЯ СХЕМА! Из определения М (е+ т)) получаем МК+ч)= Х (й(м)+ч(ы)) р(ы)= Х 1(В!)р(!В)+ Е Ч(')р(е) М$+МЧ. »юа »яо Из свойства 2) нетрудно по индукции вывести свой. ство конечной аддитивности математического ожидания: М(е!+ ° ° ° +е»)=МЬ!+ « ° ° +Ма» (8) 3) Для люобой константы с М(се)=сМй, Мс=с. Это свойство легко вытекает из определения Мй.
4) Если $>ть то МЕ>Мт1, Если $>0 и М$=0, то РЦ=О) =1. Доказ а тельство. В сумме М(Š— т1) ~ ($(В!)— — !1(В!))р(В!) при Е ~ !) все слагаемые неотрицательны, поэтому М(4 — з))~)0, откуда по свойствам 2) н 3) вытекает Ма=В Мт1. Если В~)0 н М;-=О, то при любом «! ея й е (В!) р (В!) = О, откуда из р (В!) > 0 следует е (В!) = О. 5) Математическое ожидание $ выражается через закон распределения случайной величины й формулой М$=~ х!РЦ х!), (9) Доказать (9) можно с помощью представления в виде суммы (3) х!11!,,1, ! ! свойства аддитивности (8) и свойств 1) н 3): М~ ~', х!М!1!,,1= ~ х,Р($ х!). ! 1 ! ! Пусть д(х) — некоторая числовая функция. Подставляя вместо х случайную величину $, мы получаем новую случайную величину !1 = д($).
Вычислить Мт1 можно или исходя из определения, или с помощью закона % 1э. МАтямАтнческое ожндАння распределения ц или с помощью формулы Мц = Мя (~) = ~ д (х,) Р 5 = хД, (10) которая доказывается так же, как и (9). Прн этом надо воспользоваться равенством и (5) = Е и (х,) 111 «д. Полагая й($) = 5«, мы получаем из (10): МК" = ~ хг Р (5 = хД. Математическое ожидание М$«называется и-м моментом (нли моментом и-го порядка) случайной величины $ (или ее закона распределения). Абсолютным п-м моментом называется М ~ $ 1". Обозначим М$ = а, Центральным моментами-го порядка называется М($ — а)", а абсолютным центральным моментом и-го порядков М1$ — а ~".