А.Н. Ширяев - Вероятность-1 (1115330), страница 10
Текст из файла (страница 10)
Пусть В; — событие, состоящее в том, что извлеченный на 7-м шаге шар имел белый цвет, а А» — событие, состоящее в том, что в выборке объема и имеется в точности й белых шаров. Показать, что как для выбора с возвращением, так и для выбора без возвращения Р(В;1Аь) = й/а. 3. Пусть А!, ..., А„— независимые события. Показать, что тогда 4. Пусть А!, ..., А„— независимые события с Р(А;) = р» Показать, что вероятность Ре того, что ни одно из этих событий не произойдет, определяется формулой Ре = П(1 Р!). 5. Пусть А и  — независимые события.
В терминах Р(А) и Р(В) выразить вероятности событий, состоящих в том, что произойдет в точности й, по меньшей мере й и самое большее й из событий А и В (А=О, 1, 2). 6. Пусть событие А таково, что оно не зависит от самого себя, т. е. А и А независимы. Показать, что тогда Р(А) равно О или 1. 7. Пусть событие А таково, что Р(А) равно О или 1. Показать, что А и любое событие В независимы. 8. Рассматривается электрическая схема, изображенная на рис. 4. Каждое из реле А, В, С, 0 и Е, работающих независимо, находится в открытом состоянии (и, значит, не пропускает электрический сигнал) ф4.
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ХАРАКТЕРИСТИКИ или в закрыгпом состоянии (и тогда сигнал пропускается) с вероятностями р н д соответственно. Спрашивается, какова вероятность того, что сигнал, поданный на «вход», будет получен на «выходе»? Какова условная вероятность того, л что реле Е было открыто, если на «выходе» вЂ” в был получен сигнал? 8 9.
Пусть Р(А+В) >О. Показать, что Р(А) Р(А) + Р(В) ' 1О. Пусть событие А не зависит от со«« бытий В„, и > 1, при этом В; ОВ; = и, (~ у. Тогда события А и Ц В„ «4Н являются независимыми, 11. Показать, что если Р(А1С) >Р(В1С) и Р(А(С) > Р(В(С), то Р(А) > Р(В). 12. Показать, что Р(А /В) =Р(А1ВС) Р(С!В)+Р(А1ВС) Р(С(В). ! 3.
Пусть Х и У вЂ” независимые биномиальные величины с параметрами л и р. Показать, что С«С -« Р(Х=А1Х+У=пг)= " ", а=О, 1, ..., гп)п(т, и). Сз« 14. Пусть А, В, С вЂ” попарно независимые равновероятные события, причем А и В П С = о. Найти максимально возможное значение для вероятности Р(А).
15. В урну, где находился один белый шар, добавили либо белый, либо черный шар (с одинаковыми вероятностями). После этого случайным образом вытащили один шар. Он оказался белым. Какова условная вероятность того, что оставшийся в урне шар тоже белый? ф 4. Случайные величины и их характеристики !. Пусть (й, Ы, Р) — вероятностная модель некоторого эксперимента с конечным числом исходов А?(Й) и алгеброй л~ всех подмножеств й. Можно заметить, что в рассмотренных выше примерах, связанных с подсчетом вероятностей тех или иных событий А ЕлФ, собственно природа пространства элементарных событий П не представляла интереса.
Основной интерес представляли лишь некоторые числовые характеристики, значения которых зависели от элементарных событий. Так, мы интересовались ГЛ. 1. ЭЛЕМЕНТАРНАЯ ТЕОРИЯ ВЕРОЯТНОСТЕЙ 54 вопросами о том, какова вероятность определенного числа успехов в серии из л испытаний, каково распределение вероятностей числа дробинок по ячейкам и т.
п. Вводимое сейчас (и далее — в более общем виде) понятие случайной величины призвано определить величины, характеризующие результаты «измерений» в случайных экспериментах. Определение 1. Всякая числовая функция С =С(ш), определенная на (конечном) пространстве элементарных событий й, будет называться (простой) случайной величиной. (Происхождение термина «простая» случайная величина станет понятным после введения общего понятия случайной величины в $4 гл. 11.) Пример 1. В модели двукратного подбрасывания монеты с пространством исходов П =(ГГ, ГР РГ РР) определим случайную величину Р= Р(ш) с помощью таблицы Здесь Е(ш) по своему смыслу есть не что иное, как число «гербов», отвечающее исходу ш. Другим простейшим примером случайной величины Е является индикатор (иначе — характеристическая функция) некоторого множества А е~Ф: С = т'А(ш), где ') /л(ш) = 10, шфА.
Когда экспериментатор имеет дело со случайными величинами, описывающими те или иные показания, то основной вопрос, который его интересует, — это вопрос о том, с какими вероятностями эта случайная величина принимает те илн иные значения. С этой точки зрения интерес представляет не распределение вероятностей Р на (Й, лФ), а распределение вероятностей на множестве значений случайной величины. Поскольку в рассматриваемом случае П состоит из конечного числа точек, то множество значений Х случайной величины С также конечно. Пусть Х = (х), ..., х„), где (различиыми) числами хь ..., х исчерпываются все значения Е. ') Для индикатора /л(ш) используются также обозначения l(А), )л.
По поводу часто используемых далее свойств индикаторов см. задачу 1. йй. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ХАРАКТЕРИСТИКИ Обозначим 2 — совокупность всех подмножеств множества Х, и пусть В Е,у.. Множество В можно также интерпретировать как некоторое событие, когда пространство исходов есть Х вЂ” множество значений С. Рассмотрим на (Х, У') вероятность Рб( ), нндуцируемую случайной величиной С по формуле Рс(В) = Р(нт: ((иг) Е В), В а,у.", ясно, что значения этих вероятностей полностью определяются вероятно- стями Р«(х;) =Р(нг: с(от)=х)), х; ЕХ.
Набор чисел (Рс(х)), ..., РДк )) называется распределением вероятностей случайной величины С, Пример 2. Случайная величина с, принимающая два значения 1 и О с вероятностями («успеха») р и («неуспеха») д, называется бернуллиевской *). Ясно, что для нее Ре(х)»яр"д) ", х=О, 1. (1) Биномиальной (или биномиально распределенной) случайной величиной С называется случайная величина, принимающая и+! значение О, 1, ..., и с вероятностями Рб(к) =С„"р'о" ', х=О, 1, ..., и. (2) Заметим, что в этих и во многих приводимых далее примерах мы не конкретизируем структуру основного вероятностного пространства (П, лк, Р), а интересуемся лишь значениями случайных величин и их распределениями вероятностей. Вероятностная структура случайных величин с полностью описывается распределением вероятностей «Рб(х<), 1 = 1, ..., т).
Вводимое ниже понятие функции распределения дает эквивалентное описание вероятностной структуры случайных величин. Определение 2. Пусть к Е В). Функция Рб(к) =Р(гл: С(ог) <Х) называется функцией распределения случайной величины С. Ясно, что Р~(х) = ~ Рс(х;) )г:хнах) ') Обычно в вероитиостной литературе вместо вырижений «бернуллиевсквя», «биномивльнвя», «пувссоновсквя», «гвуссовсквя», ... случайная величина, используемых здесь, говорится о случайных величинах, имеююих распределение Бернулли, биномивльное, Пуз«- соня, Гвуссв, ...
ГЛ. ). ЭЛЕМЕНТАРНАЯ ТЕОРИЯ ВЕРОЯТНОСТЕЙ 56 Рс(х;) = Рс(х;) — Рс(х)-), где Ре(х-) = 1нп Рс(у). г)к Если считать, что х) < х2 « ... х , и положить Ре(хо) = О, то Рг(х))=рс(х;) — Ре(х; )), )'=1, ..., т. Приводимые далее графики (рис. 5) дают представление о Ре(х) и Рс(х) для биномиальной случайной величины с. Непосредственно из определения 2 следует, что функция распределения Рс — — Рс(х) обладает такими свойствами: (1) РС( — со) =О, РС(+ос) = 1; Рс(к) (2) Рс(х) непрерывна справа (Ре(х+) = =Ре(х)) и кусочно лостоянна.
Наряду со случайными величинам часто приходится рассматривать случайные векторы 4=(6, ..., С,), компоненты которых являются случайными величинами. Например, при рассмотрении мультиномиального распределения мы имели дело со случайным вектором Р = (и), ..., ю), где гл = = Р)(ы) — число элементов в последовательности м=(а), ..., а„), равных Ьн(=1, ..., г.
Набор вероятностей О ! 2 и Рис. 5. Рс(хн ..., х,) = =Р(ил б~(ы)=х), ..., ~,(ы)=х,), где х; Е Х; (Х; — область допустимых значений Е)), называется распреде- лением вероятностей случайного вектора 4, а функция Рс(х), ..., х,) = Р(ы: Е) (ы) < х), ..., (,(м) < х,), где х; б)(', называется функцией распределения случайного вектора б=КИ ",6). Так, для упомянутого выше вектора Р = (Р), ..., Р,) Р„(лн ..., л,) = С„(лн ..., л,) р",' ... р,"' (см.
(2) $2). 2. Пусть 4,, ..., С, — некоторый набор случайных величин, принимающих значения в (конечном) множестве Х С)с) . Обозначим через Я алгебру всех подмножеств Х. 44. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ХАРАКТЕРИСТИКИ ат Определение 3. Случайные величины С(, ..., С, называются независимыми (в совокупности), если для любых х(, ..., х, е Х Р(С( =х(, ..., С,=х,) =Р(С) =х()...Р(С,=х,), или, что эквивалентно, для любых В), ..., В, Е.г Р(6 ЕВ(, "° 6ЕВх)=Рф ЕВ()...Р(6ЕВ„).
Простейший пример независимых случайных величин можно получить, рассматривая схему Бернулли. Именно, пусть й=(ш: ш=(а(, ..., а„), а;=О, 1), р(ш)=р~ "дх 1 " н С1(и) =а; для ш = (а(, ..., а„), 1 = 1, ..., н. Тогда случайные величины (1, Сз, ..., С„являются независимыми, что вытекает из установленной в $3 независимости событий А) = (ин а) = Ц, ..., А„= (ш: а„= Ц. 3.
В дальнейшем нам не раз придется сталкиваться с вопросом о распределении вероятностей случайных величин, являющихся функциями 1(С(, ..., С,) от случайных величин С(, ..., С,. Рассмотрим сейчас лишь вопрос об отыскании распределения суммы случайных величин ~ =у)+с. Если С принимает значения в множестве Х =(х(, ..., ху), а у) — в множестве у =(у), ..., у(), то случайная величина (, =С+ у) принимает значения в множестве Я =(г: г=х)+у;,1=1, ..., й, )=1, ..., 1), и ясно, что РС(г)=Р(('=г)=РК+у)=г)= ~ ХРК=х), у)=у1). ((Ц): х;+у( =х) Особо важен случай независимых случайных величин С' и у). Тогда Р(С =х), т)=у()= РК=х1) Р(г)= у)), и, значит, для любого гЕХ РС(г) = ~~~ Рс(х()Рч(у)) = "~ Ре(х()Рч(г — х;). (3) ((1,1): х;+у( =х) 1=1 Если, например, с и у) — независимые бернуллиевскне случайные ве- личины, принимающие каждая значения 1 и О с вероятностями р и д соответственно, то Х = (О, 1, 2) и Рс(О) =Ре(О» ч(О) =д', , с(ц = Ре(О)Р„(ц+ Ре(ЦР„(О) = 2рд, Р (2) = Р (ЦР„(Ц = р'.
ГЛ.!. ЭЛЕМЕНТАРНАЯ ТЕОРИЯ ВЕРОЯТНОСТЕЙ Рс(й) ««С~р"д" ~, й = О, 1, ..., п. (4) 4. Перейдем теперь к важному понятию математического ожидания, илн среднего значения, случайных величин. Пусть (й, ~Ф, Р) — (конечное) вероятностное пространство и С = С(ьг)— некоторая случайная величина, принимающая значения в множестве Х =(х!, ..., кь). Если положить А; = (ин С =х!), ! = 1, ..., й, то, очевидно, 4 можно представить в таком виде: с(ь!) = ~~! к!1(А!), (5) где множества А!, ..., Аь образуют разбиение пространства й (т. е. они попарно не пересекаются и их сумма равна й; см. п. 3 $1).