1193507387 (547421), страница 12
Текст из файла (страница 12)
а 1пп атеях~ = 1 Г,1. я 1+ х2 с с или а ( — — ( — — ~~ = 1 и наконец получаем ая = 1 т. е. а = †. ° lя / я~~ 1 (2 (, 2)) я ' Упражнения 1. Случайная величина Х задана функцией распределения: О, прих< — 1, Г(х) = а(х+ 1)~, при — 1 < х < 2, 1, прих>2. Найти значение а, построить графики Р(х) и 7" (х).
2. Кривая распределения н. с. в. Х имеет вид, указанный на рис. 22. Найти выражение для (л-(х), функцию распределения Рт(х), веро- ятность события (Х Е Р;1)). Глава 2, Случайные величины ' 73 Рис 22 3. Является ли плотностью распределения некоторой с. в. каждая из следующих функций: а) )(х) =, при х Е ( — оо;+ос); (1 + г) 1 б)у( ) 2, прихс( —; ], О, прихф( — 1;1]; ) ( ) ]О, прях(Оих)2, '1 ах~, при О ( х ( 2.
2.5. Числовые характеристики случайных величин Закон распределения полностью характеризует случайную величину. Однако при решении многих практических задач достаточно знать лишь некоторые числовые параметры, характеризующие отдельные существенные свойства (черты) закона распределения с. в, Такие числа принято называть числовыми характеристиками с. в. Важнейшими среди них являются характеристики положения: математическое ожидание (центр распределения с.
в.), мода, медиана; характеристики рассеяния: дисперсия (отклонение значений с.в. от ее центра), среднее квадратическое отклонение. Математическое ожидание случайной величины Математическим оэкиданием (или средним значением) д.с.в. Х, имеющей закон распределения р; = Р(Х = х,), г = 1, 2, 3,,, и, называется число, равное сумме произведений всех ее значений на соответствующие им вероятности.
74 Раздел первый. Элементарная теория вероятностей Математическое ожидание (сокращенно: м.о.) обозначается через МХ (или: М[Х1, М(Х), ЕХ, тх, ах). Таким образом, по определению МХ=~~ х; р;. (2.9) Если число возможных значений с. в. Х бесконечно (счетно), то МХ=~ х; рп (2.10) причем ряд в правой части предполагается сходящимся (в противном случае с.в. Х не имеет м.о.). Формулы (2.9) и (2.10) можно записать в виде МХ = 2 х,р,. Вероятностный смысл математическою ожидания состоит в том, п что оно является средним значением с. в, Действительно, т. к. 2,' р, = 1, е=1 то х;р; е=! МХ = ~~~ х,р; = = хереднее.
и 2 ре МХ = х у(х) е1х. (2.11) Интеграл в правой части равенства (2.11) предполагается абсолютно сходящимся, т. е. ~х) у(х) е1х < оо (в противном случае н. с. в. Х не имеет м. о.). Формула (2.11) является интегральным аналогом формулы (2.9). Заменяя в ней <прыгающий» аргумент х; на непрерывно меняющийся х, вероятность р; — элементом вероятности у(х) е1х (1(х) е1х = 7'(х) дх = ЫГ(х) = ЬР(х) = Г(х+ Ьх) — Р(х) = Р(х < Х < х+ Ьх)), получим равенство (2.11).
П о Математическим ожиданием н.с.в. Х с плотностью вероятности у'(х), называется число Глава 2. Случайные величины ° 75 Отметим, что МХ имеет ту же размерность, что и с.в. Х. Свойства математического ожидания. Математическое ожидание постоянной равно самой этой постоян- ной, т.е. Мс = с. 2. Постоянный множитель выносится за знак м.
о., т. е. М~сХ) = сМХ. 3. М.о. суммы с.в. равно сумме их м.о., т.е. М(Х + У) = МХ + МУ. 4, М.о. отклонения с.в. от ее м.о. равно нулю, т.е. М(Х вЂ” МХ) = О. 5. М. о. произведения независимых с. в. равно произведению их м. о., т.е. если Х и У независимы, то М(Х ° У) = МХ МУ. 1. Постоянную с можно рассматривать как д. с. в. Х, принимающую лишь одно значение с вероятностью 1. Поэтому Мс = с Р(Х = с) = =с 1=с. 2. Так как д.с.
в, сХ принимает значения сх, (г = 1, и) с вероятностями р;, то МсХ = ~~~ сх, р; = с ~~~ х,р, = сМХ. 3. Так как д. с. в. Х+ У принимает значения х, +уз с вероятностями р; =Р)Х,=х;,У=у),то При доказательстве воспользовались, в частности, тем, что и и ~ Р1,=РУ. рп =рв 3=1 и т и т М(Х+ У) = ~ ~ (х, + у )ру = ~ ~ х;ро 1=1 3=1 1=1 у=1 и т т и и х,~ р,~+~~ уз у р;~ — — у х; р; 1=1 3=1 1=1 ю=1 +ЕЕор' = + у у р =МХ+МУ.
7Б ' Раздел первый. Элементарная теория вероятностей Действительно: так как ~~> (Х=х,;У=уз) =(Х вЂ” х)~ (У=уз) =(Х=х).й=(Х=х), то р,-с<х=,,>=сфх= „1 =р~) = ~=1 п~ пь Р(Х = х„У = у ) = ~ро,. аналогично получаем р =~,р ~=1 Свойство 3 распространяется на произвольное конечное число слагаемых. 4. Согласно свойствам 1 и 3, имеем: М(Х вЂ” МХ) = МХ вЂ” М(МХ) = = МХ вЂ” МХ = О.
Отметим, что разность Х вЂ” МХ (или Х вЂ” тт) называется отклонением с. в. Х от ее м. о, МХ и обозначается символом Х: Х= Х вЂ” МХ. Эта с. в. Х называется также центрированной с. в. 5. Так как с. в. Х и У независимы, то ри — — Р(Х = х„. У = ут) = = Р(Х = х,) . Р(У = у ) = р, ° рт. Следовательно, МХУ = ~~~ ~~~ х,у Р(Х = х„У = ут) = 1=1 1=1 ху Р(Х=х)Р(У=у)=~~ хр,сутр =МХ.МУ ° Р* Р~ Свойства м. о., доказанные для д.
с. в., остаются справедливы и для непрерывных с. в, Так, например, МсХ = ох~(х) дх = с х~(х) с1х = сМХ. Глава 2. Случайные величины ' 77 Ряд распределения с. в. Х вЂ” суммы выигрыша на один билет таков: 5 (Контролгл 2 р, = 1.) Находим МХ: г=1 МХ = 500 0,01 + 50 0,05 + 10 0,1 + 1 0,15 + 0 0,69 = 8,65 руб. ° Дисперсия Дисперсией (рассеянием) с.в. Х называется математическое ожидание квадрата ее отклонения от своего математического ожидания. Обозначается дисперсия через РХ (или Р(Х1 Рх, Р(Х)).
Таким образом, по определению РХ = М(Х вЂ” МХ)~, (2.12) или РХ = МХ~, или РХ = М(Х вЂ” гпх)з. Дисперсия характеризует разброс значений с. в. Х относительно ее м. о. Из определения диспер- сии следуют формулы для ее вычисления: РХ = ~~~ (х, — МХ) ° р, — для д. с. в.
Х, +ао РХ = (х — МХ) 7"(х) 4х — для н.с.в. Х. (2.13) (2.14) На практике дисперсию с. в. удобно находить по формуле РХ = МХ вЂ” (МХ) . (2 15) Она получается из формулы (2.12): РХ = М(Х вЂ” 2Х МХ+(МХ)з) = = МХ~ — М(2Х МХ) + М(МХ)~ = МХ~ — 2МХ МХ+ (МХ)~ = = МХ вЂ” (МХ)', Пример 2.4. В лотерее имеется 1000 билетов, из них выигрышных; 10 П по 500 руб, 50 по 50 руб, 100 по 10 руб, 150 по 1 руб. Найти математическое ожидание выигрыша на один билет.
78 ' Раздел первый. Элементарная теория вероятностей Это позволяет записать формулы для ее вычисления ((2.13) и (2.14)) в другом виде: РХ = ~~~ хг р, — (МХ)г, -ьсю РХ = х ~(х) Их — (МХ)г. (2.16) (2.17) Свойства дисперсии. 1. Дисперсия постоянной равна нулю, т. е. Рс = О. 2. Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат, т.
е. РсХ = сгРХ. 3. Дисперсия суммы независимых с. в. равна сумме их дисперсий, т. е. если Х и У независимы, то Р(Х+ У) = РХ+ Ру, 4. Дисперсия с. в. не изменится, если к этой с. в. прибавить постоянную, т.е. Р(Х + с) = РХ. 5. Если с. в. Х и У независимы, то Р(ХУ) МХг М1 г (МХ)г (М1 )г Р(Х + У) = РХ + РУ + 2М((Х вЂ” МХ) (У вЂ” МУ)). 4. Р(с+ Х) = М((с+ Х) — М(с+ Х))г = М(Х вЂ” МХ)г = РХ. Доказательство свойства 5 не приводим, Свойства дисперсии, доказанные выше для дискретных случайных величин, остаются справедливыми и для непрерывных с. в.
1. Рс = М(с — Мс) = М(с — с) = МО = О. 2. РсХ = М(сХ вЂ” М(сХ)) = М(сХ вЂ” сМХ)г = М(с (Х вЂ” МХ) ) = = сгМ(Х вЂ” МХ)г = сгРХ. 3. Используя формулу (2.15), получаем Р(Х + У) = М(Х + У) — (М(Х+У))' = МХ +2МХУ+Муг — (МХ) — 2МХ Му — (Му) = МХ вЂ” (МХ) +Муг — (Му) +2(МХУ вЂ” МХ Му) = РХ+Ру+ + 2(МХ ° Му — МХ Му) = РХ + Ру, Отметим, что если с. в. Х и У зависимы, то Глава 2. Случайные величины ° 79 Среднее квадратическое отклонение Дисперсия РХ имеет размерность квадрата с. в. Х, что в сравнительных целях неудобно. Когда желательно, чтобы оценка разброса (рассеяния) имела размерность с. вч используют еще одну числовую характеристику — среднее квадратическое отклонение (сокращенно: с.
к. о.). Средним квадратическим отклонением или стандартным отклонением с. в. Х называется квадратный корень из ее дисперсии, обозначают через ох (или оХ, о[Х], о). Таким образом, по определению РХ. (2.18) Из свойств дисперсии вытекают соответствующие свойства с. к. ос пс = О, осх = ~с~ох, о(с+ Х) = ох. Для изучения свойств случайного явления, независящих от выбора масштаба измерения и положения центра группирования, исходную случайную величину Х приводят к некоторому стандартному виду: ее центрируют, т.
е. записывают разность Х вЂ” МХ (геометрически означает, что начало координат переносится в точку с абсциссой, равной м.о.), затем делят на с.к.о. пх, Х вЂ” МХ Случайную величину Е = называют стандартной слу- ох чайной величиной. Ее м. о. равно О, а дисперсия равна 1, Действительно, М~=М(х — Мх) = — 'М(Х-МХ) =О, РУ вЂ” — Р(Х вЂ” МХ) — — — — — 1. 1 РХ РХ пх "х То есть Я вЂ” центрироеанноя (МЕ = 0) и нормированная (РЯ = 1) случайная величина. Пример 2.5.
Д. с. в. Х задана рядом распределения. Найти МХ, РХ, пх. Используем формулы (2.9), (2.13), (2.18): МХ = — 1. 0,2+ 0 0,1+ +1,0 3+2,04 09. РХ ( 1 09)г 02+(О 09)г 01+(1 09)г 03+ +(2 — 0,9) 0,4 = 1,29 (или, используя формулу (2.16), РХ = ( — 1)г.0,2+ + Ог 0,1+ 1г 0,3+ 2г 0,4 — (0,9)г = 1,29); пх = ~/Т,29 = 1,14. ° ВО ° Раздел первый. Элементарная теория вероятностей Мода и медиана.
Моменты случайных величин. Асимметрия и эксцесс. Квантили Модой д. с. в. Х называется ее значение, принимаемое с наибольшей вероятностью по сравнению с двумя соседними значениями, обозначается через МоХ. Для н.с. в. МоХ вЂ” точка максимума (локального) плотности ~х(х). Если мода единственна, то распределение с.в.