1625915143-9358bde957c0693ae60a95b83ad382f6 (843873), страница 10
Текст из файла (страница 10)
Болеестрогого обоснования этой формулы мы здесь приводить не будем.Аналог этой формулы в случае функции от нескольких случайных величин выглядит так:Z∞ Z∞Eg(X1 , X2 , . . . , Xn ) =Z∞...−∞ −∞g(t1 , t2 , . . . , tn )fX1 ,X2 ,...,Xn (t1 , t2 , . . . , tn )dt1 . . .
dtn ,−∞где fX1 ,X2 ,...,Xn (t1 , t2 , . . . , tn ) — плотность совместного распределения случайного вектора (X1 , X2 , . . . , Xn ).42Заметим, что распределение случайной величины g(X1 , X2 , . . . , Xn ) здесь такжеможет и не быть абсолютно непрерывным — формула остается в силе.Свойства математического ожидания1. Если P(X = C) = 1, то EX = C, т.
е. математическое ожидание константыравно этой константе. Свойство очевидно.2. Постоянный множитель можно выносить за знак математического ожидания:E(αX) = αEX.Это свойство вытекает из формул для вычисления матожидания функции от случайной величины, в данном случае g(X) = αX.3. E(X + Y ) = EX + EY , если все участвующие здесь математические ожиданиясуществуют.Мы проведем доказательство этого свойства отдельно для случаев, когда X и Yдискретны и когда вектор (X, Y ) обладает плотностью совместного распределения.Если X принимает возможные значения x1 , x2 , .
. ., а Y — возможные значенияy1 , y2 , . . ., то X + Y будет принимать возможные значения вида xi + yj , i = 1, 2, . . .,j = 1, 2, . . ., иE(X + Y ) =+∞ X∞X(xi + yj )P(X = xi , Y = yj ) =i=1 j=1∞∞XXyjj=1∞Xi=1P(X = xi , Y = yj ) =i=1∞Xxi∞XP(X = xi , Y = yj ) +j=1xi P(X = xi ) +i=1∞Xyj P(Y = yj ) =j=1= EX + EY.Для абсолютно непрерывных распределений имеем по той же схемеZ ∞Z ∞Z ∞ Z ∞E(X + Y ) =(u + v)fX,Y (u, v)dudv =ufX,Y (u, v)dvdu +−∞ −∞−∞−∞Z ∞ Z ∞Z ∞Z ∞vfX,Y (u, v)dudv =ufX (u)du +vfY (v)dv =+−∞−∞−∞−∞= EX + EY.Доказательство этого свойства для остальных случаев (смешанные распределения) мы опускаем.Вернемся к рассмотренному выше одному из примеров. Пусть X — число успехов в n испытаниях схемы Бернулли, т. е. X ⊂= Bn,p .
Мы уже нашли, что EX = np.С помощью доказанного свойства мы найдем EX другим способом. Введем вспомогательные случайные величины Xi , i = 1, 2, . . . , n, где Xi — число успехов в i-миспытании, т. е. P(Xi = 1) = p, P(Xi = 0) = 1 − p, и поэтому EXi = p. ТогдаX = X1 + . . . + Xn и EX = EX1 + . . . + EXn = np.4. Если X и Y независимы, то E(XY ) = EX · EY . Мы вновь предполагаем, чтовсе участвующие здесь матожидания существуют.Заметим, что обратное утверждение неверно: можно привести пример зависимыхслучайных величин, для которых это свойство также выполняется. Достаточно взять= U−1,1 . Тогданесомненно зависимые случайные величины X и X 2 , где X ⊂Z21E(X · X ) =t−1312Zdt = 0, EX =43111t dt = 0, EX 2 = .3−1 2Доказательство свойства 4, как и в предыдущем случае, проведем отдельно длядискретных и абсолютно непрерывных распределений вектора (X, Y ), сохраняя обозначения предыдущего пункта.
Имеем в дискретном случаеP(X = xi , Y = yj ) = P(X = xi )P(Y = yj )(свойство независимости), поэтому∞ X∞∞∞XXXE(XY ) =xi yj P(X = xi , Y = yj ) =xi P(X = xi )yj P(Y = yj ) =i=1 j=1i=1j=1= EXEY.Далее, в силу независимости, для совместной плотности распределения имеемfX,Y (u, v) = fX (u)fY (v), поэтомуZ ∞Z ∞Z ∞Z ∞E(XY ) =uvfX,Y (u, v)dudv =ufX (u)duvfY (v)dv =−∞−∞−∞−∞= EXEY.5. Если X ≥ Y , то EX ≥ EY .Обозначим Z = X − Y , тогда свойство 5 эквивалентно утверждению: если Z ≥ 0,то EZ ≥ 0.Доказательство проведем для общего случая, когда F (y) = P(Z < y) — функцияраспределения смешанного типа. В силу того что F (0) = 0, делаем следующий вывод:в разложении функции F на абсолютно непрерывную и дискретную компонентыF (y) = αF1 (y) + βF2 (y)имеет место F1 (0) = F2 (0) = 0.
Поэтому в формуле для матожиданияZ ∞∞Xyk pkEZ = αtf (t)dt + β−∞k=1f (t) = 0 при t < 0 и все yk неотрицательны. Отсюда следует, что EZ ≥ 0.6. Если EX = 0 и X ≥ 0, то P(X = 0) = 1.Для доказательства нам потребуется неравенство Чебышева. Назовем его первымнеравенством Чебышева, поскольку далее в курсе будет предложено второе.Первое неравенство Чебышева. Если X ≥ 0, то для любого δ > 0EXP(X ≥ δ) ≤.δДоказательство.
Если EX = ∞, то неравенство очевидно. Пусть теперьEX < ∞. Введем случайную величину½00, если 0 ≤ X < δ,X =δ,если X ≥ δ.0Ясно по построению, что X ≥ X , поэтому0EX ≥ EX = 0 · P(0 ≤ X < δ) + δP(X ≥ δ) = δP(X ≥ δ).Неравенство доказано.Применим его к доказательству свойства 6. Для любого δ > 0 имеемEX= 0,0 ≤ P(X ≥ δ) ≤δто есть P(X ≥ δ) = 0, что возможно только при P(X = 0) = 1.443.2.МоментыОпределение.
Моментом k-го порядка случайной величины X называется EX k ,k > 0.Как и всякое математическое ожидание, момент k-го порядка существует тогда итолько тогда, когда E|X|k < ∞. Последнее называется абсолютным моментом k-гопорядка. Пользуясь формулами вычисления математических ожиданий функций отслучайных величин, можем записатьXEX k =yik P(X = yi )iдля дискретных распределений иZ∞kEX =tk fX (t)dt−∞для абсолютно непрерывных распределений.Моменты являются весьма полезными числовыми характеристиками случайныхвеличин. Момент первого порядка — это уже знакомое нам математическое ожидание.
Оно имеет смысл среднего значения случайной величины. Мы увидим дальше,что знание моментов второго и первого порядков дает нам определенную информацию о разбросанности значений случайной величины, с помощью моментов можнохарактеризовать асимметрию распределения и т. д.Следующая теорема устанавливает связь между существованием моментов разных порядков.Теорема. Если E|X|k < ∞, то E|X|m < ∞ для любого m такого, что 0 < m < k.Обратное неверно.Доказательство. Поскольку при 0 < m < k всегда верно |X|m ≤ |X|k + 1, тоE|X|m < E|X|k + 1 < ∞.То, что обратное утверждение неверно, показывает следующий пример. Пустьплотность распределения случайной величины X задается формулойfX (t) =C,1 + |t|k+2где постоянная C выбирается из условия нормировки.
ТогдаZ ∞|t|kkdt < ∞,E|X| = Ck+2−∞ 1 + |t|но E|X|k+1 = ∞.Если при k > 1 существует EX k , то можно рассмотреть также E(X − EX)k . Этавеличина называется центральным моментом k-го порядка. Момент k-го порядка ицентральный момент k-го порядка существуют или не существуют одновременно.3.3.ДисперсияДисперсия — это тоже числовая характеристика распределения случайной величины. Она показывает, насколько сильно значения случайной величины отклоняются45влево и вправо от среднего значения. Дисперсия определяется только для тех случайных величин, у которых EX 2 < ∞.Определение.
Дисперсией случайной величины X называетсяDX = E(X − EX)2 .Другими словами, дисперсия — это второй центральный момент случайной величины. Она действительно показывает, насколько велик разброс значений случайнойвеличины. Вычитая EX из X, мы получаем всевозможные отклонения от среднего,затем возводим эти разности в квадрат, чтобы не было среди них отрицательных,а потом усредняем, беря математическое ожидание. Таким образом, дисперсия естьсреднее квадратическое отклонение значений случайной величины от среднего значения.Можно предложить альтернативную формулу для дисперсии:DX = E(X − EX)2 = E(X 2 − 2XEX + (EX)2 ) == EX 2 − 2EXEX + (EX)2 = EX 2 − (EX)2 .Для дискретных распределений дисперсия вычисляется по формуламDX =∞X(yk − EX)2 P(X = yk ) =∞Xyk2 P(X = yk ) − (EX)2 ,k=1k=1для распределений абсолютно непрерывного типа имеемZ ∞Z ∞2DX =(t − EX) fX (t)dt =t2 fX (t)dt − (EX)2 .−∞√−∞DX называется стандартным уклонением.Свойства дисперсииЗдесь и всюду в дальнейшем буквой C будут обозначаться константы.1.
DX ≥ 0. Свойство очевидно.2. DC = 0. Следует из определения, поскольку C = EC.3. Если DX = 0, то P(X = C) = 1 для некоторой постоянной C. Действительно,из свойства 6 математических ожиданий вытекает: соотношения (X − EX)2 ≥ 0 иE(X − EX)2 = 0 влекут P(X − EX = 0) = 1.4. D(CX) = C 2 DX; в частности, D(−X) = DX. Это вновь следует из определения: D(CX) = E(CX − ECX)2 = C 2 E(X − EX)2 = C 2 DX.5.
D(X + C) = DX. Следует из определения: E(X + C − E(X + C))2 = E(X + C −EX − C))2 = DX.6. Если X и Y независимы, то D(X ± Y ) = DX + DY .Доказательство.D(X ± Y ) = E(X ± Y − E(X ± Y ))2 = E((X − EX) ± (Y − EY ))2= E(X − EX)2 + E(Y − EY )2 ± 2E((X − EX)(Y − EY ))= DX + DY ± 2Cov(X, Y ),где обозначеноCov(X, Y ) = E((X − EX)(Y − EY )).46Эта величина называется ковариацией между случайными величинами X и Y .
Если X и Y независимы, то X − EX и Y − EY также независимы и по свойству 4математических ожиданий имеемCov(X, Y ) = E((X − EX)(Y − EY )) = E(X − EX)E(Y − EY ) = 0.Примеры. 1. Пусть X ⊂= Bp . ТогдаEX 2 = 1 · p + 0 · (1 − p) = p,EX = p, DX = p − p2 = p(1 − p).2. Если X ⊂= Bn,p , то можно считать, что X есть число успехов в n испытанияхБернулли (распределение то же самое). Как мы видели выше, в этом случае X можнопредставить в виде суммы X = X1 + . . .
+ Xn , где все Xi распределены по законуБернулли. Теперь добавим, что они независимы, коль скоро строятся по независимымиспытаниям. ПоэтомуDX = DX1 + . . . + DXn = np(1 − p).3. Пусть X ⊂= Φα,σ2 . Нахождение DX упростится, если мы сведем все к стандартному нормальному закону. Обозначим Y = (X − α)/σ, тогда Y ⊂= Φ0,1 и X = σY + α.В силу свойств дисперсии DX = σ 2 DY , поэтому достаточно найти DY . Интегрируяпо частям, получаемZ ∞Z ∞1122 −t2 /22t edt = √t d(−e−t /2 ) =EY = √2π −∞2π −∞½¾ Z ∞Z ∞∞1−t2 /2−t2 /2= √−te| +edt =ϕ0,1 (t)dt = 1.2π−∞−∞−∞Поскольку EY = 0, то DY = 1 и DX = σ 2 .Таким образом, параметры нормального распределения обладают вполне конкретным физическим содержанием: α совпадает с математическим ожиданием, а σ 2— с дисперсией.3.4.Коэффициент корреляцииКоэффициент корреляции — это числовая характеристика, которая вводится дляпары случайных величин с целью показать, насколько они зависимы.Определение.
Коэффициентом корреляции называетсяCov(X, Y )E((X − EX)(Y − EY ))E(XY ) − EXEY√√ρ(X, Y ) = √==.DX DYDX DYDX DYКоэффициент корреляции вводится не для всякой пары случайных величин: необходимо, чтобы существовали вторые моменты EX 2 и EY 2 , а также, чтобы DX > 0,DY > 0. Последнее ограничение означает, что X и Y отличны от констант.Для вычисления коэффициента корреляции необходимо знать совместное распределение пары (X, Y ). Если, к примеру, известна плотность fX,Y (u, v), то смешанныймомент вычисляется по формулеZ∞ Z∞E(XY ) =uv fX,Y (u, v) du dv−∞ −∞47(мы применяем здесь правило вычисления матожидания функции g(X, Y ) = X · Y ).Как ранее установлено, одномерные плотности получаются из двумерной интегрированием:ZZ∞fX (u) =∞fX,Y (u, v) dv, fY (v) =−∞fX,Y (u, v) du,−∞далее матожидания и дисперсии вычисляются по известным формулам.Свойства коэффициента корреляции1.
|ρ(X, Y )| ≤ 1.Доказательство. Введем случайные величиныX − EXX1 = √,DXY − EYY1 = √.DYЗдесь к каждой случайной величине применена операция стандартизации, котораясостоит в вычитании матожидания и делении на корень квадратный из дисперсии.Она производится с единственной целью: добиться, чтобы математическое ожиданиестало нулевым, а дисперсия — единичной. Действительно,µ¶211DXEX1 = √E(X − EX) = 0, DX1 = √D(X − EX) == 1.DXDXDXКроме того,ρ(X, Y ) = EX1 Y1 = Cov(X1 , Y1 ).Как уже было установлено,D(Y1 ± X1 ) = DX1 + DY1 ± 2Cov(X1 , Y1 ) = 2 ± 2ρ(X, Y ) ≥ 0.Последнее неравенство эквивалентно тому, что −1 ≤ ρ(X, Y ) ≤ 1.2. |ρ(X, Y )| = 1 тогда и только тогда, когда для некоторых констант a 6= 0 и bвыполняется Y = aX + b.Доказательство. Если Y = aX + b, тоρ(X, Y ) ==E((X − EX)(aX + b − E(aX + b)))p=DX D(aX + b)E((X − EX)(aX + b − aEX − b))aE(X − EX)2ap=== ±1|a|DX|a|DX a2 DX)в зависимости от знака числа a.В другую сторону: пусть, к примеру, ρ(X, Y ) = 1.