1625915143-9358bde957c0693ae60a95b83ad382f6 (843873), страница 11
Текст из файла (страница 11)
Воспользуемся опять соотношениемD(Y1 − X1 ) = 2 − 2ρ(X, Y ) = 0.В силу свойств дисперсии это означает, что Y1 − X1 = 0 с вероятностью единица или,что то же самое,√√DYDY EXY =√X + EY − √.DXDXЕсли ρ(X, Y ) = −1, то пользуемся соотношениемD(Y1 + X1 ) = 2 + 2ρ(X, Y ) = 0.3. Если X и Y независимы, то ρ(X, Y ) = 0.48Свойство очевидно.К сожалению, обратное утверждение не имеет места.4. Если ρ(X, Y ) = 0, то X и Y не обязательно независимы.Пример этому уже приводился: если X ⊂= U−1,1 и Y = X 2 , то Cov(X, Y ) =ρ(X, Y ) = 0, хотя случайные величины зависимы.По этой причине случайные величины X и Y называются некоррелированными,если ρ(X, Y ) = 0. Независимость влечет некоррелированность, но не наоборот.3.5.Многомерный случай: математическое ожиданиеи матрица ковариацийВ этом разделе мы обобщим понятия математического ожидания и дисперсии намногомерный случай.ПустьX11 X12 .
. . X1n X21 X22 . . . X2n X= ...... ... ... Xm1 Xm2 . . . Xmn— матрица, составленная из случайных величин. Положим, по определению,EX11 EX12 . . . EX1n EX21 EX22 . . . EX2n .EX = ............ EXm1 EXm2 . . . EXmnЛегко проверить, что при таком определении сохраняются следующие свойства математических ожиданий.1. Если A и B — матрицы, составленные из констант, то E(AX) = AEX,E(XB) = (EX)B.2. E(X + Y ) = EX + EY .3. Если любой элемент матрицы X не зависит от любого элемента матрицы Y , тоE(XY ) = EXEY .Разумеется, мы предполагаем, что размерности участвующих здесь матриц позволяют применять операции сложения и умножения.Аналог дисперсии вводится только для случайных векторов.
На протяжении этогои следующего параграфов мы будем изображать векторы в виде столбцовX1 X2 X= ... .XnОпределение. Матрицей ковариаций случайного вектора X называется матрица C(X), у которой на месте с номером (i, j) стоит ci,j = Cov(Xi , Xj ), i, j = 1, . . . , n.Матрица ковариаций есть аналог дисперсии. При n = 1 она совпадает с дисперсией. В общем случае на главной диагонали у нее стоят дисперсии DX1 , . . . , DXn ,матрица симметрична относительно главной диагонали: ci,j = cj,i .Мы знаем, что D(AX+B) = A2 DX в одномерном случае, если A и B — константы.Аналогом этого свойства для случайных векторов является следующее утверждение.49Теорема.
Пусть A — матрица из констант, имеющая m строк и n столбцов,а B — вектор из констант размерности m. ТогдаC(AX + B) = AC(X)AT ,где верхний индекс T соответствует транспонированной матрице.Доказательство. Обозначим для краткости mi = EXi , i = 1, .
. . , n, и воспользуемся следующим свойством произведения матриц: если умножить вектор-столбец навектор-строку, то в итоге получим матрицу:X1 − m1 X2 − m2 · (X1 − m1 , X2 − m2 , . . . , Xn − mn ) =...Xn − mn(X1 − m1 )2(X1 − m1 )(X2 − m2 ) . . . (X1 − m1 )(Xn − mn ) (X2 − m2 )(X1 − m1 )(X2 − m2 )2. . . (X2 − m2 )(Xn − mn ) .= ............(Xn − mn )(X1 − m1 ) (Xn − mn )(X2 − m2 ) . .
.(Xn − mn )2Взяв теперь математическое ожидание от обеих частей, получимE(X − EX)(X − EX)T = C(X),и аналогичноC(AX + B) ====E(AX + B − E(AX + B))(AX + B − E(AX + B))T =E(AX + B − EAX − B)(AX + B − EAX − B)T =E(A(X − EX)(X − EX)T AT ) =A(E(X − EX)(X − EX)T )AT = AC(X)AT .Теорема доказана.3.6.Многомерное нормальное распределениеМы уже рассматривали ранее в качестве примера частный случай плотностимногомерного нормального закона, она соответствовала стандартному многомерному нормальному распределению. Сейчас введем этот закон распределения в общейформе.Будем действовать по аналогии с одномерным случаем.Пусть Y — одномерная случайная величина, имеющая стандартное нормальноераспределение, Y ⊂= Φ0,1 .
Взяв произвольные числа α и σ > 0, образуем случайнуювеличину X = σY + α, которая уже будет распределена по закону Φα,σ2 с плотностью122ϕα,σ2 (t) = √ e−(t−α) /2σ ,σ 2π−∞ < t < ∞.Тем самым мы получили общий вид плотности нормального распределения с помощью линейных преобразований над случайной величиной Y , имеющей стандартноенормальное распределение.50Так же поступим и в многомерном случае. Пусть Y — случайный вектор с координатами Y1 , . . . , Yn , имеющий многомерное стандартное нормальное распределениес плотностью()½¾ YnnX1111 T2fY (t) =exp −t =exp − t t =ϕ0,1 (ti ).(2π)n/22 i=1 i(2π)n/22i=1Последнее означает, что координаты вектора Y1 , .
. . , Yn независимы и одинаково распределены в соответствии со стандартным нормальным законом. Здесь C(Y ) = E —единичная матрица, t = (t1 , . . . , tn )T — вектор-столбец.Возьмем произвольную невырожденную матрицу A размерности n×n, состоящуюиз констант, и постоянный вектор α = (α1 , . . . , αn )T и образуем новый случайныйвекторX = AY + α.Распределение получившегося вектора X и будем называть многомерным нормальным распределением.Теорема. Плотность многомерного нормального распределения задается формулой√©ªdet QTexp−(t−α)Q(t−α)/2,fX (t) =(2π)n/2где t = (t1 , . .
. , tn )T , Q = (C(X))−1 = (AC(Y )AT )−1 = (AAT )−1 .√Заметим, что при n = 1 и A = σ получаем Q = 1/σ 2 , det Q = 1/σ.Приведем только схему доказательства.Какой бы прямоугольник B ⊂ Rn ни взять, по основному свойству плотностейдолжно бытьZP(X ∈ B) =fX (t)dt,Bздесь для краткости обозначено dt = dt1 dt2 . .
. dtn . В то же времяZ−1P(AY + α ∈ B) = P(Y ∈ A (B − α)) =fY (u)du,A−1 (B−α))где под множеством A−1 (B − α) понимается совокупность всех точек u : Au + α ∈ B.Для того чтобы преобразовать этот интеграл к нужному нам интегралу по множествуB (и тогда стоящая под интегралом функция и будет искомой плотностью), сделаемзамену переменных t = Au + α. В ©результатеэтой замены множество A−1 (B − α)ªперейдет в B, u — в A−1 (t − α), exp − 21 uT u перейдет в¾½¾½11T−1 T −1TT −1exp − (t − α) (A ) A (t − α) = exp − (t − α) (AA ) (t − α) .22√При переходе от du к dt появится якобиан det Q.Таким образом, под интегралом появится функция, присутствующая в утверждении теоремы — она и будет плотностью вектора X.Для нас большую важность представляют следующие два следствия из этой теоремы.Следствие 1.
Пусть случайный вектор X = (X1 , X2 , . . . , Xn )T имеет многомерное нормальное распределение и все его компоненты попарно некоррелированны.Тогда они независимы.51Доказательство. Вследствие некоррелированности компонент заключаем, чтоматрица ковариаций C(X) имеет диагональный вид: на главной диагонали стоятдисперсии DX1 , . . . , DXn , а все остальные элементы равны нулю. Обозначим длякраткости σi2 = DXi , i = 1, . .
. , n. Тогда матрица Q = (C(X))−1 также будет диагональной, у нее на главной диагонали будут стоять числа σ1−2 , . . . , σn−2 . По этойпричине плотность распределения вектора X приобретает вид( n)nX (ti − αi )2Y1exp−=ϕαi σi2 (ti ),fX (t) =2σ1 . . . σn (2π)n/22σii=1i=1что эквивалентно независимости компонент вектора X.Следствие 2. Пусть случайный вектор X = (X1 , X2 , . . . , Xn )T имеет многомерное стандартное нормальное распределение (напомним: это соответствуеттому, что все компоненты вектора независимы и имеют распределение Φ0,1 ). Образуем новый вектор Y = AX, где A — ортогональная матрица. Тогда вектор Yтакже будет иметь многомерное стандартное нормальное распределение.Доказательство. Ортогональная матрица, по определению, обладает свойствомAT = A−1 .
По этой причине C(Y ) = AC(X)AT = AAT = E и, следовательно,½¾ Yn11 TfY (t) =exp − t t =ϕ0,1 (ti ) = fX (t),(2π)n/22i=1что и требовалось доказать.4.4.1.Предельные теоремыСходимость по вероятностиВ дальнейшем нам предстоит изучить закон больших чисел — теорему о сходимости некоторой последовательности случайных величин. Случайные величины являются функциями, заданными на пространстве элементарных исходов, а сходимостьпоследовательности функций — понятие сложное и ее можно определять по-разному.Мы ограничимся введением понятия сходимости по вероятности.Пусть случайные величины X, X1 , X2 , . .
. заданы на одном и том же вероятностном пространстве.Определение. Последовательность {Xn } сходится по вероятности к случайнойвеличине X, если для любого числа ε > 0P(|Xn − X| ≥ ε) → 0при n → ∞.PОбозначать будем Xn → X.Эквивалентное определение: для любого ε > 0P(|Xn − X| < ε) → 1.Поясним смысл написанного. При сближении Xn и X расхождение между нимидолжно в каком-то смысле уменьшаться.