Лекции по ТВиМС, страница 9
Описание файла
Файл "Лекции по ТВиМС" внутри архива находится в папке "Лекции по ТВиМС". PDF-файл из архива "Лекции по ТВиМС", который расположен в категории "". Всё это находится в предмете "теория вероятностей и математическая статистика" из 4 семестр, которые можно найти в файловом архиве МАИ. Не смотря на прямую связь этого архива с МАИ, его также можно найти и в других разделах. Архив можно найти в разделе "лекции и семинары", в предмете "теория вероятности и математическая статистика" в общих файлах.
Просмотр PDF-файла онлайн
Текст 9 страницы из PDF
Форма области Dзависит от вида функции ϕ ( X 1 , X 2 ) . Вy=x1+x2случае, когда Y = X 1 + X 2 , областьинтегрирования имеет вид, показанныйDна рисунке, и функция распределениясуммы двух случайных величинопределяется по формулеyx1y−xy−x∞⎪⎧ 1⎪⎫⎪⎧ 2⎪⎫G( y ) = ∫ ⎨ ∫ f ( x1 , x2 )dx2 ⎬ dx1 = ∫ ⎨ ∫ f ( x1 , x2 )dx1 ⎬ dx2 .(10.3)⎪ −∞⎪ −∞−∞ ⎩−∞ ⎩⎭⎪⎭⎪Дифференцируя это выражение по y, получим плотность распределениявеличины Y:∞∞g( y) =∫ f ( x1, y − x1)dx1 = ∫ f ( y − x 2, x 2)dx 2 .−∞Если величины X1 и X2 независимы, тоg( y) =∞(10.4)−∞∞∞−∞−∞∫ f1( x1) f2 ( y − x1)dx1 = ∫ f1( y − x 2 ) f2 ( x 2 )dx 2 .(10.5)В случае, когда складываются независимые случайные величины, говорято композиции законов распределения.
Произвести композицию двух законовраспределения – это значит найти закон распределения суммы двухнезависимых случайных величин, распределенных по этим законам (см. (10.5)).Многомерные случайные величиныСовокупность произвольного числа n одномерных случайных величин Хi,i = 1, …, n, которые принимают значение в результате проведения одного и тогоже опыта, называется n-мерной случайной величиной (Х1, Х2, …, Хn). Ее можноинтерпретировать как случайную точку или случайный вектор в n-мерномпространстве.Полной характеристикой n-мерной случайной величины (Х1, Х2, …, Хn)является n-мерный закон распределения, который может быть задан функциейраспределения или плотностью вероятности.Функцией распределения n-мерной случайной величиной (Х1, Х2, …, Хn)называется вероятность выполнения n неравенств вида Хi < xi:F ( x1 , x2 ...xn ) = p{( X 1 < x1 )( X 2 < x 2)...
( X n < xn )} .(10.6)Функцию распределения любой частной системы из величин, входящих всистему, можно получить, если положить все остальные аргументы n-мернойфункции распределения равными бесконечности.Плотностью распределения n-мерной случайной величиной (Х1, Х2, …,Хn) называется n-я смешанная частная производная функции F ( x1 , x2 ...xn ) , взятаяодин раз по каждому аргументу:∂ n F ( x 1 , x 2 ... x n )f ( x 1 , x 2 ... x n ) =.∂ x 1∂ x 2 ...∂ x nОна обладает следующими свойствами:(10.7)1. f(x1, …, xn) ≥ 0.2. Условие нормировки:∞∞∫ ... ∫ f ( x ,..., x1−∞n) dx 1 ...dx n = 1(10.8)−∞3.
Плотности распределения меньшего порядка могут быть полученыпутем интегрирования n-мерной плотности распределения по ненужнымпеременным. Например, одномерная плотность распределения величины Хкравна+∞f k ( xk ) =+∞∫ .... ∫ f1 ( x1 ,..., xn )dx1...dxk −1dxk +1......dxn .( n −1)−∞(10.9)−∞4. Вероятность попадания случайной точки (Х1, Х2, …, Хn) в пределы nмерной области D равна n-кратному интегралу по этой области:p{( X 1 X 2 ...
X n ) ⊂ D} = ∫ ... ∫ f ( x1 , x2 ,...xn )dx1dx2 .....dxn .(10.10)( D)Случайные величины (Х1, Х2, …, Хn) называются независимыми, еслизакон распределения каждой частной системы, выделенной из системы (Х1, Х2, …,Хn), не зависит от того, какие значения приняли остальные случайныевеличины.Плотность распределения системы независимых случайных величинравна произведению плотностей распределения отдельных величин, входящихв систему: f ( x1, x2 ,..., xn ) = f1 ( x1 ) ⋅ f2 ( x2 )... fn ( xn ) .Основные числовые характеристики n-мерной случайной величиной (Х1,Х2, …, Хn) следующие.1.
Вектор математических ожиданий M = (m1, m2, …, mn):∞mi =∞∫ ... ∫ x f ( x ,..., xi−∞1n) dx1... dx n .(10.11)−∞2. Вектор дисперсий D = (D1, D2, …, Dn):∞Di =∞∫ ... ∫ ( x−∞i− mi ) 2 f ( x1 ,..., x n ) dx1 ...dx n .(10.12)−∞3. Корреляционная матрица, характеризующая попарную корреляциювсех величин, входящих в систему:K12 ΚK1nK 21 K 22 ΚK 2nK11Kij =ΜΜ,Μ ΟK n1 K n2 ΚK nnгде∞K ij =∞∫ ... ∫ ( x−∞i− m i )( x j − m j ) f ( x1 ,..., x n ) dx1 ... dx n . (10.13)−∞Данная матрица является симметричной ( K ij = K ji ) и включает в себя вектордисперсий, так как Кii = Di4. Матрица коэффициентов корреляции:1R12 KRij =R21MRn1R1 nR2 nM ,11 KM ORn 2 KгдеRij =K ijDi D jМатрица квадратная и симметричная..(10.14)ЛЕКЦИЯ 11Числовые характеристики функции многих переменныхПусть Y = ϕ(x1, x2, …, xn), где Х1, Х2, …, Хn – случайные величины сизвестной совместной n-мерной плотностью вероятностей f(x1, x2, …, xn).Начальные моменты величины Y определяются по формулеα k ( y ) = M [Y ] =k∞∞∫ ...
∫ ϕ−∞k( x 1 , ..., x n ) f ( x 1 , ..., x n ) d x 1 ... d x n ,(11.1)−∞а центральные моменты − по формулеµ k ( y ) = M [ ( Y − mY ) ] =k∞∫ ... ∫ (ϕ ( x ,..., x1−∞причем∞n) − mY ) k f ( x1 ,..., x n ) dx1 ...dx n ,(11.2)−∞mY = M [Y ] = M [ϕ ( x1 ,..., xn )] = α1 ( y) ,DY = µ 2 ( y ) = α 2 ( y ) − mY2 .(11.3)(11.4)В случае, когда совместная плотность вероятности аргументовf(x1, x2, …, xn)неизвестна, а известны числовые характеристики аргументов, тозадача определения числовых характеристик Y разрешима только дляопределения классов функций ϕ.Числовые характеристики суммы случайных величинnПусть Y = ∑ X i , где Х1, Х2, …, Хn – случайные величины с известнымиi =1числовыми характеристиками:– вектор математических ожиданий M = (m1, m2, …, mn);– вектор дисперсий D = (D1, D2, …, Dn);– корреляционная матрица K ij .Теорема о математическом ожидании суммы случайных величин.Математическое ожидание суммы случайных величин равно суммематематических ожиданий слагаемых:⎡ n⎤ nM [Y ] = M ⎢ ∑ X i ⎥ = ∑ mi .(11.5)⎣ i =1 ⎦ i =1Доказательство.
Пусть n = 2, т.е. Y = Х1 + Х2, и предположим, чтослагаемые – непрерывные случайные величины с некоторой совместнойплотностью распределения f ( x1 , x2 ) . Тогда∞= M [X1 + X 2] =mY∞∫ ∫( x1 + x 2 ) f ( x1 , x 2 ) d x1 d x 2 =−∞ −∞∞=∞∫ ∫−∞ −∞∞x1 f ( x1 , x 2 ) d x1 d x 2 +∞∫ ∫−∞ −∞x 2 f ( x1 , x 2 ) d x1 d x 2 = m 1 + m 2 .Аналогично и для дискретных слагаемых.
Используя метод математическойиндукции, легко доказать, что теорема справедлива для любого n.Теорема о дисперсии суммы случайных величин. Дисперсия суммыслучайных величин равна сумме всех элементов корреляционной матрицыслагаемых:nnn⎡ n⎤ n nD[Y ] = D ⎢ ∑ X i ⎥ = ∑ ∑ K ij = ∑ Di + 2∑ ∑ K ij .(11.6)i =1i =1 j = i +1⎣ i =1 ⎦ i =1 j =1Доказательство:2n⎡⎛ n⎡⎛ n o ⎞ 2 ⎤⎞ ⎤2D [Y ] = M [(Y − m Y ) ] = M ⎢ ⎜ ∑ X i − ∑ m i ⎟ ⎥ = M ⎢ ⎜ ∑ X i ⎟ ⎥ =i =1⎠ ⎥⎦⎠ ⎥⎦⎢⎣ ⎝ i =1⎢⎣ ⎝ i =1⎡ n n o o ⎤nnnnnnn⎡ o o ⎤= M ⎢ ∑ ∑ X i X j ⎥ = ∑ ∑ M ⎢ X i X j ⎥ = ∑ ∑ K ij = ∑ D i + 2 ∑ ∑ K ij .⎢ i =1 j =1⎥ i =1 j =1⎣⎦ i =1 j =1i =1i =1 j = i + 1⎣⎦Следствие.
Дисперсия суммы некоррелированных случайных величинравна сумме дисперсий этих величин, так как K ij = 0, ∀ i , j :n⎡ n⎤D ⎢ ∑ X i ⎥ = ∑ Di .⎣ i =1 ⎦ i =1(11.7)nЕслиY = a0 + ∑ ai X i , a i – неслучайные коэффициенты, то математическоеi =1ожидание и дисперсия Y равны:nn⎡⎤mY = M ⎢ a 0 + ∑ ai X i ⎥ = a 0 + ∑ ai mi ;(11.8)i =1i =1⎣⎦nnn⎡⎤ nDY = D ⎢ a0 + ∑ ai X i ⎥ = ∑ ai2 Di + 2∑ ∑ ai a j K ij .(11.9)i =1i =1 j =i +1⎣⎦ i =1Это легко доказать, используя (11.6), (11.7) и свойства математическогоожидания (M[c] = c, M[X + c] = mX + c , M[c⋅X] = c ⋅ mX ) и дисперсии (D[c] = 0,D[X + c] = DX, D[c⋅X] = c2⋅DX).Пример.
Докажем, что абсолютная величина корреляционного моментадвух случайных величин не превышает среднего геометрического ихдисперсий:K xy ≤ Dx ⋅ Dy или K xy ≤ σ x ⋅ σ y .Введем в рассмотрение случайные величины Z1 = σY X −σ XY, Z2 = σYX + σYYи вычислим их дисперсии по формуле (11.9):22D [ Z 1 ] = 2σ X2 σ Y2 − 2σ X σ Y ⋅ K X Y ; D [ Z 2 ] = 2σ X σ Y + 2σ X σ Y ⋅ K XY .Так как дисперсия всегда неотрицательна, то 2σ X2 σY2 − 2σ XσY ⋅ KXY ≥ 0 ⇒⇒ σ X σ Y ≥ K XY и 2σ X2 σ Y2 + 2σ X σ Y ⋅ K XY ≥ 0 ⇒ − σ X σ Y ≤ K X Y . Таким образом,−σ X σ Y ≤ K XY ≤ σ X σ Y ⇒ K X Y ≤ σ X σ Y .Числовые характеристики произведения случайных величинПусть Y =n∏i =1X i , где (X1, X2, …, Xn) – случайные величины с известнымичисловыми характеристиками:– вектор математических ожиданий M = (m1, m2, …, mn);– вектор дисперсий D = (D1, D2, …, Dn);– корреляционная матрица K ij .Теорема о математическом ожидании произведения случайныхвеличин.
Математическое ожидание произведения двух случайных величинравно произведению их математических ожиданий плюс ковариация:mY = M [ X 1 X 2 ]= m1m2 + K12 .(11.10)Доказательство. По определению ковариация равнаooK12 = M [ X 1 X 2 ] = M [( X 1 − m1 )( X 2 − m2 )] = M [ X 1 X 2 − m1 X 2 − m2 X 1 + m1m2 ] =M [ X 1 X 2 ] − m1M [ X 2 ] − m2 M [ X 1 ] + m1m2 = M [ X 1 X 2 ] − m1m2 .Откуда следует формула (11.10).Следствие.