1625915143-9358bde957c0693ae60a95b83ad382f6 (843873), страница 9
Текст из файла (страница 9)
. . .Тогда, очевидно, X + Y также будет принимать возможные значения k = 0, 1, 2, . . .,P(X + Y = k) = P({X = 0, Y = k} ∪ {X = 1, Y = k − 1} ∪ . . . ∪ {X = k, Y = 0}) ==kXP(X = i, Y = k − i) =i=0kXP(X = i)P(Y = k − i) =i=0kXpi qk−i .i=0PkПоследовательность чисел {rk = i=0 pi qk−i , k = 0, 1, 2, . . .} называется сверткой последовательностей {pk , k = 0, 1, 2, . . .} и {qk , k = 0, 1, 2, .
. .}.Теорема 1. Пусть X1 и X2 независимы, X1 ⊂= Π λ1 , X 2 ⊂= Πλ2 . ТогдаX1 + X2 ⊂= Πλ1 +λ2 .Доказательство. Воспользуемся полученной формулой:P(X +Y = k) =kkXλi1 −λ1 λk−ie−(λ1 +λ2 ) X i i k−i (λ1 + λ2 )k −(λ1 +λ2 )2ee−λ2 =Ck λ1 λ2 =e.i!(k−i)!k!k!i=0i=0Перейдем к рассмотрению плотностей сумм независимых случайных величин.Теорема 2. Пусть X и Y независимы и имеют плотности распределения fX иfY соответственно. ТогдаZ ∞Z ∞fX+Y (t) =fX (u) fY (t − u) du =fY (v) fX (t − v) dv.−∞−∞Доказательство. Достаточно доказать первое соотношение, второе получается изнего заменой v = t − u.
Имеем для функции распределенияZ ZFX+Y (y) = P(X + Y < y) = P((X, Y ) ∈ {(u, v) : u + v < y}) =fX,Y (u, v) dudvu+v<yZ∞=y−uZfX (u)−∞Zy= ∞Z−∞Z∞fY (v) dvdu =−∞fX (u)fY (t − u) duZyfX (u)−∞fY (t − u) dtdu =−∞dt.−∞Мы здесь воспользовались свойством fX,Y (u, v) = fX (u)fY (v) для независимых Xи Y и заменой переменной t = u + v.
Выражение, стоящее в фигурных скобках, ибудет искомой плотностью распределения суммы. Теорема доказана.Оба интеграла, присутствующие в формулировке теоремы, называются свертками плотностей fX и fY .38Продемонстрируем на примерах, как работает операция свертки.Теорема 3. Пусть X1 и X2 независимы, X1 ⊂= Γα, λ1 , X2 ⊂= Γα, λ2 .X1 + X2 ⊂= Γα, λ1 +λ2 .Доказательство.Z ∞fX1 +X2 (t) =γα,λ1 (u) γα,λ2 (t − u) du.Тогда−∞Поскольку γα,λ (u) = 0 при u ≤ 0, то стоящие под интегралом функции обе отличныот нуля только если одновременно u > 0 и t − u > 0.
При t ≤ 0 эти неравенстванесовместны, т. е. fX1 +X2 (t) = 0. Если t > 0, то подынтегральные функции отличныот нуля при 0 < u < t, поэтомуZ tαλ1 λ1 −1 −αu αλ2fX1 +X2 (t) =ue(t − u)λ2 −1 e−α(t−u) duΓ(λ)Γ(λ)120Z tλ1 +λ2α=e−αtuλ1 −1 (t − u)λ2 −1 du.Γ(λ1 )Γ(λ2 )0Сделаем замену u = vt. Тогдаαλ1 +λ2fX1 +X2 (t) =tλ1 +λ2 −1 e−αtΓ(λ1 )Γ(λ2 )Z1v λ1 −1 (1 − v)λ2 −1 dv.0Последний интеграл от t уже не зависит. Это константа, которую можно объединить с константами, стоящими в начале формулы. На этом доказательство можнозавершить, потому что мы получили выражение вида C tλ1 +λ2 −1 e−αt , т.е.
плотностьгамма-распределения с параметрами (α, λ1 + λ2 ). Можно, впрочем, и уточнить значение константы. Указанный интеграл известен в теории как бета-функцияZ 1Γ(λ1 )Γ(λ2 )B(λ1 , λ2 ) =v λ1 −1 (1 − v)λ2 −1 dv =.Γ(λ1 + λ2 )0Последнее можно найти в таблицах интегралов. Теорема доказана.Следствие. Если случайные величины X1 , . . . , Xn независимы и все Xi ⊂= Eα , тоX1 + . . . + Xn ⊂= Γα,n .Доказательство следует из того, что Eα = Γα,1 .Теорема 4. Пусть X1 и X2 независимы, X1 ⊂= Φα1 , σ12 , X2 ⊂= Φα2 , σ22 . ТогдаX1 + X2 ⊂= Φα1 +α2 , σ12 +σ22 .Доказательство. Введем новые случайные величиныY1 =X1 − α1,σ1Y2 =X2 − α2.σ1Тогдаσ2 X2 − α2⊂= Φ0, σ22 /σ12 .σ1 σ2Если мы докажем, что Y1 + Y2 ⊂= Φ0, 1+σ22 /σ12 , то по свойству линейных преобразованийX1 + X2 = σ1 (Y1 + Y2 ) + α1 + α2 ⊂= Φα1 +α2 , σ12 +σ22 .Y1 ⊂= Φ0, 1 ,Y2 =Обозначим для краткости θ2 = σ22 /σ12 .
Тогда¾½½¾Z ∞11u2(t − u)2√ exp − 2 √ exp −fY1 +Y2 (t) =du =2θ22π−∞ θ 2π½µ¶¾Z ∞1 u2122exp −+ u − 2tu + t=du =2πθ −∞2 θ239!)r21 + θ2θ2t22 θudu =t+t+θ21 + θ21 + θ2 1 + θ2à r!2 r½¾Z ∞2221t11+θθ=exp−u−tdu.exp − 22πθ2(1 + θ2 )θ21 + θ2 −∞1=2πθZ∞(1exp −2−∞Ã21+ θ2− 2uθ2rСделаем замену переменнойrv=ur1 + θ2θ2−t.θ21 + θ2Тогда½¾Z ∞½ 2¾1t2v√fY1 +Y2 (t) =exp −dvexp −22(1 + θ )22π 1 + θ2−∞½¾1t2= pexp −.2(1 + θ2 )2π(1 + θ2 )Теорема доказана.Следствие. Если случайные величины X1 , . . . , Xn независимы и все Xi ⊂= Φα,σ2 ,то X1 + .
. . + Xn ⊂= Φnα, nσ2 , а такжеX=X1 + . . . + Xn⊂= Φα, σ2 /n .nПоследнее следует из того, что Xi /n ⊂= Φα/n, σ2 /n2 .3.3.1.Числовые характеристики распределенийМатематическое ожиданиеПри рассмотрении случайной величины часто возникает вопрос: чему равно еесреднее значение и как его найти?В математике известны разные виды средних: среднее арифметическое, среднеегеометрическое, среднее квадратическое и т. д. Попробуем понять, какое из них болеевсего подойдет для наших целей.Рассмотрим для примера случайную величину X, принимающую всего два значения: 1 и 2. Среднее арифметическое этих значений равно 1.5 — оно одинаково удаленоот 1 и 2.
Однако если значение 1 принимается с гораздо большей вероятностью, чемзначение 2 (например, если P(X = 1) = 0.99, а P(X = 2) = 0.01), то по логике вещейсреднее значение должно быть смещено ближе к единице, ведь значение X = 1 принимается существенно чаще, чем 2. В связи с этим вместо среднего арифметического1 · 0.5 + 2 · 0.5 более естественно использовать среднее взвешенное 1 · 0.99 + 2 · 0.01, вкотором весовыми коэффициентами значений случайной величины являются вероятности этих значений. В итоге получаем, что чем более вероятно значение, тем сбольшим вкладом оно входит в эту сумму.Эти соображения и легли в основу определения математического ожидания случайной величины.
Математическое ожидание есть среднее значение случайной величины. Мы дадим его определение отдельно для дискретных, абсолютно непрерывныхи смешанных распределений.40Пусть случайная величина X дискретна, т. е. для некоторого набора чисел y1 , y2 , . .
.∞XP(X = yk ) = 1.k=1Определение. Математическим ожиданием введенной дискретной случайной величины называетсяEX =∞Xyk P(X = yk ),k=1если этот ряд абсолютно сходится, т. е. если∞X|yk | P(X = yk ) < ∞.k=1В противном случае мы говорим, что математическое ожидание случайной величиныX не существует.Примеры. 1. Пусть X ⊂= Bp . ТогдаEX = 1 · p + 0 · (1 − p) = p.2.
Если X ⊂= Bn,p , тоEX =nXkCnk pk (1 − p)n−k =k=on−1X= npnXk=1n!pk (1 − p)n−k(k − 1)!(n − k)!Cnm pm (1 − p)n−1−m = np.m=0Определение. Математическим ожиданием случайной величины X, имеющейабсолютно непрерывное распределение с плотностью fX (t), называетсяZ ∞EX =tfX (t)dt,если только−∞Z∞|t|fX (t)dt < ∞.−∞В противном случае считаем, что EX не существует.Ясно, что в этом случае EX также может восприниматься как среднее взвешенноезначений случайной величины, только здесь мы используем интегральный аналогформулы. Роль весовой функции играет плотность распределения.Заметим, что для вычисления математического ожидания достаточно знать распределение случайной величины, т.
е. матожидание — это на самом деле числоваяхарактеристика распределения.Нетрудно видеть, что матожидание не существует для распределения Коши или,например, для случайной величины X такой, что P(X = 2k ) = 2−k , k = 1, 2, . . ..Пример. Пусть X ⊂= Φα,σ2 . Тогда½¾Z ∞1(t − α)2√EX =t exp −dt =2σ 2σ 2π −∞½¾½¾Z ∞Z ∞1(t − α)2α(t − α)2√=(t − α) exp −dt + √exp −dt =2σ 22σ 2σ 2π −∞σ 2π −∞¾½Z ∞Z ∞1y2√ϕα,σ2 (t)dt = α.=y exp − 2 dy + α2σσ 2π −∞−∞41Здесь интеграл от плотности нормального распределения равен единице, а предпоследний интеграл равен нулю, так как в нем интегрируется нечетная функция.Предположим теперь, что случайная величина X имеет функцию распределениясмешанного типаFX (y) = αF1 (y) + βF2 (y),где α + β = 1, α ≥ 0, β ≥ 0, F1 (y) — абсолютно непрерывная функция распределения,имеющая плотность f (t), а F2 (y) — дискретная функция распределения, имеющаяскачки величиной p1 , p2 , .
. . в точках y1 , y2 , . . . .Тогда, по определению,Z∞EX = αtf (t)dt + β−∞∞Xyk pk ,k=1если только абсолютно сходятся участвующие здесь интеграл и сумма ряда.В ряде случаев возникает задача нахождения математического ожидания некоторой функции g(X) от случайной величины (или функции g(X1 , X2 , . . .
, Xn ) отнескольких случайных величин), при этом изначально известным является толькораспределение X. Для того чтобы применить данное выше определение математического ожидания, нам сначала следовало бы найти распределение случайной величины g(X), а потом воспользоваться им для вычисления Eg(X).Оказывается, все можно сделать проще.Если случайная величина X дискретна и принимает возможные значения y1 , y2 , .
. .,то g(X) также будет дискретной со значениями g(y1 ), g(y2 ), . . . (среди них могут бытьповторяющиеся) иXP(X = yi ).P(g(X) = g(yk )) =i: g(yi )=g(yk )ПоэтомуEg(X) =Xg(yk )P(g(X) = g(yk )) =Xg(yi )P(X = yi ),ikт. е. в итоге мы воспользовались распределением исходной случайной величины X.Так же дело обстоит и в случае абсолютно непрерывного распределения X. Имеетместо формулаZZ∞Eg(X) =∞tfg(X) (t)dt =−∞g(t)fX (t)dt.−∞Разумеется, в ней первый интеграл может быть записан только если распределениеg(X) обладает плотностью, для использования второго интеграла наличие плотностиу g(X) не обязательно. Интуитивно эта формула понятна: мы усредняем значенияслучайной величины g(X), которые имеют вид g(t), где t — значение для X.