Чемоданов. Математические основы теории автоматического регулирования. Том 2 (952249), страница 60
Текст из файла (страница 60)
12* » 2. Неслучайную латрицу можно выносить за знак операции определения математического ожиданйя, т. е. М [АХ1 = АМ [Х), (28) где А — матрица с неслучайными элементами. 3. Математическое ожидание суллы случайных веклюров равно сумме математических ожиданий этих векторов, т. е. ! 1~1 М[Х1+Хь)=М[ХД+М[Хь1, (29) где Х, и Х,— случайные векторы одинакового размера. Теперь рассмотрим моменты второго порядка. Пусть имеем две случайные велячины Х~ и Х.. Вычислим смешанный центральный момент второго порядка для этих случайных величин. Согласно равенству (24) имеем р,,=М[Х;ХД.
(30) Смешанный центральный момент второго порядка случайных величин Х~ и Х~ называется корреляционным моментом. Корреляционный момент для случайных величин Х, и Хз обозначают Ку и вычисляют по формуле р,,=к„=м [Х2ХУ1= (х~ — М [ХД) (х — М [ХД) ) (хь хД йх~ йхп (31) где ~(хи хт) — двумерная платность распределения вероятностей случайного вектора Хт =[Х~ХД. Свойства корреляционного момента К Корреляционный момент для одной и той же случайной величины равен дисперсии втой случайной величины, т. е.
к; ю[х ]. (32) Действительно, Ки М [(Х~ М [ХД) (Ху М [Х~Ц М [(Х3ь) гз [ХД ° 2. Корреляционный момент двух случайных величин Х~ и Хт не зависит от пюго, в каком порядке берутся эти случайные величины, т. е. (33) Ку = Кп. Действительно, имеем к;=м[ихл=м[х'х;)=к . ° 8.
Корреляционный момент для двух независимых случайных величин Х~ и Х~ равен нулю: Ки=О, (34) если Х, и Х~ независимы. ! збо Действительно, в этом случае имеем [ц(хн х,) =[;(х~) 7,(хт), где )Н(хь х.) — двумерная плотность распределения вероятностей случайного вектора Хт =[Х;Х7]; Д(х„) и [7(х7) — одномерные плотности распределения вероятностей случайных величин Х~ и Хр В результате получим КН вЂ” — ~ ~ (х~ — М[ХД)(х~ — И[ХА, (хь х)йх,дх 00 00 (х~™[ХО])~ю(х,)г]х, ) (хг — М[ХД)[~(х~)Нхн но (38) $ (х~ — М[Х,Э[р(хдг]х,= 00 = ] х,[(х1)дх; — М[Х,] ~ 7,(х,) ]х,=М[Х,] — М[Х,.] — (], т.
е. равенство (34) справедливо. ° Из этого свойства следует, что корреляционный момент харак- теризует связь между случайными величинами. Однако в общем случае было бы неверно утверждать, что если корреляционный мо- мент случайных величин Х~ и Х] равен нулю, то они независимы. Случайные величины, корреляционный момент которых равен нулю, называют некоррелированными, в противном случае эти величины называются коррелированными. 4„Для корреляционного момента еправеоливо равенство ~Кв]~ ~/Ю[Х~],0[Х7].
(35) При К» = О неравенство (35) справедливо. Предположим теперь, что КнчьО. Рассмотрим равенство М [(Х7 — ЛХ7)е] = М [(Х7)е — 2ЛХ;Х;. + Лв(Х";)'] = = М [(Х7)е] — 2ЛМ [Х7Х0]+ ЛаМ [(Х])'] = =]2[Х;] — 2ЛК +ЛЧ7(Х ). (35) Выражение, стоящее в левой части этого равенства, неотрица- тельно при любом Л как математическое ожидание квадрата слу- чайной величины. Положим Л= —, в результате имеем В ]Х,] Кц Э 2Ю (Хй Кн (Ю ]Х;])0.0 (Х]] Р[Х~] — К + Ц, ~ 8/ Умножая выражение (37) на — ", получим ]з х — КЬ+,О[Х ]В[ХАМ О, откуда следует справедливость равенства (35).
° Кроме корреляционного момента двух случайных величин, для характеристики связи случайных величин Х, и Х, введем безразмерный коэффициент гу, равный отношению корреляционного момента случайных величин Х~ и Х7 к положительному значению квадратного корня из произведения дисперсий этих случайных величин. Этот коэффициент называется коэффициентом, корреляции случайных величин Х~ и Хг,' т. е. Ку (39) 1/в(Х;1 Р(хг) где а, и а.— средние квадратические отклонения случайных величин Х; й Х-. Из свойств корреляционного момента непосредственно вытекают следующие свойства коэффициента корреляции: гя=1 если Х„и Х7 — независимые случайные величины.
Между корреляционным моментом н начальным моментом второго порядка справедливо соотношение Ку = М [Х ЯД = М [(Х~ — М [Хф (Хт — М [Х.и = = М [Х;Х ~ — М [Х,1 М [Х ) — М [Х;) М [Хг1 + +М[ХДМ[хг1=-ау — очао (44) Рассмотрим случайный вектор Хс координатами Х„Х„..., Х„. Матрица К, составленная из корреляционных моментов для всех координат этого случайного вектора: Кп К "К„ К= " " '" '" =М[Л (Л")'1=[м[Х;-Х711, (45) Кп1 Кла ° ° ° Кла называется корреляционной магприцей случайного вектора Х.
Из равенства (33) следует, что Ку=Кл, т. е. матрица К является симметричной: К" =К. (46) Пусть выполняется линейное преобразование случайного вектора Х, задаваемое в некотором базисе матрицей (7, т. е. У=ВХ. (47) го =гл, !гу!~1, го=О, (40) (41) (42) (43) Выясним, как изменяется корреляционная матрица Кх случай- ного вектора Х при этом преобразовании. Имеем К Км "Кьл К22 К22 . - К2л [КьЛ [М [Хь!Х/11. (48) ' Кк= Клк Клв" К Вычислим корреляционную матрицу случайного вектора Г= ВХ. Воспользовавшись правилом умножения матриц (см. $1), получим г л л к,-!в!к!к!!!-[м[я ь,„х'. т.
ь х;цль=. ! ь=! г ьэ Г л ьь -[м[~ т ь ььх.х]]=[т, т, ь,„ь„м!х„хь!]- ль=! ь=! =! 2-! л л - т. т. м.ьь,к.,]-вк,в, где Ььт — элементы матрицы В. Таким образом, при линейном преобразовании (47) случайного вектора Х корреляционная матрица его образа )х равна К =ВК В'. (49) 4. Комплексные случайные величины. Случайная величина вида ~=Х+)У, (50) где Х и 1' — одномерные действительные случайные величины, называется комплексной случайной ееличиной. Чтобы полностью охарактеризовать комплексную случайную величину, необходимо задать двумерную функцию распределения ее действительной и мнимой частей, с (х, у) = Р (Х м.. х, У ~ у). (51) Математическим ожиданием комплексной случайной величины называется выражение ИД=И[Х)+)М[Ц. (52) Для математического ожидания комплексной случайной величины справедливы все ранее доказанные свойства (12), (!3), (14) и (16) математического ожидания действительной случайной величины.
Центрироеанной комплексной случайной ееличиной является случайная Величина (53) Дисперсией комплексной случайной величины У называется математическое ожидание квадрата модуля ее центрированного значения,' т. е. Р[к)=м[~г ~1=М[ят), (54) 'в л где Я' означает центрированную комплексно-сопряженную случайную величину.
Выразим дисперсию комплексной случайной величины через дисперсии ее действительной и мнимой частей: РЯ=М[)Я'Д=М((Х)'+(У )е)=Р[Х~+Р[У~. (55) Ия равенства (55) следует, что дисперсия комплексной случайной величины есть действительное число, равное сумме дисперсий действительной и мнимой частей комплексной случайной величины.
Корреляционным моментом комплексных случайных величин У, и Ее называется математическое ожидание произведения центрнрованных случайных величин ЕО1 и яь, т. е. Кгг =М[ЕО1Щ (56) ПоНятие корреляционного момента комплексной случайной величины (56) явлется обобщением понятия корреляционного момента действительной случайной величины. В самом деле, если Уев действительная случайная величина, то Уе= Лм тогда имеем Кг,г,=м[Л;ЛД, что совпадает с выражением (3!) для корреляционного момента действительной случайной величины. Распространяя свойство 1 корреляционного момента (32) для действительных случайных величин на комплексные случайные величины, получим ! Рд К =м[гк~, т. е.
мера рассеяния (дисперсия) возможных значений комплексной случайной величины есть действительное число. Именно по этой причине в выражении для корреляционного момента комплексной случайной величины (56) вторая случайная величина берется комплексно-сопряженной. Свойства корреляционного момента комплексной случайной величины 1. Корреляционный момент комплексной случайной величины с самой собой равен дисперсии втой случайной величины, т. е. к = м [л'1. (57) 2.
При перемене порядка индексов корреляционный момент изменяется на комплексно-сопряженный, т. е.- Кг,г, = Кг,г.. ' (56) 3. Модуль карре яционнаго момента двух комплексных случайных величин не превосходит полоскательного значения кеадрат- ного корня от произведения дисперсий мпих случайных величин, и!. е.
! х„„! ~ тр ~г ! ь пд. (69) 4. Дисперсия произведения случайной величины на неслучайный комплексный множитель Л равна произведению квадрата модуля неслучайного множителя на дисперсию этой случайной величины, т. е. И[Ля) =1Л Р В Д. (60) Доказательства справедливости свойств корреляционного момента комплексной случайной величины аналогичны доказательству этих свойств для корреляционного момента действительной случайной величины. й аз. хАРАктеРистические ФунКции 1. Характеристические функции одномерных случайных величин. Характеристической функцией д Я действительной случайной величины Х с плотностью распределения вероятностей 1(х) называется математическое ожидание функции еих, где 1 параметр, т.
с М[в!!х1 ~ еФ'[(х) с1х. (1) Для дискретной случайной величины плотность распределения вероятностей есть линейная комбинация дельта-функций (16) 3 60 и для нее формула (1) принимает вид ! л й(1)=М[е!'х1= ~ч', еIилРм (2) ь-! Сравнивая равенство (1) с преобразованием Фурье (см. з 36), видим, что характеристическая функция есть преобразование по Фурье функции плотности распределения вероятностей, т. е. ' ! й (1) = д1 (1) = ~ 1(х) е-т!-!! йх.
(3) Следовательно, функция плотности распределения вероятностей есть обратное преобразование по Фурье характеристической функции, т. е. м СО ! !( — х)= — зп ~ к(1)е! < "!й[,, (ьА, (4) ! (Ф1 $ Понятие характеристической функции, как показано ниже, несьма полезно при решении целого ряда теоретических и практических задач теории вероятностей. и С в о'й с т ва х а р а к т е р н с т и ч е с к о й ф у н к ц и и 1. Значение характерисгпической фунга(ии при 1=0 равно единице, т. е. у(0) =1. Действительно, у(0)= $ етв ~(х) йх — $ [(х) г(х 1 у 2. Значение модуля характеристической функции не превышает единицы, т. е.
(8) )у(1)! ~1. Учитывая свойства 1 и 4 плотности распределения вероятностей, имеем )у(1)!= $ ед'[(х)йх ~ $ !е/'"//7(х)~йх= ) 1(х)йх=1. И д. Харакпгерисгпическая функция ут (1) суммы двух независимых случайных вели шн Х, и Х, равна произведению характеристических функций уг(1) и д,(1) мпих случайных величин, т. е. й'г (1)=Юг(1)уг(г).
(7) Действительно, так как для веззвисимых случайных величин двумерная функция плотности распределения вероятностей равна произведению одномерных функций плотности распределения вероятностей, то получим дк(1) = М[ег"] = М[ег'гх + хо] М[егги е~гх~]= гс ~ егт-' егт-'4 (х„хе) йх, йхз = = ~ е1'"тг(хг)дхг ~ егт"~,(х,)йх,=дг(хг)д;(х,), 4.