В.И.Тихонов Статистическая радиотехника (2-е издание, 1982) (1092037), страница 12
Текст из файла (страница 12)
Случайные величины $т и $в называютея ортогональными, если т,т = М ДДв) = О, (1,3,76) и независимыми, сели выполняется равенство (1.2.67), т. е. р, (х„х,) = ры (хт) рь (хв). (1.3.77) Между этими условиями еуществуют связи. Наиболее жестким и ограничительным является условие независимости (77). Независи- 61 мость предполагает выполнение равенства (77) для каждого х, и х„в то время как некоррелированность представляет собой только интегральное свойство плотности вероятности рз (х„хз).
Подставляя выражение (77) в правую часть (65), нетрудно убедиться, что для независимых случайных величин рм = О. Следовательно, независимые величины всегда не коррелированы (линейно независимы). Однако обратное утверждение в общем",случае неверно, т. е. некоррелированные случайные величины могут быть зависимыми. Здесь исключение составляют совместно гауссовские случайные величины (с. 69), Утверждение, что некоррелированные величины могут быть зависимыми, базируется на очевидном факте — из равенства ~ (х, — тт) (х, — т,) рз (хы х,) с(х, з(хз = О вовсе не следует соотношение независимости (77).
В подтверждение приведем три примера. Пусть случайные величины й~ и Ез имеют вид 5т=Аоа!п(вз(+ф), $з Арсоз(а,(+фи где Аз и м, — постоянные величины; ф — сдучайная величина, равномерно распределенная в интервале ( — и, и). Нетрудно убедиться, что величины $~ и $з не коррелированы, хотя они являются явно зависимыми, поскольку йз (Аз ц)ыз Предположим, что йт= А з(п(аз г+ф)~ $з=В соя(ыз(+ф), где А и  — независимые случайные величины и ф — случайная величина, равномерно распределенная в интервале ( — и, п~.
Хотя величины $1 и кз связаны очевидной зависимостью аз=В [! — ($1/А)з) '~, однако они не каррелированы. Пусть зависимые случайные величины $, и 5з связаны детерминированной зависимостью 5з=с$ з, где с — постоянный коэффициент; $1 — случайная э величина с нулевым математическим ожиданием и симметричной относительно нуля плотностью вероятности р (х). Тогда при любом четном й корреляционный момент равен нулю: ртт=Мдт(йз — тз))=ей((за+ )= ) х + Р(х)ох=О, хотя свучайные величины $1 и $з связаны жесткой зависимостью. Характеристики нелинейных вероятностных связей можно получить на базе условной плотности вероятности р (х, ( х,). Простейшими из них являются условное математическое ожидание М (йз ~ хг) и .условная дисперсия П ($з ! х,).
Лля некоррелированных случайных величин наклон линии регрессии (74) равен нулю и $з = М ($з), что совпадает о (44). Таким образом, если нлучайные величины не коррелированы, то линейная оценка (или предсказанное значение) $з равна математическому ожиданию самой случайной величины зз и совсем не зависит от знания характеристик другой случайной величины $ы Согласно (69) и (72) зто означает, что если случайные величины не коррелированы, то диеперпию ошибки линейной оценки $а нельзя уменьшить, вычитая нз нее какую бы то ни было линейную функцию эд. Из (75) и (76) следует, что если математическое ожидание хотя бы одной иэ случайных величин равно нулю, то некоррелированноить тождественна ортогональности. Определения (75) — (77) распроатраняютая на несколько случайных величин $„ с„ ..., $„, причем сами величины могут быть вещественными и комплексными.
Говорят, что илучайные величины $„ ..., $„ некоррелированьд, если корреляционные моменты между любьнии двумя из них равны нулю, т. е. если М (Е, ~; « = М (й,« М ( й) «, 1 .— ь 1. (1.3.78) Оии называются ортогональными, если М (Е, Е; « = О, 1~ ). (1.3.79) Здесь звездочка обозначает комплексно-сопряженную величину. Полученным вьппе результатам (71) и (72) можно придать более общий вид,сформулировав их в виде так называемого принципа орпдогональностш постоянные а и Ь, минимизирующие средний квадрат ошибки (69), должны быть такими, чтобы ошибка $а — (а + Ь$д) была ортогональна наблюдению $д и чтобы ее математическое ожидание равнялось нулю: М((эа — и — ЬВд) $;« =О, М «(вд — а — Ь сд)« =О.
(1.380) При этом минимальное значение вреднего квадрата ошибки равно ад м — М (($ — а — Ьсе) с*«. (1.3.81) Легко проверить, что для действительных случайных величин $д и $а эти формулы совпадают соответственно с формулами (71) и (72). 1.4. ГАУССОВСКИЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Непрерывная илучайная величина с называется гарииовиком, если ее плотность вероятности является нормальной, т.
е. даатся формулойе рде т = М (Ц вЂ” математическое ожидание; 0 М(($ — нд)а) — дисперсия случайной величины с. Плотности вероятноити (1) аоответствует характеристическая функция б) («б) = ехр () ндб — — )ада). 1 (1.4.2) э Путем дифференцирования для характеристичеикой функции получаем аоотношение деФ()о) l бд де =~ — — «б)(«б).
(1.4.3) д0" *Приведеннав фуннцвв В (в) нааываетев аауаеовсиой или нормальной. оз (х щ)/т р Р(х) — ( р(у)пу ( е пуе~)( Ф ( х ~ ) (1,1 4) где Ф(х)= ~ е-птее(1 1 )/2п (1.4.5) З -2 -у Ю Х 2 З л Ряс. 1.1!. Нормальная плотность вероятности Л(х) при ел=о и соответствукнцая ей функция распределения Е(х) — интеграл вероятности. Этот интеграл и его первые двадцать производных подробно табулированы П11. Пользуясь соотношениями (П-З), интеграл вероятности можно выразить через другие функции ошибок. Графики плотности вероятности и функции распределения приведены на рио. 1.11. По формуле (1.2.11) находим вероятность того, что гауссовская случайная величина будет заключена в полуинтервале (а, Ь): Р (а ~ $ ~ Ь) = Р (д) — Р (а) = Ф 1 — ) — Ф ( — 11.
(1.4.6) Гаусеовакие случайные величины довольно часто встречаются на практике, поэтому нормальная плотность вероятности играет особую роль среди других законов распределения. В теории вероятностей доказывается ряд так называемых предельных теорем, указывающих условия возникновения тех или иных закономерностей в результате действия большого числа факторов. Среди этих теорем важное место занимает центральная предельная теорема. Пусть (1.4.7) — какая-либо последовательность независимых случайных величин и з„ вЂ” сумма первых и из них зв = вы + аеа + " + аь» Функция распределения гауссовской случайной величины имеет вид Обозначим математическое ожидание и диаперсию этой суммы соответственно через М„и 0„.: М„= и (и„) = М Д,) + и Д,) + ...
+ М Д„), = О (з ) = О (Ы + 1> йе) + -- + О 8 ). Говорят, что к последовательности (7) применима центральная предельная теорема, если при любых х, и х, вероятнопть неравенства х>)~Р„<з„— М„( х,)l О„имеет пределом при п-~. оовеличину — ( е ">Я дх = сР(х,) — Ф (х>), Уйч д хд определяемую нормальной плотностью вероятности. Условия применимости центральной предельной теоремы были уа- тановлены А. М. Ляпуновым, Пусть пв = М ( ( ьв — те„)З+ь), > -~-вл 6) 0 и 9„= с, + пи+ ... + о„. Если отношение 1 = 0„10 стремится к нулю при а -> оо, то к пооледовательноити (7) применима центральная предельная теорема. Отметим, что эти условия осущептвляютвя вспыла чаито. Пувть рап- сматриваемая случайная величина $ предитавляет побой некоторую детерминированную функцию других влучайных величин $м ..., $„> х = ((х„х„..., х„).
(1.4.9) При тщательном рассмотрении физики явлений такая ситуация являет- ся весьма характерной. Например, на чавтоту колебаний генератора передатчика влияют многие случайные факторы (температура окружа- ющей среды, ее влажность, давление, питаюшие напряжения, попто- ронние поля и т. п.). Обозначим номинальные значения этих факторов через хпв Тогда хе = 1(х>е~ хяеэ ° ° ч хее). Разложим функцию ( ( ° ) в итепенной ряд по прирашениям Ах, =х,— в хьч и, считая их малыми, ограничимвя в разложении линейными членами. Получим ч Ьх =х — х, ~ч'„а, Ьхь а, = д~(х,е, х,о,..., х„е)/дхь (1.4:10) 1 Видно, что дестабилизирующие влияния величин х„..., хв на х в первом приближении складываются (и весовыми коэффициентами а„..., а„), хотя в функцию ) ( ° ) они входят произвольным образом. Что касается роли отдельных слагаемых в сумме (10), то если одно из них превалирует над остальными, то обычно стараютпя снизить его влияние в первую очередь.
Например, превалируюшее влияние температуры среды на частоту колебаний передатчика снижают путем термостатирования некоторых элементов автогенератора. для енуссовской елучвйной величины й с мвтематическим ожиданием т в дисперсией 1> спреведливо следующее весьма полееное соотношению 3 звк.' 956 65 бл й) ( (>2)) 1 т П2п (>4) ЗВП 2П ~ пч2л (1.4.11) Здесь д (х) — произвольная функция, М (2 (4)) = ) д (х) р (х) сх (1.4. 1>> — математическое ожидание функции от случайной величины, зависящее от т и О. Докажем сто. Выразив р (х) в (12) через характеристическую функцию сотласно формуле (1.2.23), имеем 1 М(д Я) = ') д(х) — Ф Цб) е !Пас>Ых.
2и В этом равенстве от О зависит только Ф (14)), Дифференцируя равенство и раз по (2 и учитывая соотношение (3), можем написать зл и! (Д (ч)) д(х) — ~ !1 — — ~ Ф()д) е -'о" >(д>(х. и!)л 2н,) '1 2 Но — ( — д')л Ф (!д) е ! од= 1 Р „> 61пр(х) 2н,) и 2П как летко убедитьея 2п-кратным ннтетрированием выраженив (1,2;23) по ю Поэтому дл ~Я (д (>)) 1 ( п2П р(х) пОП 2П ) ив 2> Повторным интетрироваиием по частим получим Г дтл р (Х) (,!2п, (Х) 'д (х) — >(х 1 р (х) лх> 2П ) (2> что и доказывает результат (11). В качестве иллюстрации рассмотрим частный случай л 1: (1.4.13) П>р(х) Н (х) ! Г Пд(х) и (х) д (х) лх=я (х) — ~ — ) — — Пх> их> дх ~,) ~х дх с>д (х) лр (х) >(д (х) ! (> с> 2 (х) — — охлл — р (х) ~ — р (х) Пх.
лх ох >(х ,) лх> Если допустить, что при х ~ лп функция д (х) стремится и бесконечности не очень быстро (например, ! я (х) ! ~сола! ° ехр (х"), а ~ 2), то приведенные выражения будут равны нулю и, таким образом, приходим к равенству (13), При использовании формулы (11) необходимо знать начальное значение М (д ($)) относительно Р. Ясно, что евли Р = О, то $ = п> бб = сопз1 и, следовательно, М(а($)) <о=о-а(т). (1.4.14) Полученная формула (11) позволяет сравнительно просто находить последовательно все более высокие моменты т„= М ($ь) гауссовской случайной величины. Так, полагая д ($) = $з, из (11) и (14) получаем джь(т, Р) Л(й — 1) дР 2 тз,(т, Р), та(т, О)=тз. Следовательно, о ть(т о)= д! ть-з(гп И)Ю+тз.
(1.4.15) й (й — !) о Так как те = 1, то те = 1) + т' и о та = — ~ ((7+ тз) гИ+ та = 3)Оз+ 51)та+ та 4~3 г о и т. д. Аналогично поскольку т, = т, то о т,=З ~ тз(0+тт=ЗТ)т-(-та о и т. д. Поптупая таким же образом, получим рекуррентное соотношение для центральных моментов Рь = М ((й — т)з) о ь — 2 ) Рз-з с(()~ Ро = 1, Рз = О. о Последовательно применяя его, получим Рь= 1 3.5... ()з — 1))зз/з при й четном, (1А.16) О при Ф нечетном. Аналогично можно вычиалить абаолютные центральные моменты и прийти к формуле / 1.3 5...(й — 1) 0"~~ при )з четном, < )/2/л 2а/г! 1)з+згз при й нечетном. В дополнение укажем, что при вычислении моментов гауссовской случайной величины $ можно также воспользоваться равенством и (йп а)) = м (ц и (и Щ + Рм (еп (б)М3), (1А,13) полагая в пем д (я) = з", й 1, 2, 3, „, Это равеаотво легко доказывается для гауссовской случайной величины.
По определению две случайные величины $з н $з называютоя совместно гауссовскими, если их совместная плотноать вероятнопти имеет вид р, (х„х,) = С ехр ( — (ах1 + Ьхзхз + схй + з(хз+ ехз)1, (1А.(й) Зз 67 где квадратичная форма в показателе является положительно полуоп- ределенной: ах( + Ьх2х2 + сх2 + »(х + ех . »0 (1.4.20) для любых х, и х2.