Тихонов В.И., Харисов В.Н. Статистический анализ и синтез радиотехнических устройств и систем (2004) (1151791), страница 11
Текст из файла (страница 11)
ак„= — 1; .О 3) условию симметрии--функции р„(к, ... х„; г,„..„«,) должны быть симметричны относительно любых псрестшювок аргументов .»„как в (3); 4) условию согласованности; при любом «я<и р (к,., х„,; Г,...., г )= ( " ( Р;,(.»3.
(2.2.1 1) Последнее соотношение показывает, что из и-мерной и. в. всегда можно получить любую и. в. меньшей мерности путем интегрирования первой по «лишним» аргументам. Поэтому молл о сказать, что сл. пр. в общем случае описывается л-мерной п. в. (функцией распределения), и тем детальнее, чем больш~ л. Два случайных процесса, у которых все конечномсрныс функции распределения совпадают, называются эквиваленнгиыми. Описание случайных процессов с помощью п, в, являешься физически более наглядным, чем с помощью функций распределения. Однако математическое оперирование функциями распределения позволяет однообразно охватить разные виды сл.
пр. (дискретных, непрерывных и др.). О~метим, что изучение сл. пр. не сводится полностью к изучению совокупности сл. в., а имеет некоторые принципиальные особенности. Хотя интегрированием и-мерной п. в. сл. пр. но «лишним» аргументам всегда можно найти все другие и. в. меныцей кратности ьч<и, однако само наибольшее значение и для случайного процесса ничем не ограничено.
По-видимому, исчерпывающим было бы описание случайно~о процесса одной и. в. максимального порядка, если бы она существовала. При непрерывном изменении параметра ~ такого конечного максимального порядка в общем случае не существует. Здесь можно указать два частных, цо очень важных и наиболее изученных класса случаиных процессов, для которых л-мерные плотности всроягности р„при л>3 выражаются через двумерные плотности вероятности р,: это гауссовские Я 2.6) и марковские 8 3.1) процессы. Для совместного вероятностного описания двух или нескольких сл. пр.
(например, на входе и выходе системы) вводят совместные функции распределения и плотное~и вероят ности. Так, для двух процессов ~(~) и 11(г) их определяют с помощью следующих соо гношепий: г„„(х„..., х„, у,, ..., у„„~,, ..., г„, г„...„~,'„)= =РД(г,)<х„.... Р(«)<»„, ц(~',)<р„.... г)(~,'„)<г») (2.2.12) 59 Р»» (Х1 "" х». У1. " У ' 21, ", 2„, Р1, ..., Г'„,)1ух1 ...
1(х„1)У 1)у„= — Р(Х1 <»(г,)<х, +12Х1, ..., Х„<»(г„)<х»+11х„, (2.2.13) У1<г)(Р1)<У +ггу ", у ст1(Р )<у +г(У»,), где н, т- — целые неотрицательные числа. Два сл. пр, »(2) и г1 (( ) называются независимбгми, если совокупность значений первого процесса»(21), ..., »(2 ) не зависит от совокупности значений второго процесса 21 (2'1), ..., ц(2„',) при любых г„..., 2„, 21, ..., г,'„. Необходимое и достаточное условие независимости процессов состоит в том, что совместная и.
в. (13) распадается на произведение п. в. каждого из процессов: Р~+~(хг " ~ х» У1 " У~ (2.2. 14) =Р(х,, ..., х„; 2„..., г)Р (у„.„„у; Р1, „,, Р ), Определения функций распределения и плотностей вероятностей распространяются и на случайные поля. Пусть, например, имеется ансамбль реализаций случайного поля»(х, у), полученный для момента времени и Так как в фиксированной точке пространства с координатами (х„у,) значение функции» для разных реализаций есть сл.
в., то можно ввести одномерную функцию распределения случайного поля Г1 (»1; х,, У1) = Р (» (Х1, у, ) с», ) . (2.2.1 5) Если необходимо знать поведение и взаимосвязь значений поля в двух точках пространства (х„у,) и (х„уг), то вводится двумерная функция распределения »'2 (»1»2 Х1~ У1 Х2: У2) =Р (»(Х1, У1) <»1, »(Х2 .У2) с»2). (2.2.1б) Аналогично определяются н-мерные функции распределения. Если в формулах (15), (1б) функции Г1 имеют частные производные по», то можно определить соответствующие плотности вероятности Р1(»1)=дР1(»1', Х1, У1)/д»1» (2.2.17) Рг(»1»г)=З Рг(»1»г, хг у1 хг, уг)/г»113»г. (2.2 18) Для случайных процессов и полей можно ввести условные плотности вероятности.
Так, случайное значение процесса»(21) при известном значении его в другой момент времени»(12)=хг описывается условной и. в. Р(Х1,' 21 ~ К2 гг) Р2 (Х1, Хг', 21 22)1Р1 (Хг,' »2), (2.2.19) ЬО где Р1(~2' ~2)= 1 Р (Х1 х; ~1, ~2)пхг. (2.2.20) Условная п. в. Р(х,; 21 ~ хг; гг) содержит больше (по крайней мере не меньше) сведений о»(21), чем безусловная п, в. Р,(х,; 21). Насколько именно увеличилась информация о»(21) в результате того, что стало известным значение»(гг) =хг, зависит от конкретных условий. В некоторых случаях информации о»(г,) вообще не прибавляется, каким бы ни оказалось значение хг.
Это значит, что Р(х1 гг~хг,' гг) — Р(хг, 21), (2.2.21) а 1 Р„(х„..., х„; 21, ..., 2„)= — ... ехр[ — )(Згхг+ ... +З„Х„Ц х х Ф„()З1, ..., )3„; г„..., 1„) 1(31 ... дЗ„. (2,2.25) б! при этом Рг (Х1, Хг', 11, 22) =Р(хг, 21) Рг (х,; 22). (2.2.22) Эта формула выражает необходимое и достаточное условие независимости значений сл. пр. » (2) в два момента времени и гг. ДлЯ физически Реальных пРоцессов, наблюдаемьгх в системах с конечной памятью, равенства (21) и (22) выполняются в пределе при ~гг — 21~- оэ почти всегда. В другом противоположном крайнем случае, когда разность (22 — 21)- О, физически очевидно, что для непрерывнозначных процессов !ип Р(х„гг~хг; г,)=Ь(хб — хг) и, следовательно, 12 1! Р2 (Х1, Х2,' 11, 22) =Р1 (Хг, 22) Ь (Хг — Хг), (2.2.23) где Ь(х)--дельта-функция. Между этими двумя крайними случаями возможно большое число промежуточных случаев.
Формулы (!9) ... (23) можно обобщить на различные многомерные условные и. в., ко~орые по «левым» переменным должны удовлетворять обычным четырем условиям, В некоторых задачах вместо и. в. предпочтительнее оперировать характеристическими функциями, представляющими собой преобразование Фурье от плотностей вероятностей: Ф„()З1, ..., )3„; 21, ..., 2„)» М(ехр()З1»1+...+13»»„))= (2.2.24) ... ) ехр[)(З1хг+ ...
+З„х„)ЗР„(х„..., х„; » г„) ггх1 ... 1гх„. Из обратного преобразования Фурье по характеристической функции находим и, в. (2.2.26) (2.2.29) где Применительно к одномерному случаю формулы (24) и (25) принимают вид Ф1((З; Г)= ) ехр(3Зх)р(х, Г)с1х, и р,(Х; Г)па — ! ЕХр( — 3ЗХ)Ф,()З; Г)СГЗ. -а р Фп(3З1, .... 3З 1 Г1 "" Гп) ™11+3 п~ Рп«ЗН+ «=1 +-,'3' У ~„~,З„З,+...)= р.п= 1 и и =1+3 1 1(Г )З + 3 2„" 11(Гр Г )З«З +" «=1 2 р, =1 Таким образом, между функцией распределения, плотностью вероятности и характеристической функцией существуют однозначные связи. В качестве характеристик случайных процессов и полей, более простых, чем п, в., можно использовать моментные и корреляционные (кумулянтные) функции.
При этом различают начальные и центральные моментные функции. Под начальными лсолсегспгпы ци функциями сл. пр, г,(Г), заданного на некотором интервале, принимают функции Гпр (Г), Гп.,.. (Г,, Гг), ..., 111;...,,„(Г1, Гг, Гп), симметричные относительно всех своих аргументов, являющиеся математическими ожиданиями соответствующих произведений: пгп,(Г)п МЯ"'(Г)) =) ха р,(х; Г)сГх, (Г! Г2) ~(Ч 1(Г1) и (Г2)1 =ЦХ1 Х 322(Х1, Лг, Г1, Гг)11ХГСГХ2 (2.2.27) Гп р,...,„(Г1, Гг, ", Гп) = М (Я" (21) с,"1(Г2), с п(Г„)) = =,(...) Х| Х2 ...
Х„"Ггп(ХГ, . Хп Г1 " Гр)СГХГ ... С1ГХ«, где р1(1 ( Г <п) — неотрицательные целые числа. Момент И, „„(Г„Г2, ..., Гп), ЗаВИСЯЩИй От П НЕСОВПаДаЮЩИХ аРГУМЕНтОВ Г„Г2, ..., Г„, называешься и-мерным момегспгом (211+ рг+ ... +12„)-го порядка. Вместо начальных моментов можно рассматривать центральные моменты, которые определяются формулой !2, „„(Г„ГГ« ..., Гп) =М ((С(Г,) — 11,(Г,))" ... (Г(Г„) — П21(Г«)1" ) = =3'...3)'Х1 — Гп1(Г1)3п ...
(Хп — тг(Г„)32'- х Х рп(Х,, ..., Х„; Г,, ..., Гп) аГХ1 ... СГХ„. (2.2.28) Если соответствующие моментные функции существуют, то их можно определить путем разложения характеристической функции в ряд Маклорена. Разлагая экспоненту в правой части (24) в ряд Маклорена и беря затем математическое ожидание от каждого члена, получаем 62 — Фп(301 " 3З« Г1 . Гп)19~=91=,..=9п=О 31111( «) р д""-'" '" Фп(301,,3Зп' Г1 "' и)!9,=9„=...=9„=9= дЭ", даг'...ЭЭ". (2.2.30) =(3)р "1' -"" т„,, (Г„..., Гп). Применительно к одномерному случаю формулы (29) и 130) принимают соответственно вид Ф1(3З' Г)=1+ ~' — ()З) ° — Ф1(3З Г))9=9=3 т,(Г).
(2.2.31) «=1 Если интересующие нас моменты существуют, то формула (30) дает простой способ вычисления их путем дифференцирования характеристической функции. При указанном условии справедливо и обратное, а именно по моментам можно восстановить характеристическую функцию согласно (29). Перейдем к определению корреляционных (кумулянтных) функций. корреляционные функции Я1(Г), 3!2(Г,, Гг), Яг(Г,, Гг, Гг), ..., подобно кумулянтам, определяются с помощью разложения в ряд Маклорена не самой характеристической функции, а ее логарифма.
Для многомерного случая формула, аналогичная (1.1.29), имеет вид ! Фп(!З„..., 3Зп; Г,, ..., Гп)=ехр (3,'1„3!1 (Гр) Зр+ ра1 +'- ~ Кг(Г«, Гр)З«З„+'- 5 К,(Г«, Г„, Г,)З«З,З,+ ...).(2.2.92) Из (32) получаем 3311(Г)=д1пФ,()З; Г))дЗ! =, 32А2(Г, Г)=дгФ, (3З, Г)/Г)З2/9=9, 3 ~йг(Г„Г2)=д'!пФ2(3З„)З2; Г„Г2)/дЗ1дЗ2!9 =, =9. (2.2.93) Чтобы получить выражение моментных функций через корреляционные и наоборот, нужно каждый из экспоненциалыгых 62 сомножителей в (32) разложить в ряд Маклорена, перемножить эти ряды, сгруппировать члены и затем сравнить результат с формулой (29). Не приводя здесь громоздких формальных разложений, запишем окончательные формулы, устанавливающие однозначную связь момептцых и корреляционных функций: Еп! зЕ)= !!! (1), гггг! ( !. 12)=лтг(1г, !2)+лс! (1!) гт! (12), тг! ! (Е! Ег Ез)=из(1!.