В.И.Тихонов Статистическая радиотехника (1966) (1092040), страница 12
Текст из файла (страница 12)
(3.2.7) Плотности вероятности должны удовлетворять следующим условиям [1): 1) условию положительной определенности )Тг„($ь ..., $„, Г„..., („) > О; 2) условию нормировки ) ... ) )У„($д, ...,$„, (м...,(,)г($ ".т($„=1; (32 ) — оз — го 3) условию симметрии (функции Ф'г($д, ..., $„,,, ..., „) , Г, ..., ( ) являются симметричными относительно своих аргументов, т. е.
не должны изменяться прн любой перестановке аргументов $д, ..., $,); 4) словию согласованности: при любом и (и У 00 со )У ($„...,$.,1„...,(„)= ~ ... ~ (У„($,,...,$.,$.,ь... -, $., (ы ", Г.) д($ ь г " ($. (3.2.5) Ф ормула ( .. о (3.2.5) показывает, что если известна п-мерная плотно «лишнимз ность вероятности (У„, то путем интегрирования ее по аргументам легко находятся все другие плотности вероятности ност . В этой связи можно отметить, что исчерпывающим было бы описание случайного процесса одной плотностью вероятности мак и с максимального порядка, если бы последняя существовала, следст , В вне непрерывности аргумента 1 такого конечного симального порядка не существует.
Однако иногда см. ( .. ) оказывается возможным рассматривать функционал вероятности )У($(1) 1. В слоеную плотность вероятности. Предположим, что нам ведем уел известно значение $,. В общем случае знание чг д которую ин ю информацию о случайной величине $,. Теперь случайная величина $, будет иметь плотность вероятности Чг (1 1 ( (,) (3.2.6) Пг (1 д) На сколько именно увеличилась информация о $, и резугьтате того, что стдала известной реализация $„зависит от конкретных условий. В некоторых случаях информация о $, вообще не прибавляется, какой бы ии оказалась $,. Это значит, что ~'($д, гд~$., гг) =~'д($д, ().
(3.2.8) Как следует из (3.2.6), в данном случае двумерная плотность вероятности равна произведению одномерных плотностей вцзоятности: ~г($д $г дд, гг) = 'мг ($д, ~ ) (У ($ Г )е Эта формулн выражает необходимое и достаточное условие ядезавислмости двух случайных величин $, н $,. В другодз противоположном крайнем случае, когда вельгчины $, л $, связаны функциональной зависимостью, т. е, $, = д($г), зналие величины $, полностью определяет другую случайнусд величину $,. В данном случае двумерная плотность вероятности содержит деляга-функцию: й-,($,, $„(,, У,) = б($, — я($,)) ЯУ,($„(,).
(3Л.)О) ~Чедкду Указанными крайними случаями возможно большое число промежуточных случаев. Формулы (3.2.6) — (3.2.10) можно обобщить на несколько случайных величин. $3. гьАРАКГЕРИСТИЧЕСКИЕ ФУНКЦИИ И ФУНКЦИИ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ Вместо плотностей вероятностей для описания случайного процесса можне задавать характеристические функции. Характерьдстическая функция представляет собой преобразование Фурье отсоотистствующей плотности вероятности: е)„(ид, ..., и„, Г„..., г„) = .—.— 1... 1 Яг,($д, ..., $„, г'„..., У„) ед("' д'+' "+" ) с($д ... д($„. (1,3.1) <угсюда видяо, что характеристическую функцию можно определить как магематическое ожидание экспоненты; 6„(и д, ..., и„д„..., 1,) = (ехр(уид $д + ...
+ уи $,)). (1.3.2) (десь и в дальнейшем угловые скобки обозначают операцию ьдатеггитдческого ожидания или, иначе, операцию статистическогм уср днения (т. е. усреднения по ансамблю реализаций). " В даизгм- записи (Рд(бд, Дд) и В'д(бг, Дг) — и общем случае разные тзуик«1п. и ие одгд и та же фуикпия с измеиеииыми аргументами. Тикая сг~тема . поги ииогдг будет примеиеии и и дильиейгпем. Из формул (3.2.9) и (3.3.2) видно, что характеристическая функция независимых случайных величин равна произведению характеристических функций отдельных величин. Этот результат часто используют при вычислении плотности вероятности суммы независимых случайных величин.
Для характеристических функций также справедливо условие симметрии, а условия нормировки и согласованности принимают соответственно вид В(0,...,9) =1, (333) и 1, г ) В (и„...,п, О, ...,О, 1,, „., 1„). (3.3.4) Иногда вместо плотностей вероятностей рассматривают функции распределения вероятностей. Одномерная функция распределения вероятностей определяет относительную долю значений х«(1,), = 1, 2, „,, )У . оо, меньших некоторой величины $,: Р,(~~,, 1,)= ~ )У,(х, 1>)а1х. (3.3.5) дР«(«ь 1,) д) « (3.3.6) Двумерная функция распределения вероятностей определяется соотношением Е, Е г»(З,, з„1,, 1,) =- ) ) В'»(х„х», 1„1») «(х, а1х«(3.3.7) из которого следует, что д«Г («««з 11 1«) д1«да, (3.3.8) Аналогично определяются другие функции распределения вероятностей.
Так как между функциями ))У„, й„и г'«существует взаимооднозначная связь, то случайный процесс считается определенным на некотором интервале времени, если для любых 1,, ..., 1„из этого интервала заданы или многомерные плотности вероятности ))7„нли характеристические функции О„, или функции распределения вероятностей г"„, Очевидно, что для значений $,, в которых функция гд(5„1«) диффе- ренцируема, справедливо равенство $4, МОМЕНТНЫЕ И КОРРЕЛмЦИОННЫЕ ФУНКЦИИ Хотя полное описание случайного процесса дается многомерными плотностями вероятности, однако в риде случаев целесообразно оперхровать с другими, более простыми характеристиками случайного процесса. Это объясняется несколькими сообраиениямп.
1. Во многих задачах нужно рассматривать преобразование случайных процессов линейными,и нелинейными инерционными системами. Пусть из рассмотрения физической модели источника процесса получены выражения для плотностей вероятностей. Гогда за исключением так называемых марковских процессов и линейного преобразования нормальных процессов нельзя указать метод «пересчета» непосредственно самих плотностей вероятностей при инерционных пр««збразованиях случайных процессов, Эта задача решается приближенно путем пересчета отдельных характеристик случайного процесса, позволяющих в принципе найти плотность вероятности для греобразованного процесса.
2. Предположим, что нам неизвестен физический механизи устройства, создающего процесс. Тогда для выяснения характера случайного процесса необходимо экспериментально определять еоответствующи» плотности вероятности. Экспериментально сравнительно просто можно определить частные характеристики процесса. Эксперимеи1альное же определение самих плотностей вероятностей и большинстве практических случаев оказывается очень слох«ным и дорогостоащим делом. Здесь исключение составляет одномерная нлогиость в«роятности, для определения которой в настоящее время имеются приборы. Однако она не содержит временных характеристик, обычно необходимых для решения практических задач.
3. Имеются часто встречающиеся случайные процессы, плотности вероятности для которых определяются небольшим числом параметров. 4. Ответна ряд практических задач может быть получен из рас.мотрення отдельных, частных характеристик случайного процесса. ~: аналогичьым положением мы часто встречаемся в случае регулярных сигналов. Если, например, синусоидально-модулиров«нное колебание А(1 + т сов(21) з1п(о»1+ Р) воздействует на радиоприемник с амплитудным детектором, та обычно не интересуются знаннаем начальной фазы и рассматривают лишь воспроизведение никона модуляции. 5.
Иногда ограничиваются получением ориентировочных оценок процесса по его отдельным характеристикам, а не точногэ результата, д«ваемого соответствующими плотностями вероятюсти. В качестве характеристик случайного процесса, более простых, о«м плотности вероятности, можно использовать моментные илн ~ орреляциохные функции. Ценным свойством моментных н корреляционных функций является то, что функции более низкого по- 69 рядка несут больше сведений о случайном процессе, чем функции высокого порядка.
Под моментными функциями случайного процесса Ч(1), задан ного на некотором интервале, понимаются функции М,, (1), Мг,г, (11 12) "., Мг,г,." г',((1 12,", 1„), симметричные относительно всех своих аргументов, являющиеся статистическими средними (математическими ожиданиями) произведений М;Л(1)=З (4))=~~ [Р,Д, 1)Л, Мгю га (11 2) (2 ( 1) $ ( 2)) 1 ) $г $2 [[~ 2 (21~ ьа 11~ та)~ ггз1 4432~ М;,гц ... 1„(11, (2, ..., 1,) =($" (11)...$" (1„)) = (3.4.1) =) ...
) й',* ...й„'"[Р„(~,, „~„,г,, ..., 1„) Ц,...4[~а. Момент М;, г,, г„(11, 1„..., 1„), зависящий от п несовпадаюгцих аргументов 1,, 1„..., га, называется и-мерным моментом (г,+г,+ -[-... + 4,)-го порядка. Так, Мг,(1) = ($' (11)), есть одномерный момент ггго порядка, М;,г,(1„(2) = (яг (14)$1 (12)) прн 11+12 есть двумерный момент (1,+г',)-го порядка н т. д. Вместо моментов М;,;,. 1„(11,1„...,1,), называемых начальными, можно рассматривать центральные моменты, которые определяются соотношением (г 1 г ) — ([$ (1 ) — М (г )]гз, [$ (1 ) — М (1 )]'а) = =~...~[~,— М,(1,)]г ...[я„— М,(г.)]" х Х [Р„61, 12,'"., $„,11, ", (.)4[11" Д.. (3.4.2) 91(и)= ) Ега: [[г'1(Ч, =1+~, '— "" —,' ~РВ',(Д,1) [~=1 1)г[с = а-1 м, (г) + 1) ' ', (1'и)'.
(3.4.3) Отсюда следует, что 1 гг' Ггг(и) ~ (3.4. 4) Моментные функции можно также получить из характеристической функции путем ее дифференцирования. Проиллюстрируем это для одномерного случая, На основании определения характеристической функции (3.3.1) и разложения в ряд экспоненты, по- лучим Можно показать, что формулы, аналогичные (3.4.3) и [3.4.4), справедливы и для многомерных моментов Мг,г, .; [2]. Перейдем к определению корреляционных функций, Ко[зреляционные функции К,(1,), К,(11, 1,), Ка(11142, 12), ... опредецяются при помощзг разложения в ряд Маклорена не самой характеристической фуякции, а ее логарифма.