Прокис Дж. Цифровая связь (2000) (1151856), страница 14
Текст из файла (страница 14)
Теперь разложи!и, характеристическую функцию для У в ряд Тейлора. ц~,(у" 1! =1+ уо Е(У)- — ",Е(Уг)+-~~~-"-г — Е(У')-... (2.1.201) хг Так как Е(У) = 0 и Е(У')=1, (2.1.201) упрощается: хг Г уо1 о' 1 хг (..), (2.1.202) дг ~,~/и,) 2п п где А(о,п)/п означает остаток. Заметим, что А(о,п)/и приближается к нулю, когда и — > ганг Подставив (2.1.202) в (2.1.200), получим характеристическую функцию Г в виде 'нг ~ " А(.,.)Т сл р„(у1 ) = ~1- — + 2п и (2.1.2оз),1 м< Взяв натуральный логарифм от (2.1.203), получим Г о' А(о,п)! !пзбг(уэ) = и1п$1- — + 2п п (2. 1.204) вь щ Для малых значений х функцию 1п(1+х) можно представить степенным ряда 2 ~ 3 во 1п(1+х)=х — — х +-х —....
г з ре Подставив это представление в (2.1.204), получим сл ог А(оп) 1~ о. А(о,п)у 1 1п г!г (уэ) = п ан (2. 1. 205) зн Окончательно, когда определим предел при гг-+со, (2.1.205) приводит к 1пп1пу (уо)= — о /2. или, что эквивалентно, 1пп~!гг(уо) = е " '. (2.1.206) т Но это как раз характеристическая функция гауссовской случайной величины нулевым средним и единичной дисперсией. Таким образом, мы имеем важный результаьь. ФПВ суммы статистически независимых и одинаково распределенных случайных величг( с ограниченным средним и дисперсией приближается к гауссовской при и — + с, Эщг, результат известен как гуентральная иредельншг теорема. 'а Хотя мы предположили, что случайные величины в сумме распределены одинаков это предположение можно ослабить при условии, что определенные дополнительнФР г П о у= — ~у,.
(2.1.199) И /и,, О, Так как каждое слагаемое суммы имеет нулевое среднее и единичную дисперсия „ 'нормированная (множителем 1/~/и) величина 1' имеет нулевое среднее и единичнуг в~ дисперсию. Мы хотим определить ИФР для г'в пределе, когда п — + со Характеристическая функция т'равна ограничения вяе же накладываются на свойства случайных суммируемых величин. Имеется одна разновидность теоремы, например когда отказываются от предположения об одинаковом распределении случайных величин в пользу условия, накладываемого на третий абсолютный момент случайных величин суммы.
Для обсуждения этой и других версий центральной предельной теоремы читатель отсылается к книге Крамера (194б). 2.2. СЛУЧАЙНЫЕ ПРОЦЕССЫ Множество случайных явлений, которые имеют место в природе, являются функциями времени. Например, метеорологические явления, такие как случайные флуктуации температуры воздуха и давления воздуха, являются функциями времени. Напряжение теплового шума, создаваемое в резисторах электронных устройств, таких как радиоприемник, также является функцией времени. Подобным образом, сигнал на выходе источника, который выдает информацию, характеризуется как случайный сигнал, меняющийся во времени. Звуковой сигнал который передается в телефонном канале, является примером такого сигнала.
Все это примеры стохастических (случайных) процессов. При изучении систем цифровой связи мы используем случайные процессы для 'характеристики и моделирования сигналов, создаваемых источниками информации, для характеристики каналов связи, используемых для передачи информации, для характеристики шумов, создаваемых в приемнике, и при синтезе оптимального приемника для обработки принимаемого случайного сигнала.
В заданный момент времени г величина случайного процесса, будь то величина напряжения шума в резисторе или амплитуда сигнала, создаваемого звуковым источником, является случайной величиной. Таким образом, мы можем рассматривать случайный процесс как случайную величину; индексируемую параметром к Мы будем обозначать такой процесс Х(~).
Вообще говоря, параметр г непрерывен. в то время как Х может быть или непрерывным или дискретным, в зависимости от характеристик сточника, который создает случайный процесс. Шумовое напряжение, создаваемое единственным резистором, или сообщение, ,'выдаваемое источником информации, представляет единственную реализацию случайного процесса. Поэтому их называют выборочной фуни1ией случайного процесса. Ряд всех возможных выборочных функций, например ряд всех шумовых напряжений, создаваемых 'резисторами, определяют ансамбль выборочных функций или, что эквивалентно, случайный процесс Х® Вообще говоря, число выборочных функций 1реализаций) в 'ансамбле может быть очень большим; часто оно бесконечно.
Определяя случайный процесс Х(г) как ансамбль реализаций, мы можем рассмотреть ' качения процесса в ряде моментов времени гь гз, гз, ..., йь где и — положительное целое чясло. В общем, случайные величины Х, = Х(г,.), 1 = 1, 2, ... п характеризуются статисгически их СФПВ р~х,,х,,...,х ). Все вероятностные соотношения, определенные в разд. 2.1 для многомерных случайных величин, распространяются на случайные величины Х,, 1=1,2,, н. Стационарные случайные процессы. Как указано выше, случайные величины Х„г = 1, 2,, и, полученные из случайного процесса Х(г) для ряда моментов времени ц, ..., г„при некотором и, характеризуется статистически СФПВ р~х, „х,,....х, ). 'зссмотрим другой ряд п случайных величин Х„, = Х(г, +!), 1= 1,2, ..., и, где г— ~роизвольный временной сдвиг, одинаковый для всех 1.
Эти случайные величины 59 характеризуются СФПВ р(х„„х, „,..., х, „,). СФПВ случайных величи~ к Х, и Х„,„1=1,2, ...и, могут быть одинаковыми или нет, Если они одинаковы, т.е если г (2.2.1) , а р(ч'ч '.)= (",-",- '..) для всех / и и, случайный процесс называется стационарным в строгом смысле. Эт~. значит, что статистика стационарного случайного процесса инвариантна к произвольном1 смещению по оси времени. С другой стороны, если СФПВ различны, случайный процео с называют нестационарным.
г в 2.2.1. Статистические средние ~в Так же, как мы определили статистические средние для случайных величин, мы може~ определить статистические средние для случайного процесса. Такие средние такж1 называют средними по ансамблю. Пусть Х(1) определяет случайный процесс и пусз1 ,в Х, = Х(г,.) . Тогда и-й момент случайной величины Х, определяется как Е(Х') = ) «,"р(х, )а'х, (2.2.2) Вообще говоря, значение и-го момента будет зависеть от времени ~ч если ФПВ для Х зависит от ~,. Однако, если процесс стационарен, р(х„,) =р(х,) для всех г, то ФПВ нс зависит от времени и, как следствие и-й момент не зависит от времени. о Далее мы рассмотрим две случайные величины Х~ = Х(г,), 1=1, 2.
Корреляция меяо1 з Хп и Ха измеряется совместным моментом Е(Х, Х, )=) ) х, х, р(х,,х, )с1«чей«,, (2.2.3) и Так как этот совместный момент зависит от выбора ц и гь его обозначают ф(г~,сну Функцию ф(г~,!з) называют автокорреляционной функциегс случайного процесса. Есщ процесс Х(г) стационарен, СФПВ пары (Х,Х,) идентична СФПВ пары (Х,„,Х„„,) длп произвольного к Это означает, что функция автокорреляции Х(г) не зависит от конкретны с значений ~1 и г2 но зависит от их разности г,-6ь Таким образом, для стационарнопл случайного процесса совместный момент (2.2.3) равен Е(Х, Х, ) = ф (1„~ ) = ф(г, — г ) = ф (т), (2,2.4) где т= г1 — ~2 или, что эквивалентно, г1= ~~ — т. Если положить |2= ~~+т, то ф( — т) = Е(Х, Х, „) = Е(Хл Х,,) = ф(т) с Следовательно, ф(т) является четной функцией.
Заметим также, что ф(0)=Е(Х,' определяет среднюю мощность процесса Х(г). а Существуют нестационарные процессы со свойствами: среднее значение процесса н зависит от времени (константа), а функция автокорреляции удовлетворяет услови~ ф(з ~„) = ф(г., -~,). Такие процессы называют стационарными в широком смысле. Следовательн~ 4 стационарность в широком смысле — это менее строгое условие, чем стационарность строгом смысле. Если делается ссылка на стационарный случайный процесс пр последующих обсуждениях, в которых участвуют функции корреляции, то везде имеется виду менее строгое условие (стационарность в широком смысле).
С функцией автокорреляции связана функция автоковариации случайного пронеси бО которая определяется так «(«,,«,)=е~~х, — («фх, — («,))~=ф(г„,«,)- Ц~Ц, (225) Средние для совместных случайных процессов. Пусть Х(1) и У(») — два случайных процесса и пусть Х, и Х(1,.), » =1,2,...,и, и У, «я У(1,), » = 1,2,...,и, представляют случайные величины в моменты 1, >», >», »... »„и 1,' > 1,' > 1,' »... 1„', соответственно. Эти ааа процесса характеризуются статистически их СФПВ р(Х,,Х,,..., х,,уььус,,у, ) ~ля ряда моментов»„ »„...,1„, 1,',1,',...,»„', и для положительных целых значений и и т.
Функ»»ия взаичной (кросс-) карреля»»ии Х(») и У(1), обозначаемая ф (1,,1,), находится как гавместный момент ф„,(1,,1,)=Е(Х,У,,)=~ ) х,у, р(х,,у, )»й,а)ь, (22.8) ~функция взаимных ковариаций Р (1„»,)=ф (1„1,)-т„.(1,)т,(»,). (2.2.9) Когда процессы совместно и индивидуально стационарны, имеем у(»«»к)ф(1«»к)нц(1«»к)$А(1)1к)ВЭтОМСЛУЧас ф (- т) = Е(ХчУ„,~)= Е(Х„,,У») = ф (т) (2.2.10) Случайные процессы Х(1) и У(1) называются статистически иезависг»мьама, если, и олько если р(х„х„,,..,х,,у,„у,„.,.,уе) =р(х„х,,...,х,)р(у,„у„,...,у„) гле и(»,) и т(»з) — средние для Х„и Ха соответственно. Если процесс стационарен, функция автоковариа»1ии упрощается и зависит только от т= 1~-»з: Н(1„»,) = Н(», — »,) = Н( ) = ф(т)— (2.2.6) Совместные моменты более высокого порядка для двух или более случайных величин, полученных из случайного процесса, определятся очевидным образом.
За исключением гауссовского случайного процесса, для которого моменты более высокого порядка можно : выразить через моменты первого и второго порядка, моменты высокого порядка встречаются на практике очень редко. Средние для гауссовских процессов. Предположим, что Х(1) является гауссовским случайным процессом. Следовательно, в момент времени 1=»ь 1=1, 2, ..., и, случайные ~величины Х„, 1=1,2, ..., и, являются совместно гауссовскими со средними значениями «»(»,), »=1, 2, ..., и, и с автоковариациями Р(«о «,) = 4«, «(«)ИХ, ~(«,)~), «( = «, 2, ..
(2.2.7) Если мы обозначим и хи матрицу ковариаций с элементами ц(»ь»») через М и вектор средних значений через»в„тогда СФПВ случайных величин Х,, » = 1, 2, ..., и определяется формулой (2.1.150). Если гауссовский процесс стационарен, то т(1;)=т для всех 1, и 1»(1„~,)= 1»(1;~,).
Гауссовский случайный процесс полностью определяется средними значениями и функцией автокорреляции. Так как совместное гауссовское ФПВ зависит только от этих двух моментов, то следует, что если гауссовский процесс стационарен в широком смысле, он также стационарен в строгом смысле. Конечно, обратное угверждение верно для любого случайного процесса. ф(т) =) ФЯе"~ф. ф~0)=1 Ф0)е=е(х$))О, (2.2.17) Можно видеть, что (2.2.18) Поскольку Ф(0) определяет среднюю мощность случайного сигнала, которая равна плошади под кривой Фф, то Фф определяет распределение мощности как функция частоты.