Сергиенко А.Б. Цифровая обработка сигналов (2002), страница 12
Описание файла
DJVU-файл из архива "Сергиенко А.Б. Цифровая обработка сигналов (2002)", который расположен в категории "". Всё это находится в предмете "цифровая обработка сигналов (цос)" из 8 семестр, которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "книги и методические указания", в предмете "цифровая обработка сигналов" в общих файлах.
Просмотр DJVU-файла онлайн
Распознанный текст из DJVU-файла, 12 - страница
Одномерная плотность вероятности нормальной случайной величины определяется выражением р(х) = — ехр~- —, ( (х- х)т') (1,35) а„чг2к 1, 2о„'. где т, и о,т — соответственно математическое ожидание и дисперсия процесса. На рис. 1.33 приведен график плотности вероятности нормальной случайной величины, построенный согласно (1.35) при т, - 0 и о, = 1. Случайные сигналы г" ег1 (х) = — ) е ' дг.
,(я. Связь между функцией ошибок (1.37) и интегралом вероятности (1.36) выражается с помощью линейных преобразований аргументов функций и их результатов: егг(х) = 2Ф(х«Г2)-1, Ф(х) = — + — ег(~ — ~. 1 1 (х) 2 2 ~ Г2 у' Функция распределения для нормального закона с математическим ожиданием т„и дисперсией и„' выражается через функцию ошибок (1.37) следующим образом: 1 1 (х-т ) Г(х) = — +-ег(~ — ' 2 2 ~ о,.(2,1 ЗАМЕЧАНИЕ В МАТЮКАВ имеется функция егб реализующая формулу (1.37). Есть также функция ег1с, возвращающая значение 1 — ег1(х), и обратная функция егбпю Непосредственно вычислять функциональные характеристики нормального закона распределения можно с помощью функций погщрд( (плотность вероятности), погщса( (функция распределения) и погпппч (обратная функция распределения), входящих в пакет Бгаг!5Г)сз: у погв~х~(х.
в. 519пз); у погпсог1х. Б, 51955); х = погп1пч(у. )5, 519ва): Здесып — математическое ожидание, 51рпа — среднее квадратическое отклонение. Широкое распространение нормального закона распределения в природе объясняется тем, что при суммировании достаточно большого числа равномощных статистически независимых случайных величин, имеющих произвольные плотности распределения вероятности, плотность распределения суммы стремится к нормальной. Это положение носит название центральной предельной теоремы, Весьма полезным для математического анализа свойством нормального распределения является то, что из некоррелированности гауссовых случайных величин следует их статистическая независимость (о разнице между этими понятиями см.
далее в разделе «Корреляционные функции случайных процессовь). Одномерная плотность вероятности и связанные с ней числовые характеристики позволяют получить важную информацию о свойствах случайного процесса. Однако для решения многих задач таких сведений недостаточно, так как они дают вероятностное представление о случайном процессе Х(Г) только в отдельные моменты и ничего не говорят о том, как он изменяется во времени.
Для описания его временных характеристик необходимо использовать корреляционную функцию или привлечь для этого спектральные характеристики случайного процесса. Упомянутые способы описания сдучайных процессов будут рассмотрены далее. Глава 1.
Основы анализа сигналов Корреляционные функции случайных процессов Как отмечалось в разделе «Вероятностные характеристики случайных процессов», одномерной плотности вероятности недостаточно для описания поведения случайного процесса во времени. Гораздо больше сведений можно получить, располагая двумя сечениями случайного процесса в произвольные моменты времени Г, и гз (см. рис. 1.29). Совокупность этих двух сечений образует двумерную случайную величину (Х(г,), Х(г2)), которая описывается двумерной плотностью вероятности р(хь хв гь гз).
Произведение р(хь хэ гн г,)Их,с(х представляет собой вероятность того, что реализация случайного процесса Х(г) в люмент времени ц попадает в бесконечно малый интервал шириной йх, в окрестности хн а в момент времени гг — в бесконечно малый интервал шириной Ихз в окрестности хз: Р(х1 хз г1 гв)их1 ихв =~ 1Х(г1) х~1~ Рйг2) — х2~ »вЂ” йх, йх,) 2 2 ) Естественным обобщением является и-мерное сечение случайного процесса, приводящее к и-мерной плотности вероятности р(хн хэ ..., х„, гн гэ ..., г„). При л -+ о такая функция является исчерпывающей вероятностной характеристикой случайного процесса. Описание свойств случайных процессов с помощью многомерных плотностей вероятности высокой размерности может быть весьма подробным, однако на этом пути часто встречаются серьезные математические трудности.
К счастью, многие задачи, связанные с описанием случайных сигналов, удается решить на основе двумерной плотности вероятности. В частности, задание двумерной плотности вероятности р(хн хэ гн Гг) позволяет определить важную характеристику случайного процесса — его ковариационную функцию К,«„г,) = М(х(г,)х«, ф Согласно этому определению, ковариационная функция случайного процесса Х(г) представляет собой статистически усредненное произведение значений случайной функции Х(г) в моменты времени г, и гь Для каждой реализации случайного процесса произведение х(г,)х(Гз) является некоторым числом. Совокупность реализаций образует множество случайных чисел, распределение которых характеризуется двумерной плотностью вероятности р(хн хэ гн гз).
Если эта плотность вероятности известна, операция усреднения по множеству осуществляется по формуле К (г,,св ) = ~ ( х,х2р(хнхмг1 г2 )~(х~~(хи Часто при анализе случайных процессов основной интерес представляет их флуктуационная составляющая. В таких случаях применяется корреляцианвал функция, представляющая собой статистически усредненное произведение значений цектрированиой случайной функции Х(г) — т„(г) в моменты времени г, и гз: Случайные сигналы А„(г,,г, ) = м([х(г, ) -т„(г, )1[х(г, ) - .(г, )1) = = ~ ~[х(г!)-т„(г!)~[х(г,)-т„(г,)1р(хг,хыг„г,)г/х!г/х, = » (г! (2 ) т». (г! ) гп». (гр ). Корреляционная функция характеризует степень статистической связи тех значений случайного процесса, которые наблюдаются при г - г! и г - гэ При г, - гз - с последнее выражение соответствует определению дисперсии случайного процесса Х(Г) (см.
формулу (1.33)). Следовательно, при совмещении сечений функция корреляции равна дисперсии: Л (г г) — К (г г) т2(г) - г) (г) (1.33) В качестве примера рассчитаем корреляционную функцию гармонического сигнала со случайной равномерно распределенной начальной фазой (см. раздел «Модели случайных процессовь ранее в этой главе). Можно легко убедиться, что данный случайный процесс является г(ентрированным, то есть его математическое ожидание не зависит от времени и равно нулю: 2» 1 т,(х) = /„х(г)р,(гр)гагр = ~ А соз(ю,г + гр) — г/г/г = О. О 2п (1.39) Поэтому ковариационная и корреляционная функции данного процесса совпадают и могут быть найдены следующим образом (поскольку реализации данного случайного процесса представляют собой функции, зависящие от одной случайной величины, для усреднения произведения нет необходимости прибегать к двумерной плотности вероятности — достаточно воспользоваться формулой (1.32), позволяющей произвести усреднение произвольной функции от случайной величины): К,(г„г,) = Кв(г,, г, ) = [х(г,)х(г,)р,(гр)гйр = 2» 1 = ~ А соз(сор Г! + гр) А соз(арг, + гр) — г(гр = 2л А! (Р»1 "1 - — [/- ~ /~ Р, + ~ )+ »р/«»+ /- / .г» - ь !/в»).
2п,2 р2 Здесь в первом слагаемом интегрирование производится по двум периодам функции соз, поэтому данный интеграл равен нулю. Во втором слагаемом подынте- ЗАМЕЧАНИЕ Так сложилосгь что в иностранной литературе используется обратная терминология— К,(г!, Ге) называется корреляционной (согге/айоп), а Я„(г!, Гз) кввариакионной функцией (соуаг!апсе). Во избежание недоразумений об этом следует помнить при работе с зарубежными источниками, Впрочем, при анализе центрированиых (имеющих нулевое математическое ожидание) случайных процессов корреляционная и ковариациоииая функции совпадают.
70 Глава 1. Основы анализа сигналов гральная функция не зависит от переменной интегрирования гв, так что результат интегрирования равен произведению подынтегрального выражения и длины промежутка интегрирования, равной 2к. Окончательно получаем А' Я,(г„г,) = Х,.(г„г,) = — соз(го,(г, -с,)). Как видите, корреляционная функция данного случайного процесса гармониче- ски зависит от расстояния между анализируемыми моментами времени. Прн совпадении момен~он времени г, и ~, мы получаем величину дисперсии случай- ного процесса: А' В (г) = )( (г, г) = —.
(1.41) Некоррелированность и статистическая независимость Если совместно рассматривать две случайные величины Х, и Хи между ними может существовать либо не существовать статистическая связь. Отсутствие такой связи означает, что плотность вероятности одной случайной величины не зависит от того, какое значение принимает другая случайная величина. Двумерная плотность вероятности при этом представляет собой произведение одномерных плотностей: р(хг хз) рг(хг) р2(хз).
м(х,х,) — м(х,) м(х,) ,гв(х,гвгх,~ . (1.42) Можно показать, что ~г1,~ < 1. Предельные значения +1 достигаются, если реализации случайных величин жестко связаны линейным соотношением х, ах, + 6, где а и Ь вЂ” некоторые константы. Знак коэффициента корреляции при этом совпадает со знаком множителя а. Равенство коэффициента корреляции нулю свидетельствует об отсутствии линейной статистической связи между случайными величинами (при этом говорят об их некоррелироеанности). Как видно из (1А2), прн этом математическое ожидание произведения случайных величин равно произведению их математических ожиданий: М(х,хз) М(хг) М(хз).
Легко показать, что из статистической независимости следует некоррелированность случайных величин. Обратное утверждение в общем случае неверно — некоррелированные случайные величины могут быть зависимыми. Это условие называется условием статистической независимости. При наличии статистической связи между случайными величинами статистиче- ские свойства каждой из них зависят от значения, принимаемого другой случай- ной величиной, Эта связь может быть сильной или слабой, линейной или нели- нейной. Мерой линейной статистической связи между случайными величинами является коэффициент корреляции: 71 Случайные сигналы ЗАМЕЧАНИЕ Классическим примером этого является нара случайных величин хг - ссз гр и хг = зга гз, где ег — случайная величина, равномерно распределенная на интервале 0 ...