В.Н. Васюков - Теория электрической связи (1266498), страница 18
Текст из файла (страница 18)
СЛУЧАЙНЫЕ ПРОЦЕССЫ108Отметим, что усреднение по ансамблю можно применять к любой функции случайной величины; так, характеристическую функцию можно трактовать как результат усреднения комплексной экспоненты (u) e jux .Центральный момент k -го порядка ( k -й центральный момент)равен k -му начальному моменту центрированной случайной величины ( x m) :M k ( x m)k w( x)dx ( x m)k E{( x m)k } .Наиболее употребительным из центральных моментов являетсявторой центральный момент, или дисперсияD M 2 ( x m)2 w( x)dx ( x m) 2 E{( x m) 2 } .(3.2)В упомянутом выше механическом примере дисперсии соответствует момент инерции стержня при вращении его вокруг центра масс.
Дисперсия тем меньше, чем более сосредоточена «массавероятности» около среднего значения случайной величины (математического ожидания). Вместо дисперсии часто оперируют величиной, равной D и называемой среднеквадратическим отклонением (СКО) случайной величины.Еще одной числовой характеристикой СВ является среднийквадрат, или второй начальный момент m2 x 2 w( x)dx x 2 2 E{x } . Нетрудно видеть, что он связан с дисперсией и математическим ожиданием:D ( x m)2 w( x)dx ( x 2 2mx m2 )w( x)dx m2 2m2 m2 m2 m2 .Пример 3.1. В математике и технике часто используется нормальное, или гауссово (гауссовское), распределение с ПРВw( x) 12e( x m )22 2,1093.1.
Случайные величины и их характеристикигде m и – параметры распределения. Подставив эту плотность в(3.1) и (3.2), можно убедиться, что математическое ожидание гауссовской случайной величины равно m , а дисперсия равна 2 . Таким образом, параметримеет смысл СКО и характеризует степень «размазанности» распределения (рис. 3.1). ◄w(x)1<2mxРис.
3.1. Гауссовские ПРВ при различных значенияхСКОВ теории информации используется числовая характеристикараспределения случайной величины, называемая (дифференциальной) энтропией и определяемая выражениемH ( x) log 21 w( x)log 2 w( x)dx .w( x)Две случайные величины x x( ) и y y ( ) , заданные на общем пространстве, характеризуются совместной плотностьюраспределения w( x, y ) . Числовыми характеристиками совместнойплотности служат начальные и центральные смешанные моменты mkn x k y n w( x, y ) dxdy , M kn ( x mx )k ( y my )n w( x, y ) dxdy , где k и n – произвольные целые положительные числа.3. СЛУЧАЙНЫЕ ПРОЦЕССЫ110Наиболее часто используются смешанные моменты второгопорядка – начальный (корреляционный момент) m11 xyw( x, y ) dx dy k xy(3.3) и центральный (ковариационный момент, или ковариация51) M11 ( x mx )( y m y ) w( x, y ) dx dy Rxy .(3.4) Ковариация представляет собой простейшую характеристику степени статистической (вероятностной) связи случайных величин x и y.Пример 3.2.
Для пары гауссовских случайных величин двумерная совместная ПРВ имеет видw( x1 , x2 ) 121 r21 2e2 ( x m )21 1 2 r ( x1 m1 )( x2 m2 ) ( x2 m2 ) 222(1 r 2 ) 1 2121,где 1 , 2 – среднеквадратические отклонения, m1, m2 – математические ожидания, r – коэффициент корреляции, представляющий собой нормированный ковариационный моментr( x1 m1 )( x2 m2 )Rx1x21 21 2.◄На рис. 3.2, а показана двумерная гауссовская ПРВ при r 0 ,m1 m2 0 , 1 2 , а на рис.
3.2, б – ее отображение линиямиуровня. Для сравнения на рис. 3.3 показаны линии уровня гауссовской ПРВ при r 0.9 (а) и r 0.9 (б). Из рисунков видно, чтопри положительном коэффициенте корреляции двух СВ более вероятны их реализации с близкими значениями, а при отрицательном – с близкими по модулю, но различающимися по знаку. Принулевом коэффициенте корреляции очевидно, чтоw( x1 , x2 ) 5112e1( x m1 )22 1212e2( x m2 )22 22 w( x1 ) w( x2 ) ,В литературе иногда момент, определяемый формулой (3.3), называютковариационным, тогда корреляционным называют момент (3.4).1113.1. Случайные величины и их характеристикиw( x1 , x2 )x2x1x20x1абРис. 3.2.
Двумерная гауссовская ПРВx2x2x1x1абРис. 3.3. Линии уровня двумерной гауссовской ПРВ приr 0,9 (а) и r 0,9 (б)т.е. некоррелированные гауссовские случайные величины независимы (напомним, что совместная ПРВ независимых случайных величин равна произведению их одномерных ПРВ). Для негауссовских случайных величин некоррелированность не означаетнезависимости, хотя из их независимости следует некоррелированность.
Таким образом, вообще говоря, независимость – болеесильное свойство, чем некоррелированность.Поскольку случайная величина является функцией, на множестве случайных величин можно определить структуру гильбертовапространства. Действительно, случайные величины (как функциина пространстве ) можно складывать, при этом сумма снова будет случайной величиной. Случайные величины можно умножатьна скалярные коэффициенты, причем множество случайных величин замкнуто относительно такого умножения. Справедливость3. СЛУЧАЙНЫЕ ПРОЦЕССЫ112аксиом линейного пространства (разд. 2.3) легко проверяется непосредственно.
Таким образом, множество всех вещественных случайных величин, заданных на общем множестве элементарных событий, можно рассматривать как линейное пространство надполем вещественных чисел (аналогично можно ввести пространство комплексных случайных величин над полем комплексных чисел и т.д.). Дальнейшее усовершенствование структуры пространства связано с введением нормы, метрики и скалярногопроизведения. Для того чтобы пространство было гильбертовым,необходимо, чтобы норма порождалась скалярным произведением,а метрика – нормой [2]. Операцию скалярного умножения определим для вещественных случайных величин x и y как смешанныймомент второго порядка (корреляционный момент) ( x, y ) xyw( x, y ) dxdy xy .(3.5) В частности, если две величины имеют нулевой корреляционный момент, то они являются ортогональными.
Проверим выполнение аксиом скалярного произведения.Из (3.5) очевидно выполнение равенства ( x, y) ( y, x) .Проверка выполнения условия ( x y, z ) ( x, z ) ( y, z )может быть произведена непосредственно: ( x y, z ) ( x y ) zw( x, y, z )dxdydz xzw( x, z )dxdz yzw( y, z )dydz xz yz .Здесь w( x, y, z ) – совместная плотность распределения вероятностей трех случайных величин, которая при интегрировании по одному из аргументов дает совместную плотность оставшихся двухслучайных величин52, например w( x, y, z )dx w( y, z ) .Третье условие, очевидно, выполняется: ( x, x) 0 , поскольку( x, x) – не что иное, как средний квадрат, неотрицательный по определению. Равенство нулю среднего квадрата (как второго на52ПРВ, которая получается интегрированием ПРВ большей размерностипо одной или нескольким переменным, называется маргинальной.1133.1.
Случайные величины и их характеристикичального момента) возможно только в том случае, если вся «вероятностная масса» сосредоточена в точке x 0 . Таким образом,роль нулевого вектора в рассматриваемом пространстве играетслучайная величина, которая принимает значение 0 с вероятностью1 (ПРВ такой случайной величины равна ( x) ).Норма случайной величины определяется через скалярное произведение, как x ( x, x) x 2 , а метрика задается через нормуd ( x, y ) x y ( x y)2 .Итак, множество случайных величин, определенных на общемпространстве элементарных событий, становится гильбертовымпространством.
К нему применимы все ранее введенные для гильбертова пространства понятия, такие, как базис, ортонормальныйбазис, ортогонализация Грама – Шмидта, равенство Парсеваля и т.п.В следующем примере предполагается, что математическоеожидание случайных величин равно нулю, тогда средний квадратсовпадает с дисперсией, а корреляционный момент – с ковариационным (вторым смешанным центральным моментом).Пример 3.3. Задача оптимальной фильтрации состоит в том,чтобы по наблюдаемому колебанию z (t ) наилучшим образом оценить полезный (случайный) сигнал x (t ) . И наблюдаемый, и полезный сигналы здесь будем понимать, как наборы случайных величин – отсчетов сигнала (их множество может быть несчетным, т.е.«сплошным»).
Оптимальный линейный фильтр – это линейный , вырабатывающий на основе колебания z (t ) оценку,оператор {}такую, что дисперсия ошибки оценивания [ x(t ) {z(t )}]2 минимальна.Результат воздействия на сигнал[x(t)–{z(t)}]z (t ) линейного оператора – это, нестроx(t)го говоря, линейная комбинация всехотсчетов сигнала. Поэтому оценкапринадлежит линейной оболочке отсче{z(t)}тов сигнала z (t ) , или подпространству, натянутому на эти отсчеты (которые представляют собой случайные Рис. 3.4.
Геометрическаявеличины, т.е. векторы). Полезный сиг- интерпретация принципанал x (t ) в общем случае лежит вне это- оптимального линейногооцениванияго подпространства (рис. 3.4) .3. СЛУЧАЙНЫЕ ПРОЦЕССЫ114Из геометрических соображений ясно, что СКО ошибки оценивания (норма ошибки) будет минимально в том случае, если векторошибки будет ортогонален этому подпространству (ошибка некоррелирована с наблюдаемым сигналом в произвольный моментвремени ), отсюда условие оптимальности оператора[ x(t ) {z (t )}] z ( ) 0 .Учитывая, что линейный оператор выражается интегралом, дляоптимальной линейной оценки получаем x(t ) h(t , )z ( )d z ( ) 0 ,где h(t , ) – весовая функция (ядро оператора), имеющая смыслотклика фильтра в момент времени t на значение наблюдаемогосигнала в момент ;– переменная, имеющая размерность времени.
Раскрывая скобки и выполняя усреднение, получаемx(t ) z ( ) h(t , ) z ( ) z ( ) d 0 ,откуда следует уравнение Винера – Хопфа h(t , )k zz ( , )d k xz (t , ) ,где k zz ( , ) z ( ) z ( ) – второй смешанный момент отсчетов случайного процесса z (t ) в моменты времении , называемыйфункцией автокорреляции процесса z (t ) , а k xz (t , ) x(t ) z ( ) –второй смешанный момент отсчетов различных процессов, называемый функцией взаимной корреляции процессов x (t ) и z (t )(см.
п. 3.2).Характеристика h(t , ) оптимального линейного устройстваоценивания находится, как решение уравнения Винера – Хопфа(подробнее см. разд. 10).◄3.2. СЛУЧАЙНЫЕ ПРОЦЕССЫ И ИХ ОПИСАНИЕВ теории связи большую роль играют случайные процессы, являющиеся математическими моделями как сигналов, так и помех.Случайный процесс – это колебание, принимающее в любой заданный момент времени значение, которое невозможно точно1153.2. Случайные процессы и их описаниепредсказать. Таким образом, можно понимать случайный процесскак упорядоченную последовательность случайных величин, следующих друг за другом в порядке возрастания некоторой переменной (чаще всего времени). Перейти от описания случайной величины к описанию случайного процесса можно, рассматриваясовместные распределения двух значений процесса в различныемоменты времени, трех значений и т.д.