rpd000003197 (1012246), страница 38
Текст из файла (страница 38)
Заметим, что выборочная оценка m*X(t) , полученная обработкой ограниченного объема реализаций случайного процесса X(t), является случайной величиной, которая асимптотически (при N) сходится к истинному (неслучайному) математическому ожиданию mX(t).
Для описания статистической связи между возможными реализациями случайного процесса X(t) в различные моменты времени используют его корреляционную функцию. Корреляционной функцией R(t1,t2) случайного процесса X(t) называется неслучайная функция двух неслучайных аргументов t1,t2, определяемая следующим образом:
RХ(t1,t2)=M[X(t1) X(t2)],
где
X(t1)= X(t1)- mX(t1),
X(t2)= X(t2)- mX(t2) -
центрированные случайные величины, соответствующие значениям случайного процесса X(t) при t = t1 и t = t2. . То есть корреляционная функция RХ(t1,t2) случайного процесса X(t) есть ни что иное, как взаимный корреляционный момент между случайными величинами X1= X(t1), X2= X(t2).
Корреляционная функция RХ(t1,t2) связана с двумерной плотностью p(X1,t1; X2,t2) вероятностей случайного процесса X(t) следующим соотношением:
По имеющимся реализациям Xi(t), i=1,…,N случайного процесса X(t) оценку R*Х(t1,t2) корреляционной функции RХ(t1,t2) можно рассчитать с помощью следующей формулы:
где m*X(t1), m*X(t2) – выборочные оценки математических ожиданий случайного процесса в моменты времени t1,t2. Выборочная оценка R*Х(t1,t2) корреляционной функции RХ(t1,t2) также обладает следующим асимптотичсеским свойством:
lim R*Х(t1,t2)= RХ(t1,t2)
N)
Если аргументы t1,t2. в корреляционной функции совпадают, то есть t1= t2= t , то из приведенного выше соотношения получаем:
То есть корреляционная функция RХ(t1,t2) при совпадающих аргументах определяет дисперсию DХ(t) случайного процесса X(t) , характеризующую разброс его возможных реализаций относительно математического ожидания.
Корреляционную функцию RХ(t1,t2), отнесенную к произведению Х(t1)Х(t2), где
соответствующие среднеквадратические отклонения, называется нормированной корреляционной функцией:
Очевидно, что при t1= t2= t нормированная корреляционная функция равна единице. Равенство нулю значений RХ(t1,t2) или rХ(t1,t2) указывает на отсутствие статистической связи (корреляции) между возможными реализациями случайного процесса X(t) в моменты времени t1, t2. Как правило, по мере увеличения интервала = t2- t1 корреляция между возможными реализация ми случайного процесса X(t) убывает. Корреляционная функция RХ(t1,t2) при этом меняется от значения DХ(t1) до нуля, а нормированная корреляционная функция rХ(t1,t2) меняется от единицы до нуля (рис. 5.5 )
Исследование случайных процессов на уровне их первых двух моментов (математического ожидания mX(t).и корреляционной функции RХ(t1,t2)) называют корреляционным анализом случайных процессов [23]. В рамках такого корреляционного анализа свойства случайного процесса X(t) описываются исчерпывающе, если этот процесс гауссовский
Корреляционный анализ распространяется и на векторные случайные поля. Если – X(t) векторный случайный процесс с компонентами X1(t), X2(t) ,…., Xn(t), то в рамках корреляционного анализа статистические свойства этого процесса описываются:
1) вектором математических ожиданий
m(t)=( m1(t), m2(t) ,…., mn(t))T,
2) матричной корреляционной функцией размера nxn
RХ(t1,t2)=M[X(t1) XТ(t2)]= [Rij(t1,t2)], i=1,…,n; j=1,…,n],
где X(t1)= X(t1)- mX(t1), X(t2)= X(t2)- mX(t2) – центрированные случайные векторы. Диагональные элементы Rii (t1,t2), i=1,…,n матричной корреляционной функции называют автокорреляционными функциями соответствующих компонент векторного случайного процесса X(t) , внедиагональные Rij(t1,t2), ij – взаимными корреляционными функциями компонент Xi(t), Xj(t) случайного процесса X(t).
При t1= t2= t матричная корреляционная функция RХ(t1,t2) векторного случайного процесса X(t) превращается в его корреляционную матрицу RХ(t) , характеризующую степень статистической связи между компонентами вектора X в момент t.
В рамках корреляционного анализа выделяют ряд специальных типов случайных процессов, из которых наибольший практический интерес представляют стационарные случайные процессы, эргодические случайные процессы, случайные процессы типа “белого шума”.
Стационарный случайный процесс. Случайный процесс X(t) (скалярнный или векторный), у которого математичеcкое ожидание постоянно mX(t)=const, а корреляционная функция RХ(t1,t2) зависит не от самих значений аргументов t1,t2, а от их разности = t2- t1, то есть RХ(t1,t2)= RХ(t2 - t1), называется стационарным случайным процессом. Дисперсия стационарного случайного процесса DХ = RХ(0) – постоянна. Интервал *, за пределами которого корреляционная функция RХ() не превосходит некоторого установленного малого значения, называется временем корреляции случайного процесса. Величина * является простейшей количественной мерой степени коррелированности значений случайного процесса во времени.
Эргодическое свойство стационарных случайных процессов. Ранее отмечалось, определение математического ожидания и корреляционной функции случайного процесса по экспериментальным может быть достигнуто на основе обработки реализаций Xi(t), i=1,…,N случайного процесса X(t). Однако, в некоторых случаях результаты расчетов не изменятся, если в эти формулы подставлять значения X1(ti), одной достаточно длинной реализации случайного процесса X(t) в различные моменты времени ti. Про стационарные случайные процессы, для которых подобная замtна справедлива, говорят, что они обладают эргодическим свойством [23].
То есть, эргодические случайные процессы отличаются тем, что одна единственная достаточно длинная реализация этого процесса несет всю информацию о его статистических свойствах. Иными словами, для эргодического случайного процесса совершенно безразлично, имеет ли место множество реализаций и моментные характеристики определены путем усреднения по этому множеству, или мы располагаем всего одной достаточно длинной реализацией и вероятностные характеристики процесса определены путем усреднения по времени.
С практической точки зрения эргодичность случайного процесса позволяет в ходе экспериментального исследования одного объекта, являющегося источником сигнала, получить полное представление о статистических свойствах всей совокупности подобных объектов. В статистической теории случайных процессов доказано [ ], что необходимым и достаточным условием эргодичности стационарного случайного процесса является выполнение равенства
а достаточным – выполнение более простого условия
Для расчета математического ожидания mX и корреляционной функции RХ() эргодического случайного процесса X(t) используют следующие выражения
где Xi(t)- одна длинная реализация процесса. При проведении практических расчетов приведенные выше интегральные выражения заменяют конечными суммами:
Белый шум. Случайный процесс X(t), значения которого X(t1), X(t2).некоррелированы при скольугодно малом = t2- t1, в рамках корреляционной теории назысвается “белый шум”. Доказано, что некоррелированность значений случайного процесса X(t) при сколь угодно малом = t2- t1 0 возможна лишь тогда, когда его корреляционная RХ(t1,t2) функция имеет вид
RХ(t1,t2)= N(t1) (t2,-t1),
где (t2,-t1)– дельта-функция в точке t= t1. Множитель N(t1) называют интенсивностью белого шума, которая определяется как предел:
У стационарного белого шума интенсивность N постоянна во времени. Если N=1, то стационарный белый шум называют стандартным . Из определения дельта - функции следует, что дисперсия белого шума DХ(t)= RХ(t,t) равна бесконечности. Это означает, что физически процесс типа белого шума не млжет быть реализован и может рассматриваться лишь как удобная в практическитх задачах математическая абстракция.
Векторный белый шум X(t) с компонентами X1(t), X2(t) ,…., Xn(t), характеризуется матрицей интенсивностей N(t)= [Nij(t), i=1,…,n; j=1,…,n]. Диагональные элементы этой матрицы представляют собой интенсивности отдельных компонент векторного белого шума. , а внедиагональные - взаимные интенсивности, характеризующие корреляцию между различными составляющими векторного белого шума в один и тот же момент времени. На практике наиболее часто рассматривают случай, когда составляющие векторного белого шума не коррелированны. В этом случае матрица интенсивностей – диагональная.
11.3. Каноническое разложение случайных процессов. Спектральный анализ случайных процессов.
Достаточно часто на практике для описания случайных процессов используют их представление через сумму случайных процессов простого вида. Один из способов такого представления получил название канонического разложения случайного процесса.
При каноническом разложении случайный процесс представляют в виде:
где mX(t) – математическое ожидание случайного процесса, i(t)- заданные неслучайные функции времени, Vi- коэффициенты, представляющие собой некоррелированные случайные величины с нулевыми математическими ожиданиями и дисперсиями Di. В качестве функций i(t) в канонических разложениях используют семейства ортогональных функций, обладающих следующим свойствами: