Васюков В.Н. - Теория электрическо связи - Часть 1. Теория сигналов (1275347), страница 4
Текст из файла (страница 4)
Теория случайных процессов представляет собой большой раздел теории вероятностей, который невозможно рассмотреть даже вкратце в пределах этого пособия, поэтому ограничимся лишь некоторыми замечаниями, касающимися применения аппарата линейных пространств для описания случайных величин, которые можно понимать, как отсчёты случайных процессов в некоторый момент времени. Для более полного изучения теории вероятностей и теории случайных процессов следует обратиться к специальным учебникам, например [6].
-
Случайные величины и их характеристики
Случайной величиной называется любая функция, определенная на множестве
. При фиксированном
значение
также фиксировано; оно называется реализацией случайной величины
.
Полное описание случайной величины составляет функция распределения, определяемая через меру . Чаще всего случайная величина принимает значения из поля
вещественных чисел, тогда функция распределения
определяется через вероятность события, состоящего в том, что случайная величина принимает значение, не превосходящее заданного значения
. Функция
называется плотностью распределения вероятности. Очевидно, функция распределения по определению должна быть неотрицательной неубывающей функцией со свойствами
,
. Следовательно, плотность распределения должна быть неотрицательной функцией, удовлетворяющей условию нормировки
.
Иногда нет необходимости использовать полное описание случайной величины, и можно ограничиться её числовыми характеристиками. Чаще всего в качестве таких характеристик выступают так называемые моменты, определяемые следующими выражениями. Начальный момент -го порядка (
-й начальный момент)
где горизонтальная черта и – символические обозначения интегрального оператора усреднения по ансамблю. Наиболее часто используется первый начальный момент
называемый математическим ожиданием, или центром распределения8. Смысл этого понятия становится яснее из физической аналогии: если плотность распределения вероятностей рассматривать, как линейную плотность бесконечно тонкого стержня единичной массы, то математическое ожидание равно координате центра масс стержня.
Центральный момент -го порядка (
-й центральный момент)
равен -му начальному моменту центрированной случайной величины
.
Наиболее употребительным из центральных моментов является дисперсия
В рассмотренном выше механическом примере дисперсии соответствует момент инерции стержня при вращении его вокруг центра масс. Вместо дисперсии часто оперируют величиной, равной , и называемой среднеквадратическим отклонением (СКО) случайной величины.
Еще одной числовой характеристикой является средний квадрат, или второй начальный момент . Нетрудно видеть, что он связан с дисперсией и математическим ожиданием:
Пример 25. В математике и технике часто используется нормальное, или гауссово распределение с ПРВ
где и
– параметры распределения. Подставив эту плотность в и , можно убедиться, что математическое ожидание гауссовской случайной величины равно
, а дисперсия равна
. Таким образом, параметр
имеет смысл СКО и характеризует степень «размазанности» распределения, Рис. 11. ◄
В теории информации используется числовая характеристика распределения случайной величины, называемая энтропией и определяемая выражением
Две случайные величины и
, заданные на общем пространстве
, характеризуются совместной плотностью распределения
. Числовыми характеристиками совместной плотности служат начальные и центральные смешанные моменты
Наибольшее распространение получили смешанные моменты второго порядка – начальный (корреляционный момент)
и центральный (ковариационный момент, или ковариация)
Ковариация характеризует степень статистической (вероятностной) связи случайных величин и
.
Пример 26. Для пары гауссовских случайных величин двумерная совместная ПРВ имеет вид
где ,
– среднеквадратические отклонения,
– математические ожидания,
– коэффициент корреляции, или нормированный ковариационный момент
На Рис. 12,а показана двумерная гауссовская ПРВ при , а на Рис. 12,б – ее отображение линиями уровня. Для сравнения на Рис. 13 показаны линии уровня гауссовской ПРВ при
(а) и
(б). Из рисунков видно, что при положительном коэффициенте корреляции более вероятны близкие значения случайных величин, а при отрицательном – близкие по модулю, но различающиеся по знаку. При нулевом коэффициенте корреляции, очевидно,
т.е. некоррелированные гауссовские случайные величины независимы. Для негауссовских случайных величин некоррелированность не означает независимости, хотя из независимости следует некоррелированность. Таким образом, вообще говоря, независимость – более сильное свойство, чем некоррелированность.
| |
а | б |
Рис. 12. Двумерная гауссовская ПРВ |
Поскольку случайная величина является функцией, на множестве случайных величин можно определить структуру гильбертова пространства. Действительно, случайные величины (как функции на пространстве ) можно складывать, при этом сумма снова будет случайной величиной. Случайные величины можно умножать на скалярные коэффициенты из поля
, причем множество случайных величин замкнуто относительно такого умножения. Справедливость аксиом линейного пространства (разд. 2.3) легко проверяется непосредственно. Таким образом, множество всех вещественных случайных величин можно рассматривать, как линейное пространство над полем
вещественных чисел (аналогично можно ввести пространство комплексных случайных величин над полем
комплексных чисел и т.д.). Дальнейшее усовершенствование структуры пространства связано с введением нормы, метрики и скалярного произведения. Для того, чтобы пространство было гильбертовым, необходимо, чтобы норма порождалась скалярным произведением, а метрика – нормой [2]. Операцию скалярного умножения определим для вещественных случайных величин
и
, как смешанный момент второго порядка (корреляционный момент)
Проверим выполнение аксиом скалярного произведения (см. разд. 2.3).
Из очевидно выполнение равенства .
Проверка выполнения условия может быть произведена непосредственно:
Здесь – совместная плотность трёх случайных величин, которая при интегрировании по одному из аргументов даёт совместную плотность оставшихся двух случайных величин, например
.
Третье условие, очевидно, выполняется: , поскольку
– не что иное, как средний квадрат, неотрицательный по определению. Равенство нулю среднего квадрата (как второго начального момента плотности) возможно только в том случае, если вся «масса» сосредоточена в точке
. Таким образом, роль нулевого вектора в рассматриваемом пространстве играет случайная величина, которая принимает значение 0 с вероятностью 1.
Норма определяется, как , а через норму задается метрика
Итак, множество случайных величин, определенных на общем пространстве элементарных событий, может быть снабжено структурой гильбертова пространства. В частности, если две величины имеют нулевой корреляционный момент, то они называются ортогональными. К такому пространству применимы все ранее введенные понятия, такие, как базис, ортонормальный базис, ортогонализация Грама – Шмидта, равенство Парсеваля и т.п.
В следующем примере предполагается, что математическое ожидание случайных величин равно нулю, тогда средний квадрат совпадает с дисперсией, а корреляционный момент – с ковариационным (вторым смешанным центральным моментом).
Пример 27. Задача оптимальной фильтрации состоит в том, чтобы по наблюдаемому сигналу наилучшим образом оценить полезный (случайный) сигнал
. И наблюдаемый, и полезный сигналы здесь будем понимать, как наборы случайных величин – отсчетов сигнала (их множество может быть несчетным, т.е. сплошным). Оптимальный линейный фильтр – это линейный оператор
, вырабатывающий оценку, такую, что дисперсия ошибки оценивания
минимальна.
Результат воздействия на сигнал линейного оператора – это, нестрого говоря, линейная комбинация всех отсчетов сигнала. Поэтому оценка принадлежит линейной оболочке отсчетов сигнала
, или подпространству, натянутому на эти отсчеты. Полезный сигнал
лежит вне этого подпространства, Рис. 14.
Из геометрических соображений ясно, что дисперсия ошибки оценивания (норма ошибки) будет минимальна в том случае, если вектор ошибки будет ортогонален этому подпространству (ошибка некоррелирована с наблюдаемым сигналом во все моменты времени), отсюда условие оптимальности оператора
Учитывая, что линейный оператор выражается интегралом, для оптимальной линейной оценки получаем
где – весовая функция (ядро оператора), имеющая смысл отклика фильтра в момент времени
на значение наблюдаемого сигнала в момент
,
– переменная, имеющая размерность времени. Раскрывая скобки и выполняя усреднение, получаем
откуда следует уравнение Винера-Хопфа
где – смешанный момент отсчетов случайного процесса
в моменты времени
и
, называемый функцией автокорреляции процесса
, а
смешанный момент отсчетов различных процессов, называемый функцией взаимной корреляции процессов
и
.