В.И.Тихонов Статистическая радиотехника (2-е издание, 1982) (1092037), страница 39
Текст из файла (страница 39)
(2.5.53) Лля этого нужно воспользоваться формулой (2.2.45) и учесть выражения (38) и (2.2.84). Определим пространственный белый шум. Пространственный белый шум есть однородное случайное поле лл (х, у), имеющее корреляционную функцию Я (Лх, Лу) = (/У,/2)6(Лх, Лу). (2.5.54) Такая запись означает, что рассматриваемое поле в двух сколь угодно близких точках пространства не коррелировано.
Такие поля иногда называют абсолютно случайными или дельтокоррелироеаннымш 195 По формуле (2 4.34) находим спектральную плотность белого шума Я(и„, и„)= —" ~ ~ д (Лх, Лу) е " " д(бх1 Л(Лу). Используя свойство пространственной дельта-функции (1-39), получаем 3 (и„, ие) = Ф,/2 = сопз(. (2.5.55) Спектральная плотность постоянна для любых значений пространственных частот. Отметим, что при моделировании гауссовского белого шума на ЦВМ, а также при аналитическом рассмотрении разнообразных задач, связанных со случайными последовательностями (в частности,а ' предельным переходом от них к непрерывнозначным процессам), вводится понятие дискретного гауссовского белого шума.
Под дискретным гауссовским белым шумом обычно понимают стационарную случайную последовательность независимых случайных величин, каждая из которых имеет одну и ту же нормальную плотность вероятности (как правило, о нулевым математическим ожиданием). Необходимая конкретизапия этого понятия будет дана в последующем там, где это необходимо. 2.6. МАРКОВСКИЕ ПРОЦЕССЫ В радиотехнике и автоматике большую роль играют случайные процессы, получившие название процессов Маркова или процессов без последействия.
Этот класс случайных процессов впервые систематически изучался известным русским математиком А. А. Марковым. Хотя наблюдаемые физические процессы обычно не являются в точности марковскими, однако в большинстве случаев нх можно рассматривать как компоненты векторного марковского процесса, поскольку поведение большинства динамических систем в некоторый момент времени может быть описано конечным набором переменных состояния. Таким путем удается получить ряд конкретных результатов, применяя эффективные математические методы, хорошо разработанные для исследования марковских процессов. Методы теории марковских процессов подробно рассмотрены в Н71.
В данном параграфе кратко изложены основные теоретические сведения и рассмотрены примеры, носящие иллюстративный характер и представляющие самостоятельный интерес. Как и при общей классификации елучайиых процессов, в зависимости от того, непрерывное или дискретное множество есть область значений процесса 9 (г) и область определения параметра г, различают четыре основных вида марковских процессов: марковские цепи (марковский процесс, у которого область значений и область определения — дискретные множества), марковские последовательности (марковский процесс, у которого область значений — непрерывное множество, а область определения — дискретное), дискретный мар- 196 Таблица 2.1 Классифпиацпа цариоасппа процессов ковский процесс (марковский процесп, у которого область значений— дискретное, а область определения — непрерывное множеатво) и непрероынозначносй марковский про1(асс (марковский процесс, область значений и область определения которого — непрерывные множества).
Характер скалярных временных реализаций перечисленных процессов показан в табл. 2.1. Помимо четырех основных видов возможны другие, более сложные процессы марковского типа (171. Марковским процессом называется случайный процесц, для которого при фиксированном $ (и) случайные величины $ (1), 1~ и не зависят от $ (и), з( и. Таким образом, определяющее свойство всех видов марковских процеасов состоит в следующем. Случайный процесс $ (1) является марковским, если для любых н моментов времени 1, < 1, < ... ( 1. из отрезка Ю, Т) условная функция распределения «последнего» значения $ (8„) при фиксированных значениях 5 (1,), $ (1,), ..., $ ((„а) зависит только от $ (1„,), т.
е. при заданных значениях $м $„..., $„ справедливо соотношение (2.6.1) 197 Лля трех моментов времени г; ) 1з ) (ь формула (1) принимает вид Р Ей ((к) < Ь Б (Гь) = ~з з (~у) = Ь) = Р (В (Гг) < Бгй (6) = = ЕД. ° (2,6,2) Поэтому часто говорят, что характерное свойство марковских процессов состоит в следующем: если точно известно состояние марковского процесса в настоящий момент времени (гз), то будущее состояние (при г;) не зависит от прошлого состояния (при Гз).
В качестве определения марковского процесса можно также принять следующее соотношение, имеющее симметричный вид относительно времени: Р($(1~) -$ь $((л)($Л((~)=И= = Р ($ ((;) ( $Л ((з) = ИР ($ (~к) ( $Л (Г~) = Ь~). Такая запись означает, что при фиксированном состоянии процесаа в настоящий момент времени (~ будущее (при Г~) и прошлое (при гц) состояния марковского процесса независимы. Из приведенных определений следует, что для марковских процессов п-мерная плотность вероятности (или функции распределения), которая дает наиболее полное описание любого случайного процесса, может быть представлена в виде и — ! Р 61 йз ° йа) =Р (Фг) П Р (Ь~+~ ~ 5~) (2.6.3) 1=1 Это означает, что любое а-мерное распределение марковского процесса может быть найдено по формуле (3), если известны одномерное распределение процесса и условные плотности вероятности (или вероятности) перехода.
Укажем еше одно общее и важное свойство непрерывных во времени марковских процессов: для них эволюция вероятности перехода Р (ь (г) ~ $5 (г,) = я,) описывается уравнением вида — Р=К Р, (2.6. 4) ш где 2 — некоторый линейный оператор (матрица, дифференциальный оператор и др.).
Это позволяет исследовать статистические характеристики подобных марковских процессов с помощью хорошо разработанных методов решения соответствующих дифференциальных уравнений. Характер начальных и граничных условий для уравнения (4) может быть различным и определяется существом решаемых физических задач.
Рассмотрим способы описания и некоторые методы решения основных задач для указанных четырех видов марковских процессов, Цели Маркова Пусть случайный процесс О (г) может принимать конечное число д' дискретных значений 6„6„..., дк. В некоторые дискретные моменты времени (Г, ( (, ( (, ( ...) значение процесса в зависимости от вме- 198 Р(0,, О„..., 0„)=Р(0,) и Р(О.]0„,) и — — ! Условные вероятности Р (О ]0„~ ) принято называть вероятностяии перехода из состояния О 1 в состояние О и в момент времени (и. Одна из основных задач в теории простых цейей Маркова заключается в следующем.
Пусть задано начальное значение процесса при г и на каждом шаге по времени указан вероятностный закон смены значений процесса между всеми возможными состояниями (т. е. заданы соответствующие вероятности перехода). Каким образом можно найти вероятности различных значений процесса в момент времени 1„) (, и, в частности, при и — со? Введем следующие обозначения для вектора-столбца безусловных и матрицы условных вероятностей: Р(п) = «рь(п)] =«Р(0„= да)]; П(Р, п)=«ига«п, п)] =«Р(О„=да]0, =д;)]; у, 1=1, К; 0<9 <п; п=О, Л~. (2.6.8) (2.6.7) Величина р„(п) есть безусловная вероятность значения Оа на и-м шаге (т. е.
в момент времени 1 = г ), а условная вероятность пз„(р, п) определяет вероятность значения д„при г„, если в более ранний момент времени 1„< г„значение процесса было равно Оь Очевидно, что введенные вероятности неотрицательны и удовлетворяют условию нормировки 199 шательства случая скачкообразно изменяется, т. е. имеют место переходы О -~ О,-~ 0,-~ ..., где 0 = 0 ((„) — значение процесса через и шагов, а О, = 0 (1,) — начальное значение. Предполагается, что вероятностные законы изменения значения случайного процесса на каждом шаге из любого состояния бь 1 = 1, К, в любое другое состояние Оь ] = 1, К, известны. Характерное свойство простой цепи Маркова состоит в том, что вероятность значения пропесса О„в момент времени 1„зависит лишь от того, какое значение имел процесс в непосредственно предшествующий момент времени 1„м и не зависит от значений процесса в более ранние моменты времени, т.
е. Р (О„] О„О„..., О.,) = Р (О„] 0„,). (2,6,6) Можно также ввести определение сложной цепи Маркова порядка т (т- 1), если вероятность нового значения процесса зависит только от т значений, непосредственно ему предшествующих: Р (0„]0,, О„..., 0„1) = Р(0„] О„,..., 0„1). (2.6,6) Так как сложная цепь Маркова порядка т при помощи известной [17, 19] методики может быть сведена к простой цепи Маркова для т-мерного вектора, далее ограничимся рассмотрением только простой цепи.
Для простой цепи Маркова совместные конечномерные вероятности определяются формулой (2.6.10) а вектор-строка вероятностей различных значений процесса опреде- ляется уравнением Р' (а) = Р' (0) П". (2.6.16) Однородная цепь Маркова, для которой вероятности Р (а) = Р не зависят от и, называется стационарной, в противном случае цепь называется нестационсрной. В общем случае вероятности Р, если они существуют, находятся в результате предельного перехода Р = В гп Р (и) (2.6.17) П и называются 4инальными вероятностями Однако если начальные вероятности Р (0) совпадают с соответствующими финальными вероятностямн Р, то цепь Маркова будет стационарной начиная с 1,. Финальные вероятности должны удовлетворять системе К линейных алгебраических уравнений (1 Ит) Р— О (2.6.18) 200 к рд (а) ) О, ~~~~ рь (и) = 1, п = О, У, е=! К и!„((г, п)»0, ~ и!ь(р, и)=1; 1=1, К.
А=! На основании правила полной вероятности для введенных вероятностей (8) можем написать уравнения Маркова Р(п) = П'(р, а) Р(р), (2.6.1 1) П (р„п) = П (р, т) П (т, и), и > т > р ) О. (2.6.12) Расписывая последовательно формулу (12), имеем и — !$ ! П(Р, и)= П П(р,+1, р+с+1). !=а Отсюда видно, что для определения матрицы П(р, и) при всех р ( а достаточно знать последовательность матриц одношаговых вероятностей перехода. С учетом соотношений (7) и (11) — (13) приходим к заключению, что полное вероятностное описание простой цепи Маркова достигается заданием вероятностей начального состояния и последовательности матриц вероятностей перехода. Среди простых цепей Маркова различакп однородные и неоднородные. Однородная цепь характеризуется тем, что вероятности перехода П (1!, и) зависят только от разности аргументов, т.
е. И(н,п) =П(п — 1!), а) р)0. (2.6.14) Обозначим матрицу одношаговых вероятностей перехода И = = П (1). Из (13) следует, что для простой однородной цепи Маркова матрица вероятностей перехода за а шагов равна и-й степени матрицы одношаговых вероятностей перехода И(а) =П", (2.6.!5) где 1 — единичная матрица, и дополнительному условию к ~; р„=1, р,)0, (2.6.19) л=1 В силу условия (10) К уравнений (18) являются линейно-зависимыми.