STOXAST (932351), страница 2
Текст из файла (страница 2)
Однако ее можно рассматривать как компонентувекторной"#x1 (k)марковской последовательности с вектором состояния x (k) где x2 (k+241) = x1 (k), так что получаем следующий аналог уравнения (1.3), обобщение которого на любое число шагов позволяет утверждать, что свойство марковости широко распространено и с его помощью можно моделировать подавляющую часть практически встречающихся случайныхпроцессов"x1 (k + 1)x2 (k + 1)#"=c1 (k), c2 (k)1,0#"1x1 (k)+w(k).x2 (k)0#" #(1.5)Очевидно, получить аналог уравнения (1.5) можно и для случая,когда в уравнении (1.4) используется любое конечное “запаздывание”.Так что марковские последовательности можно использовать для описания широкого круга физических задач.
Марковскую цепь можно использовать для аппроксимации марковской последовательности непрерывно распределенных случайных величин.Пример 1.1. Пусть в результате многолетних наблюдений в данномрайоне найдена следующая матрица вероятностного изменения погодыf1 (k + 1)f2 (k + 1)f3 (k + 1)= 0, 6 0, 3 0, 20, 3 0, 7 0, 50, 1 0, 0 0, 3f1 (k)f2 (k) .f3 (k)При k → ∞, т.е.
если эту матрицу перемножать саму на себя бесконечное число раз, то получится стационарное распределение вероятностей вида: f1 = 0,42, f2 = 0,52, f3 = 0,06.Пример 2. В теории вероятностей широко используется формулаПуассона, которая по существу без изменений может быть перенесенаи на случайные процессы.
Эта формула имеет следующий вид(λt)kPk (t) =exp−λtk!(1.6)и определяет число k появлений случайного события x(t) за промежуток времени (0, t), где λ — некоторая постоянная. При выводе этойформулы предполагается, что случайный процесс является стационарным (т.е. одинаковым во времени), отсутствует последействие (т.е. онне зависит от того, появлялось ли событие до рассматриваемого интервала времени (0, t)) и исключается одновременное появление болееодного события.Формула (1.6) применима в огромном числе технических процессов.Например, ею можно воспользоваться для оценки числа распавшихся атомов радиоактивного вещества за заданный промежуток времени(0, t) или числа отказавших элементов в техническом устройстве, содержащем большое число элементов.5В дифференциальной форме уравнение (1.3), вполне описывающеемарковский процесс, можно переписать в видеẋ1 = c(t)x1 + w(t),(1.7)где w(t) — белый шум, а c(t) — известная функция времени.
Аналогичным образом уравнение (1.4) записывается в видеẍ1 = c1 (t)ẋ1 + c2 (t)x1 + w(t),(1.8)где w(t) — скалярный чисто случайный процесс (белый шум), а ci (t) —известные функции времени. Из уравнения (1.8) формально следует,что случайный процесс x1 (t) не является марковским. В то же времяẋ1 (t) можно рассматривать как компоненту векторного марковскогопроцесса [x1 (t), x2 (t)]T , где x2 = ẋ1 , удовлетворяющего уравнениюd x1=dt x2"#"01c2 (t) c1 (t)#"x10+w(t).x21#" #(1.9)Обобщая сказанное, можно сказать, что любой случайный процесс,описываемый конечным числом производных, можно с помощью замены переменных превратить в эквивалентный ему марковский процесс.По этой причине можно при изучении случайных процессов ограничиться марковскими процессами.Формально для случайного процесса {x(t)} можно в стандартнойформе определить математическое ожидание и дисперсию:ZMx (t) = ntx(t)dF (x, t), Dx (t) = [x(t) − Mx (t)]2 dF (x, t),где интегралы берутся на множестве значений x при каждом t, рассматриваемом как параметр.Mx (t) и Dx (t) могут быть одинаковыми у двух разных процессов, носами эти процессы могут резко различаться: реализации x(t) для одного из них могут быть гладкими, медленно меняющимися, а для другого— негладкими резко изменяющимися.
Зависимость между x(t1 ) и x(t2 )в первом случае оказывается весьма сильной, а во втором — слабой,т.е. корреляционные функцииZrx (t1 , t2 ) = [x(t1 ) − M (t1 )][x(t2 ) − M (t2 )]dF (x(t1 ), x(t2 ))у подобных двух процессов оказываются существенно различными.В случае дискретного времени t = t1 < . . . < tk , t ∈ T , наиболеепростым и поддающимся полному описанию является процесс, длякоторого случайные векторы x(ti ) независимы. Это наводит на мысль,что принципиальных трудностей в описании непрерывного процесса6можно избежать, если ограничиться непрерывными процессами с такназываемыми независимыми приращениями.Говорят, что процесс x(t) имеет независимые приращения, еслидля любых t1 < . . . < tk случайные векторы x(t1 ), x(t2 ) − x(t1 ), . .
.,x(tk ) − x(tk−1 ) независимы. В результате трудно поддающийся исследованию непрерывный случайный процесс аппроксимируется по существу множеством дискретных процессов, каждый из которых состоитиз последовательности независимых случайных векторов, представляющих собой вышеуказанные разности. Если реальный непрерывныйпроцесс допускает подобную аппроксимацию, то его изучение существенно упрощается. Если же в определении процесса с независимыми приращениями переменные являются не независимыми, а всеголишь некоррелированными, то такой процесс называется процессомс некоррелированными или ортогональными приращениями.
Следуетотметить, что многие реальные случайные процессы допускают подобную аппроксимацию.Другим упрощенным типом процессов являются так называемыестационарные случайные процессы, которые характеризуются тем,что при любом τ ∈ T вероятностное распределение последовательности x(t1 ), . . ., x(tk ) таково же, как и последовательности x(t1 + τ ),. . ., x(tk + τ ). Если же для этих двух последовательностей оказываются равными лишь первые и вторые моменты случайных величин (т.е.математическое ожидание и ковариационная функция), то процесс называют слабо стационарным или стационарным в широком смысле.Заметим, что стационарный процесс называется эргодическим, еслипочти для всех ω:Ex(t) =ZΩ1 ZTx(t, ω)dP (ω) = limx(t, ω)dt,T →∞ 2T−Tи процесс называется нормальным (или гауссовым), если совместноераспределение случайных величин x(t1 ), .
. ., x(tk ) является нормальным для каждого k и всех ti ∈ T , i = 1, ..., k. Нормальный процессвполне определяется своим математическим ожиданием mi = Ex(ti ),i = 1, ..., k и ковариациями:44rij = rx (ti , tj ) = cov[x(ti ), x(tj )] = E[x(ti ) − mi ][x(tj ) − mj ]T .Заметим, что для стационарного нормального процесса математическое ожидание постоянно, а ковариационная функция зависит толькоот (s − t).По существу почти во всех задачах теории управления со случайными возмущениями эти случайные возмущения моделируют вине7ровским процессом, или процессом броуновского движения.
Движение “броуновской” частицы происходит под влиянием многочисленных частых столкновений, в связи с чем можно предполагать справедливой центральную предельную теорему, согласно которой движение частицы подчиняется нормальному распределению. Можно такжедопустить, что статистические свойства распределения на интервале(t, t + τ ) такие же, как и на интервале (s, s + τ ), т.е. что на непересекающихся интервалах распределения независимы и трение при движенииотсутствует.
В указанном приближении подобный процесс w(t) можноопределить следующими условиями: 1) w(0) = 0, 2) w(t) — нормальныйпроцесс, 3) Ew(t) = 0 для всех t > 0, 4) процесс имеет независимыестационарные приращения.Однако все же трудно согласиться как с тем, что винеровский процесс является удовлетворительной моделью броуновского движения,так и с тем, что винеровская модель случайного процесса являетсяудовлетворительной моделью случайных возмущений в моделях движения управляемых систем. Основания для подобных сомнений лежатв следующем.Прежде всего, производная dw/dt ("белый шум") от винеровскогослучайного процесса с вероятностью единица всюду бесконечна, т.е.с вероятностью единица броуновская выборочная функция нигде недифференцируема.
(Следовательно, эта функция имеет бесконечнуювариацию, в отличие от функций ограниченной вариации, дифференцируемых почти всюду). Конечно же этот факт, исключающий возможность определения скоростей броуновских частиц, дает основания длясомнения в удовлетворительности этой модели. И хотя броуновскиевыборочные функции в модели непрерывны, локально ведут они себядалеко не регулярно. Это следует уже из того, что дисперсия разностиw(t + h) − w(t) равна c2 h (а такое приращение, как правило, имеетпорядок h1/2 , а не h, как это бывает в случае гладких выборочныхфункций).Убедимся, что корреляционная функция r(t, s) и дисперсия r(t, t)для процессов с независимыми приращениями линейно зависят отвремени.
Для процесса {x(t)} с независимыми или ортогональными(т.е. некоррелированными) приращениями x(t)−x(s) введем в рассмотрение функцию F (t), определяемую через ковариационную функцию:4F (t) = cov[x(t), x(t)] = r(t, t). Если процесс имеет стационарные приращения, т.е. если распределение x(t) − x(s) зависит только от t − s,то и разность F (t) − F (s) (которую в этом случае обозначим черезF1 (t − s)) зависит тоже только от t − s, так что F1 (t − s) = F (t) − F (s) иF1 (t) = F (t) − F (0) или F1 (s) = F (s) − F (0), получаем, используя этипоследние равенства:8F1 (t + s) = F1 [(t + 2s) − s] = F (t + 2s) − F (s) = F (t + s) − F (0) =F (t + s) − [F (t) − F1 (t)] = F1 (t) + [F (t + s) − F (t)] =F1 (t) + [F (s) − F (0)] = F1 (t) + F1 (s), 0 ≤ s ≤ t.Однако подобное представление в классе непрерывных функций допускает лишь линейная функция, а следовательно, F1 (t) должна иметьвид F1 (t) = At.Используя свойства ковариационной функции и тот факт, что x(s)−x(t) и x(t) не коррелируют, получаем (при s ≥ t):4r(s, t) = cov[x(s), x(t)] = cov[x(t) + x(s) − x(t), x(t)] =cov[x(t), x(t)] + cov[x(s) − x(t), x(t)] = cov[x(t), x(t)],так как дисперсия суммы двух независимых случайных величин x(s)−x(t) и x(t) равна сумме их дисперсий.Отсюда следует, что ковариационная функция процесса с ортогональными (т.е.