XVIII Волков И.К., Зуев СМ., Цветкова Г.М. Случайные процессы (1081434), страница 29
Текст из файла (страница 29)
Из теории матриц известно [1У], что существует квадратная невырожденная матрица 33 Е Лч„(Гх), такая, что Г= 3333 . Введем в рассмотрение о-мерный случайный процесс г(1,ы) =13 'С(1,и), 1Е Т, который также является белым шумом. Действительно, М[г(1, ~о)) = 13 'М[С(1, м)) = О, 1 Е Т, Ке(1„1,)=М[33-'~(1,.)(13-'~(1, ))')=13-'К,(1„1,)Р-')'= = 2иб(1з — 11)13 Г(13 ) = 2яб(1я — 11)1„, 8ы 1з Е Т, 236 7. СТОХАСТИЧЕСКИЕ МОДЕЛИ СОСТОЯНИЯ Полагая ~„= оо (т.е. Т = [О, оо) ), заключаем, что случайный процесс е(8,еэ), 8 Е [О, со), в классе обобщенных функций (см. пример 4.4) можно рассматривать как производную и-мерного винеровского процесса ев(8,м), 1 б Т, с коэффициентом диффузии оз = 1.
Таким образом, ((~,ы) =~3 ', 8 Е Т= [О,оо). йи(й, ы) д1 Полагая в (7.4), что В(Х,о,~) = В.(Х,о,1)17, приходим к следующей стохастической модели состояния: (' ) =А(нХ,,~)+В(Х,,~) Й ' (7.6) Х(О,еэ) = Хо(ы). Выше доказано (см. пример 4.4), что винеровский праце~~ не является дифференцируемым в смысле сходимости в среднем квадратичном.
Поэтому для корректности представления стохастической модели со~таяния (7.6) используем следующую форму записи: с дХ(1,еэ) = А(Х,о,~) д1+ В(Х,огайо(1,еэ), (7.7) Х (О,еэ) = Хо(еэ), поскольку винеровский процес~ имеет непрерывные траектории в смысле среднего квадратичного*. Заметим, что при изложении элементов стохастического анализа мы не ввели понятия стохастического дифференциала и восполним этот пробел лишь в 7.3. А здесь будем считать, что дифференциал случайного процесса — главная линейная часть его приращения в смысле среднего квадратичного, и от дальнейших комментариев воздержимся.
'Сые Вентчель А.Д., а также Пуеинее В.С., Синицын И.Н. 7.3. Линейные стехьстичесиие дифференциальные уравнения 237 Стохастические модели состояния (7.6), (7.7) представляют собой задачи Коши для стохастических дифференциальных уравнений, простейшими представителями которых являются линейные стохастические дифференциальные уравнения. 7.2. Линейные стохастические дифференциальные уравнения Исследование нелинейных стохастпических моделей состояния (7.6), (7.7) в общем случае связано со значительными трудностями принципиального характера. Однако оно суще~твенно упрощается, если возможна линеаризация исходной математпической модели, т.е. замена нелинейной стохастической модели со~таяния некоторым ее линейным приближением. Определение 7,1.
Стпохастпической задачей Коши (задачей Коши для системы линейных стохастических дифференциальных уравнений) называют систему уравнений с аХ(й,м) = а(о, й)Х(й,м) ас+ Ь(о,й) йо(С,и), (7.8) Х(0, )=Х.( ), где а(о,С) и ь(о,1) — известные матричные функции типа и х и, зависящие от переменного 1 Е Т = (О, со) и от тп-мерного вектора о параметров; в(1,ы), 1 Е Т, — п-мерный винеровский процесс, выходящий из 0 и имеющий коэффициент диффузии оз = 1; Хе(ш) — и-мерный случайный вектор с известным законом распределения, характеризующий начальное состояние неизвестного и-мерного случайного процесса Х(~,м), 1 е Т.
При дальнейших рассуждениях будем предполагать, что матричные функции а(о,~) и в(о,1) являются непрерывными в промежутке Т = (О, оо). Для любого фиксированного ш 6 Й стохастическая задача Коши (7.8) переходит в задачу Коши для си~темы обыкновенных линейных дифференциальных уравнений. А так как при 238 Т. СТОХАСТИЧЕСКИЕ МОДЕЛИ СОСТОЯНИЯ этом выполнены условия теоремы существования и единственности ее решения, то при любом фиксированном ш Е й задача Коши (7.8) однозначно определяет соответствуюшую реализацию случайного процесса Х(1,и), Ъ Е Т. Пусть Х(Ъ) — фундаментальная матрица решений для нормальной системы обыкновенных дифференциальных уравнений х'(й) = а(о, Ъ) х(Ъ).
Для любого фиксированного а Е $2 решение задачи Коши (7.8) можно записать в следующем виде [ЧИЦ: Х(~,ы) = й(1,0)Хо(м)+ й(1,з)Ъ(о,з)аи~(з,м), ~ > О, (7.9) о где й(1,з) 4 Х '(з) Х(~) — нормированная фундаментальная матрица решений, или реэояьвемпза. Резольвента удовлетворяет матричному уравнению й',(1, з) = а(о, Ъ) й(1, з) и начальному условию й(з,з) = 1„. 8 При этом, если матричные функции а(о,г) и / а(о,з) аз коммуо тативны отно~ительно умножения, то (см. П2) й(е,з) = ехр а(о, г)ат (7ло) Стохастическая задача Коши (7.8) определяет всю совокупность возможных реализаций рассматриваемого случайного процесса Х(1,и), Ъ Е Т. О решении этой задачи можно судить лишь по вероятностным характеристикам и-мерного случайного процесса Х(1,м), 1 Е Т.
Теорема 7.2. Если а(о,й) и Ъ(о,й) — матричные функции типа и х и, непрерывные на промежутке Т = [О, оо), тю(~,ю), 7.2. Линейные стохестнческне дифференциальные уравнения 239 1 Е Т, -- п-мерный винеровский процесс с козффициентом диффузии оз = 1, выходящий из О, а Хо(ю) — п-мерный случайный вектор, распределенный по нормальному закону с математическим озсидаиием тв и ковариационной матрицей Ев, то решение задачи Коши (7.8) является о-мерным нормальным марковским процессом. ~ Воспользовавшись разностной аппроксимацией задачи Коши (7.8), в соответствии с определением винеровского процесса, выходящего из О, при 1 = 0 имеем 1пп — ~Х (Ьй,ю) — [1„+ а(се, 0)21] Хо(ю)— 1 аь-++О ЬЙ вЂ” Ь(о,О) ю(Ь1,ю)) = О, (7.11) а при 1>0 1пп — (Х(1+ яь1,м) — [7„+ а(о,с)сьев] Х(1,ю)— 1 ос-++о ььс — Ь(о, с) [ю(с -(- сьс,ю) — ю(Е,ю)]) = О.
(7.12) А так как в соответствии с определением винеровского процесса для любого Ю > 1 и для любых 1ь Е Т, таких, что 0 < 11 < 1з < « ... 1,ч, случайные векторы ю(1ыю), ю(1з,ю) — ю(1мю), ..., ю(1,ч,ю) — ю(1,ч мю) являются независимыми, то состояние Х(1+ ььс,ю) определяется текущим состоянием Х(1,ю) и значением о-мерного случайного вектора Ь(о, с)(ю(с+ дл,ю) — ю(с,ю)).
При зтом значение указанного вектора не зависит от предыдущих состояний Х(1 — зг,ю), Х(1 — 2сьс,ю) и т.д. Таким образом, если М > 1, 1+кс11Е Т, (с= 2 — Ж, 1, и Х-мерная функция плотности вероятностей и-мерного случайного процесса Х(1,ю), с Е Т, имеет вид ~(х01,х1зР...,х1,ч1) = Ь ~х (х(П, х(з1,..., хр1(С+ (2 — М) ЬС,1+ (3 — Ю)Ь1,...,1+ ьеьс), 240 7. СТОХАСТИЧЕСКИЕ МОДЕЛИ СОСТОЯНИЯ то его условнал функция плотности вероятностей обладает свойстаом ,('(х~и) ~хП),...,х~и П) = ('(х~и~ ~х<и П), т.е. и-мерный случайный процесс Х(1,ы), 1 Е Т, является марковским процессом.
При этом, согласно условиям теоремы и определению винеровского процесса, и-мерные случайные векторы Ха(м), в(Ь1,м), ю(1+ Ьй,м) — чо(1,и) распределены по нормальному закону. Поэтому из (7.11) и (7.12) следует, что все условные и одномерные законы распределения случайного процесса Х(с,м), 1 Е Т, являются нормальными. А так как Х(1,и), 8 Е Т, — марковский процесс, то его 1У-мерная функция плотности вероятностей имеет вид ДхП1,...,х1Н1) = = ~(х1и))х1ч 11) ((х<д~ П (х~и з1)... ((х~з) ) хО)) ~(хВ)), а все его конечномерные законы распределения являются нормальными законами распределения, что и требовалось доказать.
° Если проанализировать доказательство теоремы 7.2, то нетрудно убедиться в том, что в условиях, относящихся к Хе(ы), можно добавить; „илн Хо(м) = Ха — депзерминироваимый (неслучайный) и-мерный векпзор". В этом случае плотность распределения начального состояния является обобщенной (см. П1) и ее можно рассматривать как предельный случай для ~х, плотности распределения случайного вектора Хе(~л), когда его ковариационная матрица Ео -~ 6. Следствие 7.4.
Решение Х(1,м), 1 Е Т, стохастической задачи Коши (7.8) полностью определяется своим математическим ожиданием и ковариационной функцией. М Действительно, решение Х(1,м), 1 Е Т, является и-мерным нормальным марковским процессом. В 7.2. Линейные стохастииесние дифференциальные уравнения 241 Теорема 7.3. Если выполнены условия теоремы 7.2 и случайный процесс Х(1,~ц), 1 б Т, является решением стохастической задачи Коши (7.8), то его математическое ожидание т(1) и ковариационнал функция К(1~,1з) удовлетворяют соотношениям т(с) = В(Й,О) те~ с е Т; (7.13) В (1„1з) Е(1з), 1, > 1з, К(1„1,) = ', ' ' (7.14) Е(Ф,) В'(1з, 1,), 1, < 1„ где л1(с, в) — резольвента нормальной системы линейных дифференциальных уравнений т(1) = а(о,Ь) т(1), то = Л4[Хв(о~)1, 1„1з Е Т = [О, со), а ковариациопная матрица. Е(1) случайного процесса Х(1,м), 1 Е Т, является решением следующей задачи Коши: ЫЕ(1) т т Й = а(се,с)Е(с)+Е(6)а (а,1)+ Ь(а,с)Ь (о,С), (7.15) Е(О) = Е..
~ Решение стохастической задачи Коши (7.8) при каждом фиксированном м Е й может быть представлено в виде (7.9). При атом, как известно из теории линейных дифференциальных уравнений, для любого фиксированного т > О решение задачи Коши (7.8) с использованием резольвенты при 1 > т может быть записано так [ЧП1]: Х(1,м) = Рь(1,т)Х(т,ьл)+ ль(с,в)Ь(о,в) Ию(в,ы). В общем случае интеграл в правой части равенства (7.9) представляет собой интеграл от детерминированной функции Й(с,в)6(о,в) по винеровскому процессу ю(в,м), в Е [О,С]. Так 242 х стОхлстические мОДели сОстОЯниЯ как стохастичесние интеералы по винеровсиому процессу рассматриваются в 7.3, то на данном этапе ограничимся лишь их формальной записью.
Определяя математическое ожидание левой и правой частей (7.9), получаем (7.13), поскольку можно показать, что М(йо(в,м)]— : О при в > О. Доказывая равенство (7.14), можем считать, что то — — О, так как в силу линейности стохастической задачи Коши (7.8) всегда можно перейти к центрированному случайному процессу о Х(1,с ) А Х(1,м) — пг(Ф), 1 > О, имеющему нулевое математическое ожидание при $ > О. Для 1г (1г с учетом предположения о центрированности случайного процесса Х(1,м), 1 > О, имеем К (1г 1г) = М [Х (хг,~") Х (1г,ьг)] = И т1 =м[х~~„, )(в(~„е )хр„)+~ну „,~н,,~~~,, у) ] = и М[Х(11 ы)Х (11 ы)] й (1г 11) + И тг +м[хи„|(~яр„,|ч, )г и, )) ]. и В последней сумме второе слагаемое равно нуль-матрице, поскольку иг(в ы), ей [О 1), не зависит от Х(1„ы) для любых в >1д, а математические ожидания сомножителей в квадратных скобках равны нулю.
Поэтому К(1ы1г) = Е(11) й (1г,1!). Аналогично можно доказать, что при 1г > 1г К(1м1г) = В(йы ~э) Е(йг). 7.2. Линейные етолаетичеекие дифференциальные уравнения 243 Чтобы получить уравнение, которому удовлетворяет ковариационная матрица Е(С), рассмотрим разность Е(С+ Ь) — Е(С) = = М [Х(С+ Ь,ш) Х (С+ Ь,ш)] — М(Х(С,и) Х (С,ш)] = = М((Х(С+ Ь,ьл) — Х(С,ьл)) (Х(С+ Ь,ш) — Х(С,ш)) + +Х(С,ш) (Х(С+Ь,ш) — Х(С,ьл)) + + (Х(С+ Ь, ) — Х(С, ))Х (С,ш)]. Пусть О < Ь ~ 1, Согласно (7.8), при ~СС = Ь с точностью о(Ь) имеем Х(С+ Ь,ьл) — Х(С,ьл) = а(о, С) Х(С,и)Ь+ 6(а, С) ььш(Ь,ш), Ьш(Ь,ш) и ш(С+ Ь,ш) — ш(С,ш). Поэтому Е(С+ Ь) — Е(С) = М[(а(а,С) Х(С,в)Ь+ Ь(о,С) Ьш(Ь,ш)) х х (а(о,С)Х(С,ш)Ь+Ь(о,С)Ьш(Ь,в)) + +Х(С,ш) (а(о,С)Х(С,ш)Ь+6(а,С)ььш(Ь,и)) + + (а(о, С) Х(С,ш)Ь+ Ь(о, С) Ьш(Ь, ш)) Х (С,ш)). А так как Ьш(Ь,ш) не зависит от Х(С,в) н М(ь1ш(Ь,ш)] = О, то Е(С+ Ь) — Е(С) = а(о,С) М(Х(С,ш) Х (С,ш)] а (о,С)Ь~+ +Ь(о,С)М~Ьш(Ь,ш)(Ьш(Ь, )) ]Ь (а,С)+ + М~Х(С,ьл) Х (С,ьл)] а (о, С)Ь+ а(о,С) М(Х(С,ш) Х (С,са)]Ь и для получения окончательного результата достаточно разделить правую и левую части полученного равенства на Ь и перейти к пределу при Ь -+ +О с учетом того, что М~СЬш(Ь,и)(СЬш(Ь,ш)) ] =Ы„, М]Х(С,в)Х (С,ьл)] евЕ(С).