Бесекерский В.А. Теория систем автоматического регулирования (1972) (1151987), страница 68
Текст из файла (страница 68)
Таким образом, а = 0,125. По табл. 11.2 определяем путем интерполяции вероятность Ф (а) =. 0,1. Произведем более сложный расчет. Пусть для той же случайной величины необходимо определить вероятность нахождения ев в интервале 11 ( х ( 12. Так как кривая нормального распределения является симметричной относительно среднего значения случайной величины, то искомая вероятность может быть найдена как половина разности вероятности нахождения случайной величины в интервале — 12 ( х ( 12 и вероятности нахождения в интервале — 11 ( х ( 11, т. е. р (11 ( ( 12а Р ( — 12 < х < 12) — Р ( — 11 < х < 11) (х( ).—.
2 или для отклонений Р (11 ( х ( 12) Р ( 2 < А < 2) — Р ( — 1 < Л < 1) 2 20 В. А. Веееверелив, Е П. Поиов 398 случАйиые пРОцессы В системАЕ РегулиРОВАния 1га. ы Перейдя к относительным величинам, получаем в результате искомую вероятность )о (11 12) Ф (0,3) — Ф (О, о) 0,333 — 0307 2 2 Характеристические функции. Введем в рассмотрение функцию д(7)), связанную с плотностью вероятности ю (х) взаимным преобрааовакием Фурье: М(еп')=Р()Ц= ~ ю(х)еО" о(х, (11.23) в(х) = — ~ д())о) е-оь-'о)..
1 ол Эта функция называется характеристической. Ке основные свойства следующие. Коли случайная величина у =- ах-,'- Ь, то йа (У)„) .= опоя, (72 ) (11.24) (11.25) 3'о(Й) =ах(Й) ао(1)") Для нормального закона распределения (11.21) характеристическая функция будет я(у).)= ~ ехр ~))ох —, 1о(х= 1 елр ~)) хо — —,''" ) о(хо — ехр ~у)ох — —, 1. (11.26) о-Р2 з о 2ао ~ о 2 По характеристической функции могут быть найдены моменты случайной величииы. Разлагая д(у)о) и М(еоь*) в первой формуле (11.23) в ряд Маклорена, имеем а(7)) =- Х вЂ”, а'0(9)) '+р., ;=о М(е'"*)=- ч —., М[х')+М(Л„]. (11.27) (11.28) о —.о Из сравнения (11.27) и (11.28) можно получить формулу для момента т-го порядка: М(х") =-7 '"~<">(9).
(11.29) Лналогичным образом можно получить формулу для момента т-го порядка: М((х — х) ) — ! ( — е И" д(1))~ центрального (11.30) Формулы (11.29) и (11.30) могут быть испольаовапы для вычисления моментов. Ксли случайпая величина з=х+у, где х и у — независимые вели- чипы, то случАйнык пгоцкссы $ !!.2) Векторные случайные величины. Пусть имеется совокупность случайныл величин х! (! = 1, 2,..., и). Такая совокупность может быть представлена в виде матрицы-столбца.
Если физические размерности всех величин одинаковы, то матрица-столбец мо2кет быть отождествлена с вектором. При разных размерностях переход к вектору может быть сделан после нормирования (введения весовых коэффициентов). Пусть, например, имеются две непрерывные случайные величины х, и х,. Для них может быть введена двумерная плотность вероятности в2 (х„хз), Если величины х, и хз независимы, то к2 (х„хз) =-- ю! (х,) юз (хз).
Вводится понятие смешанного момента т-го порядка, где вг = о + з, С М[х~х') = ~ ~ хчх'й(х2, хз) 2[х22(хз (И.31) и смешанного центрального момента Г М [(х,— х,) (х2 — хз)']=- ) [ (х,— х!) (х,— х2) и2(х„хз) 2!х! 22хз. (И.32) — М Если д=а =1, то центральный момент второго порядка имеет особое значение и носит название корреляционного момента: Г„=М[(х,— х,) (х2 — хз)[ = ) ') (х,— х,) (хз — х,) ю(х22 хз) 2[х! Ыхз.
(И.33) В случае независимости случайных величин х! и хз можно легко показать, что коРРелЯЦионный момент Г,з =- О. Иногда употребляется понятие коэффициента корреляции, представляю. щего собой относительное значение корреляционного момента: (И.34) где Р! и Рз — дисперсии величин х, и хз. Для совокупности случайных величин х; (1 =1, ..., и) в приближенныл расчетах часто ограничиваются заданием матрицы-столбца (вектора) математических ожиданий х = [[ х! [[ „! и матрицы корреляционных моментов Г, Г„...Г, Г2! Г22 Г22 Гзп (И.35) Г! Г222 Г! Составляющие корреляционной матрицы показывают степень связи между отДельными слУчайными величинами, пРичем Г2! = Г2п На Диагопали коРРеляционной матрицы находятся собственные центральные моменты второго порядка, т, е. дисперсии Р! = Гп (! = 1, ..., и).
5 И.2. Случайные процессы Случайная величина х, изменяющаяся во времени д называется случайным или стохастическим процессом. Случайный процесс не есть определенная кривая х (!), а является множеством возможных кривых х (!), так же как случайная величина не имеет определенного значения, а является совокупностью (множестзом) возможных значений. Мо2кно еще сказать, что случайный процесс есть такая функция времени, значение которой в каждый момент времени является случайной величиной. йИ' 308 случАЙные НРоцессы В системАх Регул яРОВАния (гл. ы Примерами случайных процессов могут, например, являться: координаты самолета, замеряемые радиолокационной станцией; угол визирования движущейся цели головкой самонаведения; помехи в системе телеуправления; нагрузка электрической сети и т. п.
Итак, в случайном процессе кет определенной зависимости л (г). Каждая кривая множества (рис. 11.11) является лишь отдельной реализацией случайного процесса. Никогда нельзя сказать заранее, по какой кривой пойдет процесс. Однако случайный процесс может быть оценен некоторыми вероятностными характеристиками. В каждый отдельный момент времени (го гз, гз,...: рис. 11.11) наблюдаются случайные величины л, = х (8г), хз -— — хйэ), каждая из которых имеет Рис. л1Л1. Рис. 1132. свой закон распределения. Поскольку это — непрерывная случайная величина, то надо пользоваться понятием плотности вероятности.
Обозначим ю (х, г) закон распределения для всех этих отдельных случайных величин. В общем случае он меняется с течением времени. Для каждого данного г в отдельности (1о 1ю 1„...) будет свой закон распределения: ю (хы 1,), ю (хю 8з), ю (х„1з), ..., причем по свойству (11.14) для каждого из них ) ю(т, г) Ох=1. Для каждого заданного момента времени можно найти характеристики случайных величин, определенные в $11.1. В результате будем иметь среднее по множеству (математическое ожидание) х(1) = ) хю(л, г) г(х — ОО (11.36) и дисперсию (11. 37) Среднее значение случайного процесса представляет собой некоторую среднюю кривую (рис.
11.12), около которой группируются все возвюжные отдельные реализации этого процесса, а дисперсия В (1) или среднеквадратичное отклонение о (Г) характеризуют рассеяние отдельных возможных реализаций процесса около этой средней кривой. $ )!.2) случаянык пгоцессы Кроме этих осредненных характеристик х ()) и О (г), которые для каждого данного момента времени являются средними по множеству, введем понятие среднего значения случайной величины х для отдельной реализации случайного процесса х ()), которое определяется из выражения +т —,', (.())~. (И.33) т Переход к пределу здесь необходим для того, чтобы характериаовать не какой-нибудь отдельный участок кривой, а всю воаможную кривую х (г) в целом. Для того чтобы знать связь между возможными значениями случайной функции х (г) в последующие моменты времени со значениями в предыдущие моменты, вводится понятие двумерной плотности вероятности йг (х! )»' хг.
)г) (и!г ~0), смысл которого можно пояснить следующим образом. Вероятность того, что в момент времени г! величина х находится в интервале (хг,х, + Нх!), а в момент времени !г — в интервале (хг, хг + г)х)„будет йг (х), !!', хю гг) г(хггйгг Это есть вероятность того, что кривая х ()) пройдет вблизи двух заданных точек (х» г!) и (х„гг). Вводится также н в-мерная плотность вероятности й!! (х» г!) хг~ )2) хи~ ~в) Воли ее умножить на г)хг, г)хг, ..., Нх„, то зто будет вероятность того, что кривая пройдет вблизи заданных и точек. Случайный процесс полностью определяется видом функций й» йг, й„..., й„и связью между ними.
Простейшим типом случайного процесса является чисто случайный процесс. В таком процессе все значения случайной величины в отдельные моменты времени (х, в момент г!', хг в момент гг и т. д.) не зависят друг от друга. Тогда появления значений (х» г,), (хг, гг), (хг, гг) и т. д. будут независимыми случайными событиями, для которых вероятность их совместного наступления равна, как известно, произведению вероятностей наступления каждого из них в отдельности.
Следовательно, для чисто случайного процесса йг (хг, гг, хг, гг) = й (хг, г!) и! (хг, гг) (И.39) и вообще и„(х), г), хг, !г,'..., 'х„, г„) = и! (хг, г!) й (хг, гг);...; й(х, г„). (И,40) Это — самые простые соотношения в теории случайных процессов. Они могут применяться для характеристики некоторых видов помех (чисто случайные хаотические помехи). Для характеристики полезных входных сигналов систем регулирования и следящих систем соотношения (И.39) и (И.40) практически не могут применяться, так как для этих сигналов ход процесса в последующие моменты времени в какой-то степени зависит от того, что было в предыдущие моменты времени. Так,например, если речь идет о слежении за самолетом, то он не может как угодно быстро менять свое положение и скорость.
Поэтому если он в момент времени г! занял положение хг, то этим самым его возможное положение хг в следующий момент гг ограничено, т. е. события (хг, гг) и (хг, г!) пе будут независимыми. Чем более инерционен изучаемый объект, тем болыпе эта взаимозависимость, или корреляция.
В таких случаях вместо формулы (И.39) необходимо записать й (хг, Г~', хг, гг) = й (х), )!) и!гл (хг, )г), (И.41) З1() случАиные КРОцкссы В снсткмАх Ркгусп1РОВАния !оо 11 где и1м1 (хю 11) с)х — условная вероятность того, что случайный процесс пройдет вблизи точки (х„с,), если он уже прошел через точку (х„Г1). Следовательно, зная плотности вероятности и1 (х„г1) и 1сз (х1, г,; хю гД, можно найти такнсе и условную плотность вероятности (11.42) о(л1 11) Кроме того.
имеет место следующая связь между основными плотностями веронтности: и1 (Х1 11) ~ и'- '(Х1' 11 Хз ь) 11Х2, (11.43) так как и1 (х„11) есть плотность вероятности случайной величины (Х„11) безотносительно к тому, какое потом будет значение (хе, 11). т. е. допускается — оо ~ хз ( + оо. Аналогичным обРазом лк1баа плотность веРоЯтности низшего порядка всегда может быть получена из высшей, т. е. высшие плотности вероятностей содержат наиболыпее количество информации о случайном процессе (о взаимосвязях между возможными значениями случайной величины х в различные моменты времени).
Написаяные соотношения справедливы для случайных процессов любых типов. В зависимости же от того, до какого порядка принимаются во внимание плотности вероятности, а такясе от разных дополнительных гипотез о формах связи между 1с„и1„..., и1„рассматриваются разные типы случайных процессов в отличие от чисто случайных. Другая классификация всех случайных процессов состоит в разделении их на стационарные и нестацнонарные. Теория стационарных случайных процессов наиболее разработана и чаще всего применяется на практике.