Ю.Н. Тюрин, А.А. Макаров - Анализ данных на компьютере (1115311), страница 69
Текст из файла (страница 69)
. . илиt = 0, ±1, ±2, . . . Случайный процесс X(t) называется последовательностью независимо распределенных случайных величин, еслидля любых наборов чисел t1 , t2 , . . . , tnFt1 ,t2 ,...,tn (x1 , x2 , . . . , xn ) = Ft1 (x1 ) · Ft2 (x2 ) · . . .
· Ftn (xn )(11.9)343Это так называемый белый шум в узком смысле. Белый шум вшироком смысле будет определен позже, после определения свойствастационарности в широком смысле. В определение белого шума частовключают предположение о нормальности распределения величин X(t).Другими словами, гауссовский белый шум — это последовательностьнезависимых нормально распределенных случайных величин со средним0 и общей дисперсией (скажем, σ 2 ).Последовательности независимых случайных величин далеко не все"гда адекватно описывают случайные компоненты временных рядов. Те"орией и практикой для описания случайных последовательностей выра"ботаны и более сложные модели.
Некоторые из них мы упомянем ниже,а более подробно рассмотрим в дальнейшем.Процессы скользящего среднего. Для этих процессов часто упо"требляют аббревиатуру MA — от английского moving average (движу"щееся среднее). Это сокращение стандартно используется в англоязыч"ной литературе и статистических пакетах.Пусть ε1 , ε2 , . . . , εn , . . .
— независимые одинаково распределенныеслучайные величины (белый шум).Определение. Процессом скользящего среднего (первого порядка) со средним µ (сокращенно MA(1)) называют процесс X(t):X(t) = εt + θεt−1 + µ,(11.10)где θ — некоторый числовой коэффициент, а µ — константа.Заметим, что у процесса скользящего среднего (11.10) статистиче"ски зависимыми оказываются только соседние величины X(t−1) и X(t).Значения процесса, разделенные промежутком времени 2 и более, ста"тистически независимы, ибо в их формировании участвуют разные сла"гаемые εt .
По этой причине процессы скользящего среднего являютсянепосредственным и простейшим обобщением процессов белого шума.Описание процессов скользящего среднего второго и более высокихпорядков, а также свойств этих процессов, будет дано в гл. 14.Процессы авторегрессии. Для них часто употребляют аббревиа"туру AR — от английского autoregression.344Определение. Процессом авторегрессии (первого порядка) сосредним значением µ (сокращенно AR(1)) называют случайныйпроцесс X(t), удовлетворяющий соотношению:X(t) − µ = φ · (X(t − 1) − µ) + εt ,(11.11)где φ и µ — некоторые числа.Члены процесса авторегрессии, разделенные промежутком времениh > 0, не становятся независимыми, как бы ни было велико h. Однакозависимость между ними быстро убывает с ростом h, если |φ| < 1.Именно такие процессы авторегрессии обычно встречаются в приклад"ных задачах.Процессы авторегрессии порядка 2 и выше будут определены вглаве 14.
Там же мы обсудим их свойства и области приложений.Марковское свойство. Поведение многих процессов в будущемопределяется только их состоянием в настоящем и воздействиями напроцесс, которые будут оказываться в будущем. А предыдущее развитиепроцесса (то есть его состояние до настоящего времени) при этомнесущественно.
Такие процессы называются марковскими. Дадимэтому понятию более строгое определение.Пусть t, t ∈ T — произвольный момент времени, который мы назо"вем «настоящим». Пусть A — произвольное событие, выраженное черезслучайные величины X(s), где s t − 1. Это событие, относящееся кпрошлому последовательности X(·). Пусть B — произвольное событие,относящееся к будущему процесса X(·), т.е. событие B выражаетсячерез случайные величины X(s), где s t + 1. Рассмотрим условныевероятности событий A, B и AB при фиксированном значении X(t).Обозначим эти условные вероятности через P (A|X(t)), P (B|X(t)) иP (AB|X(t)).Определение.
Случайная последовательность X(t), t ∈ T называется марковской, если для любых A, B и tP (AB|X(t)) = P (A|X(t))P (B|X(t)).Нередко марковскому свойству последовательности X(·) дают не"сколько иное определение (впрочем, эквивалентное приведенному).свойство для временного ряда обычно постулируют, когда физическаяприрода ряда дает для того основания.В статистическом анализе марковское свойство процесса редко ис"пользуется непосредственно. Обычно оно служит для вывода урав"нений, описывающих изменения во времени каких"либо его средниххарактеристик (например, математического ожидания). Среди матема"тических моделей временных рядов, которых мы далее касаемся, мар"ковским свойством обладает процесс авторегрессии первого порядка(см.
п. 14.1). Процесс авторегрессии X(t) произвольного порядка p 1тоже можно представить как марковский, если его состоянием в моментt считать набор (X(t), X(t − 1), . . . , X(t − p − 1)).Стационарность. В теоретических исследованиях и практическихзадачах важную роль играют последовательности случайных величин,вероятностные свойства которых не изменяются во времени. Такиеслучайные последовательности называют стационарными. Их можноиспользовать для описания временных рядов, течение которых стабили"зировалось и происходит в неизменных условиях.Определение.
Случайный процесс X(t) называется стационарным, если для любых n, t1 , t2 , . . . , tn и τ распределения случайныхвеличин (X(t1 ), . . . , X(tn )) и (X(t1 + τ ), . . . , X(tn + τ )) одинаковы.Это означает, что функции конечномерных распределений (11.8) неменяются при сдвиге времени, т.е.Ft1 +τ, t2 +τ ...,tn +τ (x1 , .
. . , xn ) = Ft1 ,t2 ,...,tn (x1 , x2 , . . . , xn ).В частности, образующие стационарную случайную последовательностьслучайные величины X(1), X(2), . . . , X(t), . . . распределены одинаково(но независимыми они, вообще говоря, не являются).Этот вид стационарности называют также стационарностью в узком смысле.
Другой вид стационарности — стационарность в широком смысле, — мы введем после того, как для случайных последова"тельностей мы определим их числовые характеристики.Определенный ранее процесс белого шума является стационарным(в узком смысле).Определение. Случайная последовательность X(t), t ∈ T называется марковской, если для любых A, B и t11.8. …… P (B|X(t), A) = P (B|X(t)).В обычных обстоятельствах нет возможности проверить, обладаетили нет наблюдаемый временной ряд этим свойством. Марковское345Числовые характеристики временных рядов вводятся в полной ана"логии с числовыми характеристиками случайных величин (см. п.
1.5).346Математическое ожидание (первый момент) случайного процесса X(t) — это функция m(t), такая, что для каждого t значение функции m(t) является математическим ожиданием случайнойвеличины X(t):m(t) = M X(t).Функцию m(t) часто называют средним значением процесса X(t).Она используется для описания систематического изменения процесса.Например, для случайного процесса, допускающего запись в виде адди"тивной модели (11.1), среднее значение равно trt + st + ct . Заметим,что под словом «усреднение» здесь понимается усреднение случайнойвеличины X(t) при неизменном t, а не усреднение по времени, хотятакое тоже бывает. Ниже мы более подробно коснемся этого вопроса.дание и дисперсию.
Но в статистической практике такие временныеряды, для которых m(t) и B(s, t) не существуют, встречаются редко.Поэтому в дальнейшем к средним значениям временных рядов и ихковариационной или корреляционной функциям мы будем обращатьсябез особых оговорок.Ковариационная и корреляционная функции играют важную рольв теоретическом и в практическом анализе случайных процессов ивременных рядов. Ниже мы обсудим их свойства, а также способыоценивания этих функций по наблюдениям (см.
п. 11.10). А сейчасвернемся к свойству стационарности (см. п. 11.7) и с помощью функцийm(t) и B(s, t) дадим ему другое определение.Из определения стационарности, данного выше, следует, что длялюбых s, t и любого τ :Ковариационная функция случайного процесса X(t) (краткоcov(X(t), X(s))) — это величинаm(t + τ ) = m(t),Значение ковариационной функции при t = s задает дисперсиюслучайного процесса DX(t) = cov(X(t), X(t)).
Квадратный корень изcov(X(t), X(t)) называют стандартным отклонением σ(t) случайногопроцесса X(t):σ(t) = cov(X(t), X(t)).(11.12)Положив τ = −t, мы получаем, чтоB(s, t) = cov(X(t), X(s)) = M [(X(t) − m(t))(X(s) − m(s))].Она является функцией пары переменных (t, s). Иногда ее именуютфункцией вторых центральных моментов.B(s + τ, t + τ ) = B(s, t).m(t) = m(0),B(s, t) = B(s − t, 0).Отсюда следует, что у стационарного процесса функции m(t) иσ(t) постоянны, а ковариационная функция B(s, t) реально зависит неот пары (s, t), как в общем случае, а от |s − t|. Точно так же мож"но убедиться, что и корреляционная функция стационарного процессаявляется функцией |s − t|.Рассмотрим t = s + k, k > 0.