Айфичер Э., Джервис Б. Цифровая обработка сигналов, практический подход (2-е изд., 2004) (1095888), страница 132
Текст из файла (страница 132)
Данная величина связана со спектральной плотностью мощности сигнала белого шума Р,Ц), равной ее дисперсии аз(л): тз(л) Р.(0 = !НУ)!'Р.(Х) = !Н(УН'а,'(л) = 1+ 2, а(к)е '" т 11.5. Ааторвгресснонная оценка слекгра .'!1.6;3 .,' Расчет параметров модели — уравнения Юла-Уокера Оптимальными параметрами модели считаются те, которые минимизируют ошибку е(п) для всех выборок х(п), представленных выражением, подобным уравнению (11.38). Выразим эти ошибки из уравнения (11.38): е(п) = х(п) + ~~1 а(гс)х(п — Й). ьпг (! !.44) далее требуется мера обшей ошибки по всем выборкам, 11' (1 < и < ж). каждая ошибка е(п) может быть положительной или отрицательной, и для больших наборов выборок средняя ошибка обычно мала. Следовательно, средняя ошибка — это не совсем удобная мера точности модели, поэтому обычно используется средний квадрат ошибки (среднеквадратическая ошибка).
Среднеквадратическая ошибка определяется следующим образом; РГ Рг / р Е = — ~ е (и) = — ~ ~х(п) + ~ ~а(/с)х(п — )с) )у п=1 и=1 ьп1 (11.45) Выше указывалось, что Е = аз(п). Значит, теперь требуется выбрать параметры моде- ли, минимизирующие Е. Чтобы получить оптимальное значение каждого параметра в уравнении (1! .45), нужно положить частную производную по параметру модели равной нулю. Таким обраюм для !с-го параметра получаем уравнение: — — ~х(п) + ~ аЯх(п — 1с) — ~ аЯх(п — 1с) = О, 1 < (с < р.
дЕ 2 1' д да(к) 1У ~ да(к) „ (1 !.46) Теперь д Р а(к)х(п — гс) = х(п — гс), да(к) Ьп1 так что уравнение (11.46) упрощается до вида дЕ 2 да(1с) 1У, — — х(п) + ~ а()с)х(п — Й) х(п — й) = О. (11.47) Для Й-го параметра получаем следующее уравнение: рг /р гс — а(гс)х(п — гс) ~ х(п — 1с) = — — ~~1 х(п)х(п — Й). )у Ьпг п=1 (11.48) Дисперсия белого шума равна ее среднеквадратическому значению, которое, в свою очередь, равно квадрату среднего значения е(п), а зту величину мы обозначили через Е. Итак, значение а~(п) (или Е) можно выразить через параметры модели, а поскольку параметры модели определить можно, то спектральная плотность мощности также находится.
Глава 11. Оценка и анализ спектра Проиллюстрируем полученный результат на примере. Записывая левую часть уравне- ния (11.48) для )с = 1„получаем Ф вЂ” (а(1)х(п — 1) + а(2)х(п — 2) +... + а(р)х(п — р))х(п — 1) = Ж 1 = — (а(1)х(0)х(0) + а(2)х( — 1)х(0) +... + а(р)х(1 — р)х(0))+ )У + — (а(1)х(1)х(1) + а(2)х(0)х(1) +... + а(р)х(2 — р)х(1)) +...
+ 1 Ж + — (а(1)х()У вЂ” 1)х(Ф вЂ” 1) + а(2)х(Х вЂ” 2)х()У вЂ” 1) +... + а(р)х(г1 — р)х(Х вЂ” 1)). 1 )У Изучая первые члены в каждой строке, видим, что их сумма дает автокорреляционную функцию с нулевой задержкой В (О) ряда х(п), умноженную на а(1). Следовагельно, сумма вторых членов дает автокорреляционную функцию с единичной задержкой В,( — 1), умноженную на а(2), а сумма п-х членов строк дает произведение В,(-(р — 1)) и а(р). Поскольку для автокорреляционных функпий справедливо соотношение В,( — 1) = В„(1), данное выражение можно записать как В,(0)а(1) + В,(1)а(2) +... + В„()с — 1)а()с) + ...
В (р — 1)а(р). Правая часть уравнения (11.48) равна — В„(1). Приравнивал левую и правую части, получаем В ,(0)а(1) + В, (1)а(2) + ... + 3 ,(и — 1)а(х) + ... + + В (р — 1)а(р) = — В (1). Подобное уравнение можно записать для каждого значения к, 1 < к с р. В матричной форме эти уравнения выглядят так: В (р-1) В (р — 2) а(1) В (1) а(2) В, (2) — — (11.50) В (О) В (1) В (1) В (О) В (р — 1) В .(р — 2) В (О) а(р) В**(р) (11.51) В (и — У)е(а) = -В (Ь). Значит„в принципе, а(Ь) = -Вг„(Ь вЂ” З)В Я. (11.52) Видно, что матрица В„(к —,1) симметричная, и поскольку все элементы главной диагонали одинаковы (и равны В„(0)), матрица является матрицей Теплица.
Она также Теперь из этой системы уравнений, известных как уравнения Юла-Уокера (Уц!е-%айгег), можно получить параметры модели а(к). В матричной форме уравнение (11.50) запи- сывается следуюшим образом 11.5. Авторетресснонная оценка спектра 767 М ( й ~ х(п) + ~ а(тс)х(п — й) ~ ~х(п) + ~~ а(й)х(п — тс) «=1 й«1 й=т с й х(п) + ~~ а(й)х(п — й) х(п)+ й — «1 й х(п) + ~~~ а(К)х(и — к) ~ ~~ а(тс)х(п — тс) й т й«1 (1!.53) Из уравнения (! 1.47), которое справедливо дла всех к, находим, что в уравнении (11.53) к / р й ( )+ Я а(тс)х( — й)~ ) а(н)х(п — тт), " ««т й=т й=т таким образом, уравнение (1!.53) упрощается до вила Ф тУ вЂ” 1х(п) + ~ а(тс)х(п — тс) х(и) = «=т й=т тт йт / р — хз(п) + — ~~т ~~~ а(к)х(и — Й) х(п) = «=1 «=т й=т р тт Л, (О) + ~ — ~~~ а(!с)х(п)х(п — а), й«1 ««1 так что окончательно получаем Е = В„(0) + ~~~ а(к)Л (к).
й«т (11.54) Уравнение (11.54) или (11.45) и параметры модели из уравнения (11.52) теперь можно подставить в уравнение (11.43) и получить авторегрессионный спектр плотности мощ- ности. Впрочем, опишем вначале методы нахождения а(а) из системы (11.50) и выбор порядка модели р. ,,1'1.6=4.-' Решение уравнений Юла-Уокера Среднеквадратическая ошибка Е, представленная в уравнении (11.45), вычисляется с использованием имеющихся выборок х(и) для и от 1 до )т'.
Предшествующие или будущие значения х(п) полагаются равными нулю. Как объяснялось выше, зто положительно определенная, откуда следует, что х(п) не состоит исключительно из синусоид. Далее осталось толью найти а(!с) из системы уравнений (11.50), использовав один из множества существующих способов. Значение Е можно вычислить из уравнения (11.45) или получить другое выражение через автокорреляционные функции и найти а(н) так, как описано ниже. Предполагая, что а(к) и х(п) — действительные н расписываа уравнение (11.45), получаем: Глава 11.
Оценка и анализ спекгра 76В эквивалентно взвешиванию данных и прн использовании непарамстрических методов оценки спектра приводит к спектральному сглаживанию, вызванному влиянием боковых лепествпв н пониженным разрешением. Впрочем, для авторегрессионного метода данное утверждение неверно. Можно показать (см. (32)), что в данном методе неявно оцениваются автокорреляционные функции для задержек, превышающих р, даже если соответствующих значений х(п) не существует.
Следовательно, авторегрессионные методы дают улучшенное спектральное разрешение. В то же время можно улучшить и спектральные оценки, например, используя в методе только существующие данные. Прн таюм подходе значения п (О > п ( Х) не требуются, а следовательно их не нужно полагать равными нулю. Ниже приводятся примеры методов, разработанных на описанном принципе. Более полное специализированное изложение можно найти в таких работах, как (12, 32). Реализации алгоритмов в программном виде представлены в книге (32), также нх можно найти в других публикациях и программных пакетах.
11.5.4.1. Автокоррелиционный метод Автокорреляцнонный метод основан на выражении для среднеквадратической ошибки (11.45). Из системы уравнений (11.50) с помощью алгоритма Левинсона-Дурбина (Ьер!пзоп-1)цгЪш) (см. (32, 42)) можно вычислнтельно эффективно найти параметры модели.
Данный метод дает худшее разрешение по частоте, чем методы, описанные ниже, а следовательно, он менее подходит для коротких последовательностей выборок. 11.5.4.2. Коеариационный метод В данном методе пределы суммирования в уравнении (11.45) устанавливаются равными от п = р до п — Ф. Это означает, что для вычисления автокорреляционной функции требуются только доступные значения х(п). Кроме того, среднее вычисляется по Х вЂ” р слагаемым, а не по Ж. Таким образом, уравнение (1!.45) приводится к виду 1 и / 2 Е = ~ ~х(п) + Я а(к)х(п — )с)~ =Р в=с (11.55) Кроме того, используется следующий эквивалент уравнения (11.50): а(1) с.„(1,о) а(2) с (2,0) с.,(1,Ц с..(1,2) " с..(1,р) С (2,1) С (2,2) С (2,р) (11.56) С,(р,1) С,(р,2) С (р,р) а(р) с..(р, о) где Ж С„,(1, )с) = ~ ~х(п — 1)х(п — к), — р (11.57) Е выражается следующим образом: Е = С„(0,0) + ~ а()с)С,„(0,)с).
(11.58) 799 11.9. Авторегресснонная оценка спвктра Матрица С, (7', к) размером р х р эрмитова и неотрицательно определенная. Для решения уравнения (11.56) можно использовать метод разложения Холецкого [35). Суммируется толью Гт' — р запаздывающих компонентов, так что для кратких последовательностей данных могут иметь место некоторые краевые эффекты. Отметим, что ковариациониый метод дает лучшее спектральное разрешение, чем автокорреляпионный.
11.5.4.3. Модифицированный ковариационный метод В модифицированном ковариационном методе минимизируется среднее оцененных ошибок предсказания с опережением и запаздыванием [12, 32). По-прежнему используются уравнения (11.56) и (11.58), но уравнение (11.57) модифицируется до вида 1 Ф ь-р С„Ц,1г) = ~~х(п — 7)х(п — й) + ~ х(и+ ах(п+ й) . (11.59) «=н =! Матрица С„Ц, к) размером р х р снова эрмигова и неотрицательно определенная, а для решения уравнения (11.56) используется метод разложения Холецкого [35).