Уидроу, Стирнз - Адаптивная обработка сигналов (1044225), страница 29
Текст из файла (страница 29)
Таким образом, локальные минимумы можно исключить просто введением в фильтр дополнительных весовых коэффициентов. Для вывода алгоритма работы рекурсивного адаптивного фильтра включим рекурсивный фильтр, приведенный на рис. 7.2, в стандартную адаптивную схему, как показано на рис. 8.5. Здесь вектор Хл может быть входным сигналом системы как с одним, так и со многими входами, а дл — скалярная величина. Из (7.3) е е де= уа хи л+УЬ„ди „. а=О л=! (8.45) Такая запись, соответствующая системе с одним входом, взята здесь для удобства анализа.
Зададим зависящий от времени вектор весовых коэффициентов %л и некоторый новый вектор сигнала 1)л следующим образом: т %и [а,ла,л ... пел Ь,и ... Ьел], 1 л [хи хи — ! " хл — е ди — ! - ди-е] ° (8.46) (8.47) Из рис. 8.5 и (8.45) можно записать т еи = ь(л — ди = ь(л — %и Ц.
(8.48) дее де Г дел дел деи деи чт дщл дьгл дали "' дави дЬ,л "' дэеи ! Г дУи дУи дУи дУл 1т [- дали '" да! и дЬ,!, "' деви .] (8.49) Вычисление производных в (8.49) представляет особую задачу, так как теперь дл является рекурсивной функцией. Из (8.45) наи- дем Это соотношение аналогично соотношению для нерекурсивной системы [например, (2.8)1, основное отличие состоят в том, что 1)и включает в себя значения д и х. Рассмотрим сначала алгоритм наименьших квадратов и в соответствии с (6.2) запишем приближенное выражение для градиента: %л+! = %и ™7и.
(8.53) Здесь вместо параметра ]ь записана следующая диагональная матрица: М=г[]ад[р ... ]Ечь - че]. (8.54) В случае неквадратичной рабочей функции имеем некоторый параметр сходимости 1е для каждого а и другой множитель сходи- мости для каждого Ь. Можно даже полагать, что эти множители изменяются во времени. Подставляя текущие значения Ь в (8.50) и (8.51), получаем следующий алгоритм наименьших квадратов для рекурсивного адаптивного фильтра: т дь = %и 1!л е а„и =хи л+ ~ Ьл а„л „0(п(Е, !-! е рли=д + ~Ьл[)л л ! 1(п(й г=! (8.55) ~ул = 2 (ь(и ди) [аеи - аел ау!и - аиел] т %и+! = %и — М!7л.
Начальные условия выбираются здесь так же, как выше, за исключением того, что пока не известны значения а н р, их на- чальные значения приравниваются нулю. Отметим, что вектор сигнала 11и задан выражением (8.47), а Ь!и — один нз весовых ко- эффициентов обратной связи вектора %л в (8.46). Полезно представить алгоритм (8,55) в виде блок-схемы. Ис- пользуя введенные в гл. 7 обозначения, Аи (г) = У аьл г — л и Ви (г) лл Х Ь!л г — и, г=о ь=! Для второго или третьего соотношения из (8.55) можно записать передаточную функцию (8.56) С учетом заданных таким образом производных т7и=- — 2еи [аел ...
аеи[)ьл ... [)еи], т (8,52) По аналогии с формулой (6.3) запишем алгоритм наименьших квадратов в виде (8.50) (8.51) 146 дул дУи -! а л а —" — — хл — + Х Ь! — ' —. хи л+ ~ Ь, ал, = дал !-! дал с=! дуи гьлл= = де — л+ ~ Ь! = ди — л+ Х Ь! [Ол, и — !. дЬл !=! дЬл 1=! передаточная функция ! — Ви (е) (8.57) На рис. 8.6 приведен пример вычисления п„и. Полная схема адаптивного фильтра представлена на рис. 8.7.
Здесь не показана схема коррекции весовых коэффициентов в соответствии с по- 147 Рис. 8.5. Схема формирования а„» в (8.55) и, т у»=5У ')»' е» =- й» вЂ” у»*' Л1 и» =- е» + 2; с„вн н ! (8.58) для рекурсивной: ~!» — — — 2е„Х», 148 следним соотношением из (8,5), Аналогичные схемы приводятся в [8) а также в [9], где впервые предложен рекурсивный алгоритм по методу наименьших квадратов, Различные модификации этого алгоритма рассмотрены в [8, 14, 15) и других работах.
В [10) представлен полный класс сверхустойчивых алгоритмов для адаптивных рекурсивных фильтров. Простейший из этих алгоритмов можно описать следующим образом [10 — 13). Пусть в (8.55) а » и 6„» приблизительно равны х» „ и у» „ соответственно. Тогда при оценке х7» вместо е»=с(» — у» будем использовать сглаженное значение е», полученное с помощью фильтрации е».
Последнее является основным свойством рассматриваемого класса алгоритмов, В соответствии с этим '!7»= — 2ч»[х, ... х» — су» — ! - у» — с!~; Ч~»ч-! = %» — М~ г!,, Здесь с — постоянные коэффициенты, предназначенные для получения ч» при сгламсивании е». Таким образом, простейший из этого класса алгоритм проще, чем (8.55).
В некоторых случаях он оказывается [25) сходящимся и находит применение для подавления шума [12) и в системах предсказания [13). Выбор сглаживающих коэффициентов [с. ) является пока предметом исследования и здесь не рассматривается. Поскольку в общем случае для БИХ-фильтров с неквадратичной рабочей функцией затруднительно применять методы наименьших квадратов, приходится снова рассматривать приближения к методу Ньютона, хотя применение последнего может также оказаться затруднительным по той же самой причине. При замене Х на [) и использовании оценки градиента в системе с бесконечной импульсной характеристикой нетрудно получить для рекурсивных фильтров алгоритм вида последовательной регрессии. Таким образом, для нерекурсивной системы т е» = й» вЂ” %» Х„, Рис 8Т Схема реализации алгоритма (855) ва =- с(» — )5г () т т 'Г»= — 2е»[ае» " ас»йз» - анс») .
Простейший способ получить рекурсивный алгоритм последовательной регрессии состоит в том, чтобы сначала заменить Х на () в (2,11) и (2,13), при этом иначе определяются матрицы 1( и Р, а размерность возрастает с Е+1 до 21.+1. В результате такой замены рабочая функция системы с бесконечной импульсной характеристикой определяется соотношением (2,13). Далее необходимо найти градиент от (2,13) и положить, что К и Р не являются функциями»4!. Такое предположение справедливо для адаптивных КИХ-фильтров и приводит к (2,16). Для БИХ-фильтров в режиме адаптации это предположение несправедливо, так как К и Р включают в себя математическое ожидание произведений, зависящих от уь Однако после окончания процесса адаптации при стационарных входных сигналах матрицы К и Р становятся постоянными даже в системе с бесконечной импульсной характеристикой, поэтому можно считать, что при %=%* выполняется (2.!6).
Используя определенные таким образом й и Р и полагая, что вектор весовых коэффициентов вычисляется по (2,16) и (8.28), получаем алгоритм последовательной регрессии для системы с бесконечной импульсной характеристикой простой заменой в (8,36) Х» на 11», при этом все производные совпадают с производными 149 (8.60) ь, Неневестнен системе ве ,ее Рис. 8.9. Процесс схо. димости дли алгоритмов наименьших квадратов -1 (о, 800 итераций) и по- -а следовательной регрессии (б, 600 итераций). ЗДЕСЬ Ь!=1,2, Ье= — 0,6 о ь, в) Рис. 8.8.
Адаптивное моделирование неизвестной сис- темы 151 150 для системы с конечной импульсной характеристикой. Кроме того, необходимо заменить оценку градиента (8,3), подставляемую в (8.5) и, следовательно, в (8.37) на рекурсивную оценку градиента, рассмотренную вь1ше. В результате (8.37) принимает вид (8.59) Как и при выводе рекурсивного а.тгоритма метода наименьших квадратов, в (8,54) вместо )е введено М. Окончательно рекурсивный алгоритм последовательной регрессии принимает вид 8 = (:)А — '1 1)А' у = а + ()А~ 8; — 1 / — 1 1 тт, (еа = — ((ев — 1 — — 88 1; а т, т а А=ха + ~~~Ьгьатт А 1, 0 и(/; с 1)ла уа — н+ Х Ь1А )тл, А — 1 1 ~ (п~(Ет '"А = — 2 (г(А — УА) (ась - аьа()сь - рье) ; йт )тор (1 — се +') А+1= А т7 А.
Здесь а без индекса — константа в (8.25), а а с индексами — произведение в (8.50). Для этого алгоритма можно взять те же начальные условия, что и для атгоритма последовательной регрессии в (8.44). Кроме того, из (8.46) и (8.47) следует, что матрицы 8 и 0 ' задаются в пространстве размерностью 2Е+1. Вопросы сходимости и устойчивости алгоритма (8.60) надо рассматривать для каждого конкретного приложения. В качестве принтера рассмотрим схему идентификации, представленную на рис.
8.8. При начальном условии ае=Ь1=Ьа=0 рекурсивный адаптивный фильтр осуществляет адаптацию по рабочей функции до точки а,=1, Ь,=1, 2 и Ь,= — 0,6 и тем самым идентифицирует неизвестную систему. При действии на входе системы белого шума ошибка й=е[ее11 уменьшается до нуля пря точно таких же значениях трех коэффициентов, На рис. 8.9 показаны характерные кривые для алгоритма последовательной регрессии (8.60) и метода наименьших квадратов (8.55) в системе с бесконечной импульсной характеристикой. Эти кривые являются только примером широкого класса рассматриваемых алгоритмов, однако они отражают несколько характерных свойств этих алгоритмов, Во-первых, рабочая функция находится из (7,65) (упражнения 35 — 37 гл.
8), Аналогично примеру из гл. 7 $=[ейй] в данном случае является квадратичной функцией относительно ао. Следо. вительно, на рис. 8.9 даны проекции рабочей функции на плоскости Ь|Ьт, при этом они построены при оптимизированном значении ао для каждой пары (Ьг, Ьу). Однако построенные кривые отражают процесс адаптации аа, а также Ьг и Ьй.