Уидроу, Стирнз - Адаптивная обработка сигналов (1044225), страница 33
Текст из файла (страница 33)
Проекции сечений рабочей функции н траектория сходимостк весовых коэффициентов по алгоритму наименьших квадратов, аналогичные приведенным на рнс. 8Л9, при замене адаптивной решетки на алаптивный трансверсальный фильтр лля И 0,1 и нулевых начальных значений весовых коэффициентов. Траектория содержит 300 итераций 200 40О 00 а Рис. 8.21. Обучающие кривые адаптивного трансверсального устройства пред- сказаш(я и адаптивной решетки.
Приведенные кривые почти одинаковы В данном примере рассмотрим решетку с двумя ячейками и весовыми коэффициентами к, и кь Из (8.98), (8.99) и (8,102) можно получить следующее выражение для рабочей функции; $ =- 1р, (О) = (кг1 + 1) 1р, (О) + 2к, гр! (1) = = (кг! + 1) [(кто + 1) Р, + 2ко Р ] + 2к, [ко Рэ+ 2к, Р, + Р ]. (8.112) 167 Очевидно, что эта рабочая функция — квадратичная по каждому весовому коэффициенту, но в отличие от адаптивного трапсвсрсального фильтра проекции сечений графика рабочей функции для фиксированных значений не являются эллиптическими.
На рис. 8.19 построены проекции сечений рабочей функции (8.112) и показана характерная траектория адаптации. Отметим, что, как обсуждалось ранее, к, является независимым, т. е. для любого значения к1 коэффициент к, можно независимо характеризовать для поиска его оптимального значения. Эта процедура рассматривается ниже, при этом приняты следующие параметры: А1 =- 16; Е [гоо! = — 0,01; ро — — 0,06; р,:=.
О,1. (8,113) Эгн значения )о удовлетворяют неравенству (8.110), когда ко(1 и фо(0) =ро=0,51 (или гро(0) (0,51), Так же, как и для адаптивного линейного сумматора, в данном случае обычно выбирают значение параметра р, равное О,! от верхней границы неравепс|ва (8.1!О). Отметим, что кривая на рис, 8.!9 приблизительно совпадает кривоЙ для метода наискорейшего спуска В соответствии с (8.99), (8.100) и (8.102) оптимальные значения весовых коэффициентов составлякот: * фо (') о— чь !о) — — ' = — 0,906, [ (8, 114) ф1 (1) ф, (о) Кривая на рнс. 8.19 достигает окрестности оптимальных значений весовых коэффициентов менее чем за 200 итераций. Для сравнения с примером на рис. 8.19 на рис.
8.20 представлен тот же адаптивный процесс, но здесь вместо адаптивной решетки применен адаптивный трансверсальчый фильтр. В этом примере проекции сечений рабочей функции эллиптические. Около точки 9 ы график рабочей функции достаточно плоский, однако для достижения окрестности точки о„ы при !о=0,! необходимо около 300 итераций. Решетчатая структура для предсказания сигнала обладает тем преимуществом, что каждая ячейка имеет свой, отличный от др)гпх, параметр сходимости, выбираемый из условия (8.11), и в общем случае это позволяет осуществлять процесс адаптации быстрее, чем для обычно|о метода наименьших квадратов !341.
(В примерах на рис. 8.19 и 8.20 использована одна и та же случайная последовательность.) На рис 8,21 представлены обучающис крпвыс для обоих видов устройств предсказания. Среднеквадратнческая ошиока оценивается здесь усреднением каждого а'о по десяти ближайшим значениям. Для полученных таким образом параметров)иь)п и р ~ одной и той же случайной последовательности обе обучающие кривые почти одинаковы.
Отметим, что установившееся значение примерно равно 0,05. Поскольку Е[гоо)=0,0! и осуществляется 168 предсказание синусоидального колебания, 8„ы= 0,01, а относительное среднее значение СКО М в этом случае должно быть равно примерно 4. Аналогично тому, как это сделано выше для адаптивного линейного сумматора, можно вывести алиоритм последовательной регрессии (т. е.
алгоритм, приближенный к методу Ньютона) для адаптивной решетки. Из (8.99) имеем СКО на выходе 1-й ячейки решетки: (8 115) (8. 119) 169 фьо, (О) = (к', + 1) ф, (О) + 2к, ф~ (1). Найдем производную (8.115) по к~ и назовем ее градиентом: ч'~И ) = 2к~ фр(0)+2грг(1) дкг Далее найдем решение уравнения (8.116) для ф'~(1), подставим его в (8.100): г ~(),. 1 д фьЬ, (О) т ф (о) ~ д' == к~ —— 2 фс !О) дк~ (8. 117) В результате имеем формулу одношагового алгоритма Ньютона. аналогичную равенству (4.30) в гл. 4, поэгому, как и в (8 1), умножим второе слагаемое на р Если теперь заменить в (8.105) градиент на его оценку, то получим формулу алгоритма последовательной регрессии, сравнимую с выведенной выше: д1фт Ь (О) к, о,,=кп,— 9 ф (О) дк, )г = к„— зьььо зг,о — 1 чч(о) ' Для адаптивного линейного сумматора необходима оценка матрицы Р, поэтому в данном алгоритме требуется оценка ф~(0) = =Е[з4о1.
Для песгацпонарных условий процесса адаптации вводятся, как и в (8.21), коэффициенты при з"-м, отсюда оценка 1 — а о, г Р,„гр1о (О) =,, 'Я а — зн ~==о Многократно подставляя (8.119), получаем следующую рекурсивную формулу: 1 о Рм — — „,, [(1 — а)за+а(1 — ао) Р,,х г[. (8.120) о-м При нулевых начальных условиях и выбранном в соответствии с (8.44) а полный алгоритм последовательной регрессии для ре- шетки (8.12 1) Начальные условия:аж 2 лм., ',« »,, ыс 0~1,~1, Р,в — мощность сигнала; к„=- О; О (1~ Е; При 0 =1<1. 1 Рн= +, [(1 — а)з)л-(-а(1 — аь)Р1 л з), й 0; 1 — аз+~ к, лч,=кн — — з,„ь„„З~ьл, й во, Р Значения коэффициентов решетки записываются с относительно низкой скоростью, Затем для восстановления речено~о сигнала по этим коэффициентнм строится решетка с передаточной функцией без нулей и изменяющейся во времени структурой (рис.
8.13), управление которой осуществляется формируемыми для нее шумовыми последовательностями. Восстановленный речевой сигнал снимается с выхода решетки без нулей Основное преимущество применения здесь решетки состоит в том, что она всегда является устойчивой, т. с. нули устройства предсказания и полюсы восстанавливающего устройства находятся внутри круга единичного радиуса при условии, что (к,( (О для 0 =1(1..
Как и для алгоритма наименьших квадратов (8.106), полагаем, что значения сигналов вычисляются в соответствии с (8.94). В действительности, как видно из (8.106) и (8.121), для решетки алгоритмы наименьших квадратов и последовательной регрессии, по существу, являются одинаковыми, за исключением того, что в (8.121) оценка ср~(0) осуществляется на каждом шаге. На рис.8.22 показана кривая для алгоритма последовательной регрессии в рассматриваемом примере, Отметим, что здесь кривая несколько ближе к оптимальной, чем на рис. 8.19.
Итак, в данном подразделе рассмотрено использование адаптивной решетки в качестве устройства предсказания. Однимизосновных ее приложений являются устройства сжатия речевого сигнала, в которых осуществляется предсказание речевого сигнала с помощью адаптивной решетки, длина которой достаточна для формирования выходного сигнала, близкого к белому шуму 1351. -2 -хо -ля -ьо -од о.о о,в К Рнс. 8.22, Проекции сечений рабочей функции н траектория сходнмостн весовых коэффнцнснтов цо алгоритму последовательной рсгресснн для вдвцтнвной рвшетнн предсказания, приведенной нв рнс. 8.18, прн М= 18, Е(сзз) =0.01, =-002, а Олк Трненторня содержит 200 нтсрацнй 170 Адаптивные филътры ортогоналъных сигналов В предыдущем подразделе рассмотрено, как можно для минимизации конечной ошибки предсказания независимо корректировать весовые коэффициенты адаптивной решетки, используя в соответствии с (8106) промежуточные сигналы. Вследствие этого свойства сигналы внутри решетки являются ортогональными.
В каждой ячейке сигнал ошибки некоррелирован с другими сигналами ошибки. В данном разделе обсуждаются аналогичные адаптивные фильтры ортогональных сигналов. Такие адаптивные структуры изучаются для того, чтобы сохранить простоту метода наименьших квадратов и в то же время использовать некоторые преимущества таких более сложных алгоритмов, как идеальный алгоритм и алгоритм последовательной регрессии. Из всех алгоритмов метод наименьших квадратов требует меньше всего вычислений на один цикл итераций и наименьший объем памяти Более того, он легче описывается математически и является простейшим с точки зрения реализации и понимания. В гл. 6 рассмотрено его использование для коррекции весовых коэффициентов трансверсального фильтра с целью минимизации СКО. Однако было показано, что в случаях, когда собственные значения существенно различаются, для других алгоритмов процесс адаптации часто может проходить быстрее, чем для метода наименьших квадратов.
Для заданного уровня относительного среднего значения СКО при большом разбросе собственных значений применение метода Ньютона или какого-либо другого способа ортогонализации входных сигналов относительно адаптивных весовых коэффициентов может привести к более быстрой адаптации, чем использование одного только метода наименьших квадратов.
Преимущества введения ортогонализации рассматриваются в [361. Здесь описываются два способа ортогопализации, предназначенной для обработки сигналов перел их окончательным суммированием с весовычи коэффициентами Один из этих способов основан на причеиеиии решетчатых фильтров, в другом используется дискретное преобразование Фурье (ДПФ) Другие 171 Ко« 'с> аа,>, нн сасове ко>мфкк Рис. 8.23. Сиена адаптивного фильтра с разложением на оргогоиальные сигналы способы [371, использующие процедуру ортогопализации Гра>ма— Шмидта, находят применение в адаптивных антеннах.