Уидроу, Стирнз - Адаптивная обработка сигналов (1044225), страница 19
Текст из файла (страница 19)
На основании формул (5.54) и (5.55) проведите подробный вывод фориул (5.57) и (5.58) для ковариационных матриц вектора весовых коэффициентов. Прн выводе воспользуйтесь равенством (3.38) и результатаин упражне~<«<ч ! в к гл. 2. 19. Для условий упражнения 5 найдите ковариацноииую матрицу вектора весовых коэффициентов соч[Ч), полагая, что в системе применен метод наискорейшего спуска с параметром р, равным 1/2, т.
е. своему максииальноиу зна. чению, соответствующему области устойчивости, и с числом наблюдений сигнала ошибки М=10. 20. В равенстве (5.78) найдена сумма геометрических прогрессий диагональных матриц. В такой сумме каждый элемент матрицы можно вычислить в виде отдельной суммы геометрической прогрессии. Используя это, докажите, что ведлнзо ли это для недиагональпой ма р . ат ицы В? Если да, то при каких ус- л о в н я х? 21. для условий упражнения иа 5 найдите среднее значение СКО, полагая, осго максимального значения, соответствую- то па аист равен половине свосго .
ва (4.33) и (4.45)1, а число иаблюде- щего области устойчивости [см. равенства ний сигнала ошибки М=!0: а) для метода Ньютона; б) для метода наискорейшего спуска. При решении сравните равенства (5.68),, р и 5 94 и авеистза 5 80) и (5.95). Объясните различия. ним весовым коэ ициентом, для кото- 22. Задана адаптивная система с одним весо ой а=0,01, а средний квадрат входного сигнала р пала авен 2. Найдите постоянные времени коррекции весового коэффициента и обучающей кривой: а) для метода Ньютона, б) для метода наискорейшего спуска 23. Какова постоянная времени адаптации Тско д ля каждого сл чая лрн условиях упражнения, если для 21, „коррекции весового коэффициента на каж- дой итерации осуществляются все десять на . д ? наблюдений сигнала ошибки? 24.
Каково среднее значение СКО для каждого случая в упражнении 5, т 5< если М-5, а относительное приращение составляет 5 з 25. На вход адаптивного линейного сумматор у. ммато а с дв ия весовыми коэффи- циентами поступает входной сигнал х, для котор кото ого Е.х'к. =3 и Е х<х« 2. гта каждой итерации осуществляет с ществляется все 80 наблюдений сигнала ошибки еь, Соответствующее приращение весовых коэ ц коэ ициентов п иводит к тому, что Р принимает значение 0,05, параметр а=0,01. Н йд =0,01.
Найдите относительное сред- нее значение СКО: а) для метода Ньютона; б) для метода наискорейшего спуска. гэтветы хс некоторым УпРажнениям 5. Р= 5'/2. 7. а< — — 24,2, 8, а, 24,33. 9. чаг[я! и'/5, 12, Около К=О (а</о[-ьсч; около К=2 )а</и[ — ьО. 15. соч[ч! = (8/255э)1, Вл — (! р) — < и=- о где  — диагональная матрица. При каких условиях этот ряд сходится? Спра- Часть ГП АДАПТИВНЫЕ АЛГОРИТМЫ И СТРУКТУРЫ Большинство понятий, необходимых лля синтеза и анализа, имеющих практическое значение адаптивных а:щоритмов, рассмотрено в ч.
1 и П. Этн алгоритмы предназначены для поиска точки минимума рабочей функции и слежения за ней при приеме стационарных и нестационарцых сигналов. В ч. 1П прежде всего приводится описание метода наименыпих квадратов, который является простейшим методом коррекции весовых коэффициентов линейного адаптивного устройства обработки. Метод наименьших квадратов, которому посвящена гл. 6, широко прнченнется во всех видах адаптивных систем, описанных в ч.
1ьб Основная цель этого материала — рассмотрение метода наименьших квадратов и его применения. Помимо метода наименьших квалратов ч. Н! вводятся другие виды адаптивных алгоритмов, которые обладают важными свойствами. Для упрощения изучения этих алгоритмов в гл. 7 приводятся некоторые методы частотного анализа, обычно приь~еняемые прн анализе цифровых сигналов. Это обычные методы, и читатели, хорошо знакомые с ними, могут лишь бегло ознакомиться с содержанием гл.
7. Наконец, в последней часта гл. 8 рассматриваются решетчатые структуры. Этн структуры и их применение в адаптивных системах составляют большую область техники, и поэтому в гл. 8 вводятся только основные попятив. Глава б МЕТОД НАИМЕНЬШИХ КВАДРАТОВ В гл. 4 рассмотрены два алгоритма приведения системы к минимуму рабочей функции — методы Ньютона и наискорейшего спуска. В обоих алгоритмах необходимо на каждой итерации проводить оценку грацие!гга, поэтому в гл, 5 даны общие способы оценки градиента. Опи являются общими, поскольку основаны на вычислении разностей оцениваемых значений рабочей функции, т. е. значений $. В данной главе вводится още один алгоритм приведения системы к минимуму рабочей функции, который называется методом наименьших квадратов, В этом алгоритме используется специальная оценка градиента, которая применима к рассмотренному в гл.
2 адаптивному линейному сумматору.' Таким образом, с точки зрения применения метод наименьших квадратов более ограничен, чем алгоритмы, описанные в гл. 4. Однако метод наименьших квадратов имеет важное значение, поскольку он является простым в вычислениях н пе требует про- ' Однако метод наименьших квадратон можно распространить п па рекурсивные адаптивные фильтры (см. гл, 8). 94 ведения оценки градиента в измерительном канале нли повторных вводов данных, Если адаптивная система представляет собой адаптивный линейный сумматор н на каждой итерации известны входной вектор Хв и требуемый отклик г1ь, то в общем случае лучшим алгоритмом во многих Различных приложениях адаптивной обработки сигналов является метод наименьших квадратов.
Вывод алгоритма наименьших квадратов два э дше дьь дщ (6.2) = — 2еп Х„. Частотные производные ошибки ел по весовым коэффициентам находятся непосредственно из (6.1) Имея такую простую оценку градиента, можно определить адаптивный алгоритм, аналогичный формуле метода наискорейшего спуска. Из (4.36) имеем формулу алгоритма метода наименьших квадратов [3, 4): чхг„~, 1)Р— р туь = — % + 2!гва Хь. !6.3) Здесь, как и ранее„ параметр р определяет скорость и устойчивость процесса адаптации. Поскольку изменения весовых коэффициентов на каждой итерации осуществляются по неточным оценкам градиента, следует ожидать, что в адаптивном процессе возникает шум, т, е.
адаптация протекает не по истинной траектории, соответствующей наискорейшему спуску. Напомним, что введенный в гл. 2 адаптивный линейный сумматор реализуется двумя основными способами в зависимости от того, как подаются входные сигналы — параллельно (систеэза с многими входами) или последовательно !система с одним входом).
Эти два способа показаны на рис. 6.1. В обоих случаях выходной сигнал сумматора па является линейной комбинацией отсчетов входного сигнала. Аналогично соотношенн!о (2.8) имеем а„=,1, Х',%,, (6. 1) где для обеих схем на рис. 6.1 Ха — вектор отсчетов входного сигнала. Для получения адаптивного алгоритма,изложенными выше способами можно было бы найти оценку градиента ошибки й= =Е[езь|, вычислив разности между соседними средними значениЯми езги Вместо этого в качестве опенки возьмем само значение езь. Тогда на каждой итерации адаптивного процесса оценка градиента тдабтеои» ххо.« В од ! и с гиао оо: б г а Вход ош бии а Вшходио» с ао б( Рпс.
6.!. Общнй впд адаптивного линейного сумматора (а) В тРаВСВЕРсальпый фильтр (6) Из соотношения (6.3) следует, что метод наименьших квадратов можно реализовать в реальных системах, не проводя операции возведения в квадрат, усреднения и вычисления производных, и поэтому он прост и эффективен. Как отмечено выше, каждый компонент вектора градиента находится по единственному отсчету данных и без введения приращения в вектор весовых коэффициентов.
Если не приводится усреднение, то компоненты градиента обязательно содержат большую составляющую шума, но этот шум уменьшается самим процессом адаптации с течением времени, действие которого в этом отношении эквивалентно действию низкочастотного фильтра.
Перейдем теперь к обсуждению некоторых свойств метода наименьших квадратов и на нескольких примерах покажем способы его применения. Сходимость вектора весовых козффициентов Как и для всех адаптивных алгоритмов, основной характеристикой метода наименьших квадратов является сходнмость вектора весовых коэффициентов к оптимальному, при котором Е[ет»! достигает минимума. Для анализа сходимостн метода наименьших квадратов прежде всего покажем, что оценка градиента (6.2) является несмещенной, если вектор весовых коэффициентов остается постоянным. Математическое ожидание оценки (6.2) при %» =% Е ['7»! = — 2Е [е»Х )=--2Е [г(» Х» — Х„Х»т%! = 2(Р% — Р) = т7. (6,4) Второе равенство в (6.4) следует нз (6.1) с учетом того, что е» 96 Е [Ъ'! = — (! — 2(» Л)" й(ох где а(' — вектор весовых коэффициентов %, приведенный к системе координат главных осей; Л вЂ” диагональная, матрица собственных значений матрицы ц, а т('о — начальный вектор весовых коэффициентов 4 — (й 9 7 (6.7) является скалярной величиной.
Последнее равенство вытекает яз определений векторов Р и (4, данных в гл. 2, и из соотношения (2.15). Поскольку среднее значение оценки л7г, равно истинному градиенту »7, то »7» должно быть несмещенной оценкой. Имея в виду, что оценка градиента является несмещенной, можно, по крайней мере в некоторых случаях, привести метод наименьших квадратов к методу наискорейшего спуска, Для этого на каждом шаге в соответствии с (6.2) проводится оценка градиента »7, но не осуществляется н,(аптнвная перестройка весовых коэффициентов до тех пор, пока не будет пройдено достаточно много шагов. В этом случае можно сделать так, чтобы оценка т7» приближалась к градиенту »7», а соотношение (6.3) — к соотношению (4.36). Поскольку вектор весовых коэффнпиентон изменяется на каждой итерации, сходимость вектоРа весовых коэффициентов следует рассматривать иначе.