Уидроу, Стирнз - Адаптивная обработка сигналов (1044225), страница 30
Текст из файла (страница 30)
Во-вторых, как показано в гл. 7, для устойчивой работы адаптивного фильтра его полюсы должны располагаться внутри круга единичного радиуса, Таким образом, существует область устойчивой работы, показанная в виде треугольника на рис. 8.9, и коэффициенты Ь должны находиться в пределах этой области. Связь между этой областью и кругом единичного радиуса рассматривается в упражнении 12. Как отмечалось выше, весовые коэффициенты сначала полагаются равными ай=ба=Ьй=О и в обоих случаях допускается, что они достигают своих оптимальных значений, Параметр М в соот.
ветствни с (8.54) для алгоритма последовательной регрессии М = = б!ая [0,05 0,005 0,0025], (8.6!) для метода наименьших квадратов М = с(!ая [0,5 0,1 0,05]. Для алгоритма последовательной регрессии при длине стационарного сегмента сигнала, равной !О отсчетам, приняты начальные условия г/с=! и а=0,93. Отметим, что для метода наименьших квадратов траектория адаптации примерно совпадает с траекторией для мстода наискорейшего спуска, однако при неквадратичной рабочей функции она носит колебательный характер около точки $ г„что является типичным для БИХ-фильтров, Однако алгоритм последовательной регрессии не дает хорошего приближения к методу Ньютона, по крайней мере в начальной стадии обучения, поскольку, как отмечалось выше, 4)й ' является функцией %ю пока %й не достигнет своего оптимума.
Однако около оптимума траектория для алгоритма последовательной регрессии более сглажена, чем в методе наименьших квадратов, и в данном примере для достижения оптимума при Ьг=!, 2, Ьй= = — 0,6 требуется меньшее число итераций. В примерах, аналогичных приведенному на рис. 8.9, траектория зависит от выбора М в (8.61), а также с/о, а и начальных значений весовых коэффициентов. Вопросы выбора М и построения наилучшего вида алгоритма являются предметом дальнейших исследований теории адаптивных БИХ-фильтров.
Алгоритмы случайного поиска Помимо методов Ньютона н наискорейшего спуска существует возможность поиска минимума рабочей функции некоторым случайным способом. В данном разделе кратко рассматриваются сто- 152 %й+х — %„! 1" [$ (%й) — в (%в+ Ой)] Ц,. (8,62) Полагают, что для адаптивного линейного сумматора ()й является случайным вектором с сон [[)й] = о'1.
(8.63) Функпии 5(%А) и й(%й+()й) являются оценками СКО текущего и пробного значений вектора весовых коэффициентов соответственно. Как параметр сходимости (с, так и и' представляют собой константы, от которых зависят устойчивость и скорость сходимости. В табл. 8,1 приведены результаты анализа линейного алгоритма случайного поиска применительно к адаптивному линейному сумматору [16]. Эта таблица аналогична табл. 6.1. Как определено в гл, 5, Лу — число наблюдений, используемых для оценки СКО. Таблица В1 АлгоРитм нанскорсйнгсго спуска Чннсйнмй алгоРитм слунайнаго нонска Парамстр )а (Ь+ 1) 4А/ ба Относительное средг~ее зна чение й( р (Е+!) = ",." ( —,',.)„ оа (й+ 1) )гор/Ьпгп Относительное ириращенгю Р Козффициент, характеризующий относительную тонность оценки параметра, Маам Постоянная времени л-й составляющей; число итераций тсио число отсчетов данных Токо й'асср/аппп 1/4р)гн А//йрй„ 1/4р).„ гг' (1.
+ 1) /4(слгг !ВЗ хаотические алгоритмы двух типов. Первый — линейный алгоритм случайного поиска — относится к алгоритмам выбора с,еучайнсгго направления движения в пространстве весовых коэффициентов, второй — к алгоритмам выбора последовательности случайных точек в пространстве весовых коэффициентов. В линейном алгоритме случайного поиска в начале каждой итерации к вектору весовых коэффициентов прибавляется небольшое пробное случайное смещение [)л [16], При этом, как описано в гл.
5, наблюдается соответствующее изменение характеристик функционирования. Затем вносится постоянное приращение вектора весовых коэффициентов от %й до %й+ь что алгебраичесКи можно записать в виде Хотя линейный алгоритм случайного поиска основан на случайном изменении вектора весовых коэффициентов, он функционирует аналогично алгоритму наискорейшего спуска !161. При случайном поиске весовые коэффициенты сходятся к %ч по закону геометрической прогрессии с такими же постоянными времени, ха~к,и при наискорейшем спуске. Из табл. 8.1 видно, что для обоих алгоритмов параметр (г имеет в действительности одну и ту же область устойчивости.
При фиксированной скорости сходимогти относительное среднее значение СКО для линейного алгоритма случайного поиска вдвое больше, чем для алгоритма наискорейшего спуска. Поэтому последний имеет преимущество. Однако первый алгоритм легко реализовать. Кроме того, он эффективен в качестве модели естественного отбора и при теоретических исследованиях развития биологических систем. С точки зрения объема входных данных линейный алгоритм случайного поиска и алгоритм наискорейшего спуска намного менее эффективны алгоритма наименьших квадратов и при заданной скорости сходимости имеют более высокое относительное среднее значение СКО.
Однако эти алгоритмы можно применять в случаях, когда алгоритм наименьших квадратов может оказаться неприменимым, т. е. когда нет входных сигналов или регулируемые параметры не являются весовыми коэффициентами сигналов. Линейный алгоритм случайно~о поиска состоит в том, что для проверки на каждой итерации выбирается случайное направление. В (17) для адаптивных систем разработан алгоритм проверки случайных точек в пространстве рабочих параметров.
Это напоминает процесс деления и отбора клеток. Рассмотрим работу этого алгоритма для одного весового коэффициента ш. Прежде всего осуществляется выбор начального множества М значений ш, равномерно распределенных в заданной области. Затем для каждого из этих ик значений гв находится ~(гв) и строится новое большее множество Л')М значений. В этом новом множестве Ж первоначальных значений гв располагаются в обратной зависимости от соответствующих значений $(ы).
Таким образом, если в первоначальном множестве содержатся значения в~ и шг и $(гвг) »~(ш~), то в построенном множестие больше значений шь чем шг. В целом объем множества равен Л", причем некоторые значения гв входят в него несколько раз. Затем для второй выборки строится следующая последовательность. Выбираются случайным образом два значения ш и производится склеивание двоичных представлений обоих значений. К первому сегменту одной двоичной последовательности присоединяется второй сегмент другой. Предположим, например, что ш представлено 8 битами, т. е.
имеется 256 возможных значений, и склеивание осуществляется в середине каждой последовательности, Тогда двоичное представление значения !; а, а, а, а, а, а, а, а, двоичное представление значения 2; Ь, Ь, Ь, Ь, Ь, Ь, Ь, Ь„, двоичное представление последовательности: а,а а„агЬ,Ь,ЬтЬ. 154 Отметим, что если оба значения ш одинаковы, то построенная для этого случая последовательность также является представлением значения ж. Для второй выборки множество увеличивается, как описано выше, от дт до Л .
По мере того, как получаемые последовательности становится близкими друг к другу, процесс в целом сходится. В[!7) приведены примеры устройств с адаптивной задержкой, реализующих этот алгоритм. Решетчатые струмтуры До сих пор при рассмотрении адаптивных алгоритмов приводились примеры реализации адаптивных систем только в обычной форме. Так, для нерекурсивных систем в гл. 2 описан трансверсальный адаптивный фильтр, для рекурсивных систем на рис. 7.2 приведена обычная схема их реализации. В более общем случае существуют, по меньшей мере, четыре вида реализации или структур, которые могут быть использованы для адаптивной обработки сигналов: обычная, каскадная, параллельная, решетчатая. Предположим, что имеется рекурсивный фильтр с одним входом с передаточной функцией, подобной (7.8): я(г)аю+ат2+ +асг Н (г)— (8.64) 1+ В(г) 1-1-Ь,г — г-(- „-1-Ь г Эта запись характерна для обычной структуры', Каскадную структуру получают из обычной за счет разложения на множители А(г) и 1+В(г) (как правило,,на множители второго порядка), а параллельную структуру — из каскадной за счет раскрытия дроби !201.