Прокис Дж. - Цифровая связь (1266501), страница 118
Текст из файла (страница 118)
начиная с точки, когда обработана принятая последовательность (о,,о......о ). Так начиная с Л-го шага формируется исчерпывающий поиск. С каждой последовательностью данных 1~ ~ связана соответствующая оценка канала Г, (!'"' ). Начиная с этого шага, поиск модифицируется с тем, чтобы сохрани~ь А >1 выживших последовательностей и соответствующих оценок канала на состояние вместо только одной последовательности на состояние. Таким образом, ОАВ используется для обработки принимаемой сигнальной последовательности !ц„,н > Г +1).
Оценки канала улучшаются рекуррентно на каждом шаге, используя алгоритм минимума СКО для дополнительного сокращения вычислительной сложности. Результаты моделирования, данные в статье Сешарди (1991), указывают на то, что этот ОАВ для реализации слепого выравнивания работает хорошо при умеренном отношении сигнал/шум с К вЂ” 4. Затем имеется умеренный рост вычислительной сложности ОАВ по сравнению с обычным АВ Однако здесь имеется дополнительные вычисления, связанные с оцениванием и обновлением начальных оценок канала Г(!'""), связанных с каждой из выживших оценок данных.
Альтернативный алгоритм совместного оценивания, ко~орый избегает вычисления наименьших квадратов при оценивании канала, был предложен Зервасом н др. (1991). В этом алгоритме порядок формирования совместной минимизации показателя качества ЛМ(1,Г) обратный. Это значит, сначала выбирается импульсная характеристика канала, скажем Г = Г ', а затем используется обычный АВ для нахождения оптимальной последовательности данных для этой импульсной характеристики канала. Затем мы можем модифицировать Г ! до Г = Г !+ЛГ~ ! и повторить оптимизацию по последовательностям данных (!! !). Основываясь на этом общем подходе Зервас разработал новый МП алгоритм слепого выравнивания, который назван ияюртплн~ц с лжиииоаалиен канала.
Алгоритм работает па решетке пространства канала, причем ан сгановится лучше и лучше при использовании МП правила для сохранения оцененного канала в окрестности действительного неизвестного канала. Этот алгоритм приводит к эффективной параллельной реализации, а его требования к памяти такие же, как в АВ, 11.5.2. Стохастический градиентный алгоритм Другим классом алгоритмов слепого выравнивания являются схемы стахастически- градиентного итеративного выравнивания, которые содержат на выходе линейного КИХ- выравнивающего фильтра безынерционную нелинейность, для того чтобы генерировать «желательную характеристику» на каждой итерации.
Начнем с первоначального предположения, чта коэффициенты оптимального эквалайзера равны (с„). Затем свертку импульсной характеристики канала и импульсных откликов эквалайзера можно выразить так (с„)Э(1„)= (б„)+(е„), (11.5.16) где (б„)-единичная отсчетная последовательность, а (е„) означает последовательность ошибок, возникающая из нашего первоначального предположения коэффициентов эквалайзера.
Если мы возьмем свертку импульсного отклика эквалайзера и принимаемой последовательности (а„) мы получим (У,)= (о„)Э(с„)= (1„)Э(/'„)Э(с„)+(т1„)Э(с„)= (1„)Э((б„)+(е„))+(г1„)Э(с„) = (1„)+ (1„1Э (е„)+ (т1„) Э (с„) . (11.5.17) Слагаемое (1„) в (11.5.17) представляет желательную последовательность данных, слагаемое (1„)Э(е„) представляет остаточную МСИ, а слагаемое (г~„)Э(с„) представляет апдитивныи шум. Наша задача сводится к использованию «развернутой» последовательности ~„), чтобы найти наилучшую оценку «желательного» отклика, которую обозначим в общем (И„). В случае адаптивного выравнивания, использующего обучающую последовательность (4„)=(1„). При варианте слепого выравнивании мы хотим генерировать «желательный» отклик из (1„). Для определения наилучшей оценки (1„) по наблюдаемой на выходе эквалайзера последовательности 11„) можно использовать критерий минимума среднего квадрата ' ошибки (СКО).
Поскольку передаваемые последовательности (1„) имеет негауссовскую ФПВ, оценка по минимуму СКО определяется нелинейным преобразованием (~1 ~). В гл> общем «наилучшая» оценка (д„) определяется так: Ы„= д(1„) (без памяти) (11.5. 18) о'„= д(1„, 1„,,, 1"„„,) (памятыи — го порядка), : где д() — нелинейная функция. Последовательность («1„) затем используется для генерирования сигнала ошибки, который подается обратно на фильтр адаптивного : выравнивания.
как показано на рис.11.5.1. Как хорошо известно, классическая задача оценивания формулируется так. Если выход " эквалайзера )'„выразить так ~„= 1. + Ч, (1 1.5.19) где г)„предполагается гауссовским с нулевым средним (здесь использована центральная предельная теорема теории вероятностей для остаточной МСИ и аддитивного шума), 11„~ и 111„) статистически независимы, а (г„) — статистически независимые и одинаково распределенные случайные величины, тогда оценка по минимуму СКО равна А =Е(Ц1„), (11.5.20) Рис.11.5.1.
Адаптивное слепое выравнивание со стохастическим градиентным алгоритмом которая является нелинейной функцией выхода эквалайзера, если 11„1 негауссовскпе случайные величины. Таблица 11.5.1. Стохастические градиентные алгоритмы дли слепого выравнивании с„и = с„г-Еч„е„ Келггггеггггостгп ~(1„) Алгоритм Годардк Сато Бенвениспг-Горсата Старт-стоп 57б Коэффициенты ячеек эквалайзера Последовательность принятого сигнала Последовательность нв выходе эквалайзера Последовательность ошибок зквалвизсра Уравнение обновления оценок 1. +1(1.
-1.)+ Ф -1 М ап(1.)-1„Ь. 1) и А; 1„+ гА(1„— 1„)+э В(1„-1„) (А, В) =(2,0), (1.1). (1,— 1) нли (О,О), взависимостиотзняка ошибки 1„— 1 „и ошибки с, сза;и 11„1 — 1„ Е[с'„'о„д (1,)]= Е1с,",о„7,', 1 фд'(~„)1= Е~Х„~" ~ (11 5.22) Следовательно, требуется, чтобы выход эквалайзера ~„1 удовлетворял условию (11,5.22).
Заметим, что (11.5.22) устанавливает, что автокорреляция (1,) (правая часть) равна взаимной корреляции между („и нелинейного преобразования 1„(левая часть). Процесс„удовлетворяющий этому свойству, назван Беллини (1986) процессом Базганга (1952). В целом алгоритмы, данные в табл.11.5,1, сходятся, когда выходная последовательность эквалайзера 1„удовлетворяет свойству Базганга. Базовое ограничение стохастических градиентных алгоритмов относительно медленная сходимость. Некоторые улучшения в скоростях сходимости можно достичь модификацией адаптивных алгоритмов типа НК в рекуррентный тип наименьших квадратов (РНК). Алгоритм Годарда. Как указанно выше, алгоритм слепого выравнивания Годарда является алгоритмом скорейшего спуска, который широко используется на практике, когда обучающая последовательность нежелательна.
Опишем этот алгоритм более подробно. Годард рассматривает задачу об объединении выравнивания и восстановления фазы несущей и ее отслеживания. Отслеживание фазы несущей выполняется на базовом сигнале после эквалайзера, как показано на рис.!1.5.2. Основываясь на этой структуре, мы можем выразить выход эквалайзера так к ~ь = ~' С,О~ „., (1 1.5.23) м=-» а вход на устройство решения так 1, ехр( — уф,), где ~,— оценка фазы несущей на Ф-м символьном интервале. Если желательный символ известен мы можем формировать сигнал ошибки е, =1,— 1,е яв (11.5.24) и минимизировать СКО по ф, и (с„) гп(пЕ~~~Р -7 е Яа !').
(11 5.25) 37-56 Табл.11.5. 1 иллюстрирует общую форму существующих алгоритмов слепого выравнивания, базирующиеся на НК адаптации. Мы видим„что базовое отличие этих алгоритмов заключается в выборе инерционной нелинейности. Наиболее широко используемым на практике алгоритмом является алгорлжгл Гпг17рдп, иногда называемый ллгорллм~ом с лослюялны и модулелт (АПМ). Из табл.11.5.1 очевидно, что выходная последовательность (И„1, получаемая прн использовании нелинейной функции от выхода эквалайзера, играет роль желательного отклика или обучающей последовательности. Также очевидно, что рассматриваемые алгоритмы просты для реализации, поскольку они являются базовыми алгоритмами типа НК.
Раз так, мы ожидаем, что характеристики сходимости этих алгоритмов будут зависеть от матрицы автокорреляции принимаемых данных (о„). С учетом сходимости адаптивные алгоритмы вида НК сходятся в среднем, когда Е~о„д (1„)~= Е[о„/„' 1, '(Н5 ) и в средне квадратичном смысле, когда (верхний индекс О означает сопряженное транспонирование) хам 3 Рис.