Прокис Дж. Цифровая связь (2000) (1151856), страница 47
Текст из файла (страница 47)
11 ° 'й. Рис. 5.1.12. Один шаг по решетчатой диаграмме для модуляции с задержкой Пример 5.1.4. Рассмотрим правило решения при детектировании данных последовательности сигналов ДБНП с алгоритмом Витерби и задержкой решения на 5Х символов. 5.1.5. Посимвольное детектирование для сигналов с памятью В противоположность МП детектору последовательности для детектирования переданной информации теперь опишем детектор, который выполняет посимвольные решения, основанные на вычислении максимума апостериорной вероятности (МАВ) для каждого детектнруемого символа. Следовательно, этот детектор оптимален в том смысле, что он минимизирует среднюю вероятность ошибочного приема символа.
Алгоритм детектирования, который представлен ниже, принадлежит Абенду и Фритчману (1970), которые разработали его как алгоритм детектирования для каналов с межсимвольной интерференцией, т.е. каналов с памятью. ' Задержка решения относительно отдельных кодовых символов при использовании строгого АВ может быть различной, даже неограниченной, что практически крайне нежелательно (прп). Отметим, что в этом примере последовательный МП детектор и посимвольный детектор, который игнорирует память ДБНП сигнала, принимают одинаковые решения. Поэтому нет нужды в задержке решения. Тем не менее процедуру, описанную выше, применяют в общем случае.
214 Решетка для ДБНП показана на рис.5.1.11. В этом случае 1=1, следовательно, задержка при детектировании символа простирается на 5 бит. Следовательно, при г = бТ имеем две выжившие последовательности, одну для каждого нз двух состояний, и соответствующие метрики р,(Ь„Ь„Ь„Ь„Ь„Ь,~ и 12,~Ь,',Ьз',Ьз',Ь4',Ь,',Ь,'~~. На этом шаге с вероятностью, близкой к единице, символ Ь, будет такой же, что и Ь,'; это значит, что обе выжившие последовательности будут иметь общую первую ветвь. Если Ь, ~ Ь,', мы можем выбрать символ Ь, или Ь,', соответствующий меньшей из двух метрик.
Затем первый бит исключается из двух выживших последовательностей. При г = 7Т, две метрики 14„(Ь„Ь„Ь„Ь,,Ь„Ь,) н р,(Ьз,Ьз,Ь,',Ь,',Ь,'„Ь,') используются для определения решения по символу Ьз. Этот процесс повторяется на каждом шаге при поиске по решетке наименьших по расстоянию последовательностей. Таким образом, в нашем примере задержка детектора фиксирована на 5 символов, 2 А Р) з " = А„, (гр, Р, г„,Р ) „... г) )- / (р) (5.1.66) Р(Г„ Р,Г„ „...Р",) а знаменатель общий для всех символов, правило максимума апостериорной вероятности (МАВ) эквивалентно выбору я(", который максимизирует числитель (5.1.66).
Таким образом, правило выбора символа Р) можно записать так: (5.1.67) Если символы равновероятны, вероятности Р~з® = Ар,) можно исключить из вычислений. Алгоритм для вычисления вероятностей в (5.1.67) рекуррентно начинается с первого символа з(') . Имеем Уг" - вгх~т~ р(г„,...,г, )гт = А„)р(г"г = А„)~ = =тр)~~хр" ).Р(Х.....,Х)Р' ~,... гг)Р( '" г„,Рг)) = = ~- х-х.,("",,",-)~, АР ) +О) „)г) (5.1.68) где з ") означает решение об Р, и для математического удобства мы обозначили ( ("Р (з ('))в р( г! " о~)ф"~~,..., ()). (5.1.69) Совместную вероятность г~з ),...,з~ ), х~ ~) можно опустить, если все символы равновероятны и статистически независимы.
Как следствие статистической независимости последовательности отсчетов аддитивного шума, имеем (1+а) ())Ъ Р()')+Р " Ф " ~ )= ()+Р) О+Р Р)) ( ~ (Р) (Р-).)) ( ~ (2) ())) ( ~ ())) (5.1.70) где мы предположили, что з") = О для 1(<О. Для детектирования символа Р имеем г г агр(гцх)(г„,,)~ г'г = А„))(гхг =А.,)) = .х~трх Г 5'р(,,) р..г,.г))(,,х га)) ,)ргр) ))Г Совместные условные плотности вероятности в суммах можно выразить так: (5.1.71) 215 Мы прроиллюстрируем этот алгоритм применительно к детектированию сигнала АМ с М возможными уровнями. Предположим, что необходимо детектиро вать информационный символ, переданный на Й-м сигнальном интервале, з( пусть г„г„...,р„ наблюдаемая принятая последовательность, а Е7 — параметр задержки, который выбирается так, чтобы превысить память сигнала, т.е.
Е7> Е, где Š— присущая сигналу память. На основе принятой последовательности вычисляем апостериорные вероятности Р(Р) = А ~РР,Р,г„,Р „...г,) (5.1.65) для М возможных позиций символов и выбираем символ с наибольшей вероятностью. Так как В общем рекуррентный алгоритм для детектирования символа я(") после приема г(,О,г,, О „...г„г, можно записать в виде «к« = «ц(т!~Р(~„„д„, О ...«!«'«)Р(Р)( = ( ( ,О !«.р! (5.1.76) где по определению / (2+О) (2+!) (2)1 ! И О) ((+О-2)! О( О+Ой С ) (!«-!«О) (2) О-!)) =Р( ! ... )21 )~ (5.1.77) ))+ОФ > "«~ 1'1~ )~ Рр-д,~ , !-«! Таким образом, рекуррентный характер алгоритма выражается соотношениями (5.1.76) и (5.1.77).
Основная проблема с этим алгоритмом — вычислительная сложность. В частности, усреднение, выполняемое над символами х("О),...,ю(""),х(~) в (5.1.76)? требует большое число вычислений на одном такте принимаемого сигнала, особенно если число М уровней амплитуд 1А„,) велико. С другой стороны, если М мало и память относительно невелика, этот алгоритм легко выполняется, 5.2. ХАРАКТЕРИСТИКИ КАЧЕСТВА ОПТИМАЛЬНОГО ПРИЕМНИКА ДЛЯ МОДУЛЯЦИИ БЕЗ ПАМЯТИ В этом разделе мы определим вероятность ошибки для модулированных сигналов без памяти, описанных в разд.
4.3.1. Сначала рассмотрим сигналы двоичной АМ, а затем М-позиционные сигналы различных видов. 5,2.1. Вероятность ошибки при двоичной модуляции Рассмотрим сигнал двоичной АМ, где два сигнала — ю)(() = д(() и ю2(2) = — у(2), а д(Г)— произвольный импульс, который отличен от нуля на интервале О < Г < Т, и равен нулю в остальной области. 216 р(г /з"" ю' ) = р(г !ю~" я ' )р(г, О,...,г)/з "О) ...
Р~). (5.1.72) Далее совместную плотность вероятности ( ~ (!+О) (2))р( (!+О) (2)) можно получить через плотности вероятности, вычисленные ранее при детектировании Р. Это дает р(„'- Г„О,...,й!1Ю,...,З )= (!+О) (2) ! — г г(з+ 1 ( ' )1= ~- ( 5.1.73 , «! « Комбинируя (5.1.73) н (5.1.72), а затем подставив их в (5.1.71), получим 2"«= р т*2, -2р(««"'«...
«'««'«)( (5,1,74) «(2+р! .(3! где по определению ( (2+О) (2) (2)) ( ~ (2+Я (2«О-2)) Р( (2+О)) ~ ( ()+О) (2) (!)) (5 «!«! других боже детальных характеристик сигналов и шума. Во-вторых, заметим, что 2~ /Ф, также выходное отношение сигнал/шум (ОСШо) согласованного фильтра (и коррелятора) демодулятора. Отношение Ф',/Лгв обычно называют отношениелг сигнал/шум на бит. Отметим также, что вероятность ошибки можно выразить через расстояние между сигналами з, и з,. Из рис,5.2.1 видно, что два сигнала находятся на расстоянии Н„= 2.Д . Подставив К, = ~г1,', в (5.2.5), получим (5.2.6) Это выражение иллюстрирует зависимость вероятности ошибки от расстояния между двумя сигнальными точками.
Далее определим вероятность ошибки для двоичных ортогональных сигналов. Повторим, что в этом случае сигнальные векторы з, и з, являются двухмерными, как показано на рис. 5.2.3, и их можно выразить согласно (4,3.30) так: з, =(,/» О], (5.2.7) з, =10 Д], где 6; обозначает энергию для каждого из сигналов. Заметим, что расстояние между сигнальными точками тепеРь Ы„= 12»ь . Ф 5 ~р Для расчета вероятности ошибки предположим, что передается сигнал з,.
Тогда принимаемый вектор на выходе демодулятора г=~Д+и, и,]. (5.2.8) Мы можем теперь подставить г в корреляционные метрики, определяемые (5.1.44), чтобы получить С(г,з,) и С(г,з,) Вероятность ошибки — это вероятность того, что С(г,з„) > С(г,з,) . Таким образом, /гж„ я) Рис. 5.2.3. Сигнальные точки для двоичных ортогональных сигналов Р(е з,)= Р~С(г,з,)>С(г,з,)]= Р~п, — п, >Д]. (5.2.9) (5.2.11) где по определению у, — это ОСШ на бит. 218 Поскольку гг, н и, — статистически независимые гауссовские случайные величины с нулевым средним и дисперсией —,У„то х =и, -и, — гауссовская случайная величина с нулевым средним и дисперсией Л'в.
Следовательно, Р~~ — ~, .Я= — -1 * '" ь= 1 *" в=о(~ — ). о 210) Вследствие симметрии та же вероятность ошибки получается в предположении, что передается з,. Следовательно, средняя вероятность ошибки для двоичных ортогональных сигналов !О- Если Ьравним вероятность ошибки для двоичных противоположных сигналов с вероятностью ошибки для двоичных ортогональных сигналов, то находим, что ортогональные сигналы требуют удвоения энергии сигнала для достижения той же вероятности ошибки, что в системе с противоположными сигналами. Поскольку 101я2 = 3 дБ, то видим, что ортогональные сигналы на 3 дБ хуже, чем противоположные сигналы.
Разница в 3 дБ объясняется тем, что расстояние между двумя сигнальными точками ортогональной системы равно Ы1, =2еь', в то время как расстояние между точками противоположных сигналов равно с!'!, = ать. 2 Зависимость вероятности ошибки от 101дК„/М, для этих двух типов сигналов показана . на рис. 5.2.4. Как видно из рисунка, для любой заданной вероятности ошибки требуемое значение бь' / !уе для ортогональных сигналов больше, чем для противоположных сигналов, ! О.т 10-' 5 Й В !04 1О-Я !О- О 2 4 б 8 1О ОСШнябит, уидз Рис.