Прокис Дж. - Цифровая связь (1266501), страница 77
Текст из файла (страница 77)
Коэффициенты корреляции определяются так; р„=1-и„/л. (8.1. 57) Следовательно, вероятность того, что СМ > СМ>, равна Р2(>п) = 0(Ь>~а~~ а) (8.1.58) Сравнение этого результата с тем, который дается (8.1.49) для когерентной ФМ показывает, что когерентная ФМ требует на 3 дБ меньше ОСШ для достижения того же качества. Это не удивительно с учетом того факта, что некодированная двоичная ФМ на 3 дБ лучше, чем двоичная ортогональная ЧМ при когерентном детектировании.
Таким образом, преимущество ФМ относительно ЧМ сохраняется для кодированных сигналов. Затем мы заключаем, что границы, данные (8.1.50), (8.1.52), (8.1.54), приемлемы для кодированных сигналов, передаваемых посредством двоичной ортогональной когерентной ЧМ, если у„заменить на, у,.
Если в приемнике используется квадратичное детектирование двоичных ортогональных ЧМ сигналов, качество дополнительно ухудшается за счет потерь при некогерентном сложении, как будет указано в гл. !2. Предположим снова, что передается кодовое слово из одних нулей. Тогда корреляционные метрики определяются (8.1.55), где величины на входе декодера теперь равны 37>> зависят только от минимального расстояния кода„ приемлемы также к нелинейным двоичным кодам. Если для передачи каждого символа кодового слова через канал с АБПП используется двоичная ортогональная ЧМ, оптимальный приемник можно реализовать посредством двух согласованных фильтров, один согласованный с частотой, соответствующей передаче О, а другой согласованный с частотой, соответствующей передаче 1.
За ними следует декодер, который формирует М корреляционных метрик, соответствующих М возможным кодовым словам. В любом случае, пусть гоз и г>,. — отсчеты на входе устройство сложения Корреляционные метрики, сформированные декодером, можно выразить так СЯ,=Б~~„„~(~-е~„) =~,г,...,>>, >КЗЛ> з=> где с„представляет 7-й символ в 1-м кодовом слове. Кодовое слово, соответствующее наибольшому из 1> 'М,), выбирается в качестве переданного кодового слова.
Если осуществляется когерентное детектирование сигналов двоичной ЧМ, случайные величины (г„, ) и (г,,) являются гауссовскими и, следовательно, корреляционные метрики (СМ) также гауссовские. В этом случае границы для качества кода легко найти. Для конкретности, предположим, что передается кодовое слово С>, состоящее из одних нулей. Тогда аог !'!!' о ™ог! ;-1, г'=1,2, ...,и, г;,.=М,, (8.1.59) СМ!=Хго/, (8.1.60) в то время как корреляционные метрики, соответструющие кодовым словам с весом аь!, статистически эквивалентны корреляционным метрикам кодовых слов, в которых с =1 для 1< г'<м и с =О для аь +1< 7'ьп.
Такимобразом, Ш„можно выразитьтак Ф М (ЗУ. =,'~:г„+,'~:гог . (8.1.61) ! ! !=в+! Разность между СИ! и СЛг равна СМ,— СЛг =~~~~(г, — „.), (8.1.62) г=! а вероятность ошибки равна вероятности того„что СМ! — (З~ <О. Но зта разность является частным случаем общей квадратичной формы комплексных гауссовских случайных величин, рассматриваемых в гл. 12 и в приложении В. Выражение для вероятности ошибки при различении СМ! и одного из сигналов СМ" имеет внд (см. раздел 12.1.1): 1 ю -! Р,(т) =,„, ехр( — а у,А,аь„)~~ь Хфу,А,аь! ), (8.1.63) где, по определению, (8.1.64) Объединенная граница, получаемая путем суммирования Р,(па) по 2 ь т < М, дает нам верхнюю границу для вероятности ошибочного декодирования кодового слова. Как альтернативу, мы можем использовать минимальное расстояние вместо распределения весов, и получить менее плотную верхнюю границу И,„„-! Рьг < ы;;! ™МА ауьАо!" ) Х ~4ауьАоы! ) .
(8.1 65) ° =о Меру потерь из-за некогерентного сложения, при квадратичном детектировании и сложении и элементарных двоичных сигналов в кодовом слове, можно получить из рнс, 12.1.1, если И . используется вместо Л. Полученные потери соответствуют случаю, когда п элементарных двоичных ФМ сигналов сначала детектируются когерентно и складываются согласно (8.1.55), а затем суммы подвергаются квадратичному детектированию или детектируется огибающая для того, чтобы получить М величин для решения. Вероятность ошибки при двоичном различении для последнего случая равна Ра(т) = — ехр~- а у А,аь'„), 1 (8.1.66) 379 где (Моз) и (М„.) представляют комплексные статистически взаимно независимые гауссовские случайные величины с нулевыми средними и дисперсией М,.
Корреляционная метрика СЛ~! равна определяет меру отношения полос между ортогональными сигналами и кодированными сигналами при использовании ФМ и когерентного приема. Например, предположим, что мы используем двоичный циклический код (63, 33), который имеет минимальное расстояние И,„— 12. Отношение полос ортогональных сигналов и кодированных сигналов ФМ, определяемое (8.1.72), равно 127. Это указывает на частотную эффективность, получаемую кодированием применительно к ортогональным сигналам.
8,1.5. Декодирование жестких решений Границы, данные в разделе 8.1.4 для качества кодированных сигналов в канале с АБПП, основывались на предпосылке, что отсчеты на выходе согласованного фильтра или коррелятора не квантованы. Хотя такая обработка обеспечивает наилучшее качество, принципиальным ограничением являются вычислительные затраты по формированию М корреляционных метрик и их сравнению для определения наибольшей. Количество вычислений получается чрезмерным, когда число кодовых слов М велико. Для сокращения вычислительных затрат аналоговые отсчеты на выходе согласованных фильтров можно квантовать и операции декодирования выполнить как цифровые. В этом подразделе мы рассмотрим крайний случай, когда каждый отсчет, соответствующий одному символу кодового слова, квантуется на два уровня: нуль и единица.
Это значит, что принято решение (жесткое решение) о том, передан ли с каждым кодовым символом кодового слова «0» или «1». Результирующий канал с дискретным временем (состоящий из модулятора, канала с АБГШ и демодулятора) образует ДСК с вероятностью ошибки р. Если для передачи кодового символа кодового слова используется двоичная ФМ и осуществляется когерентный прием, то Р=о() )=ф2222,Я,).
(8.1.73) С другой стороны, если для передачи кодового символа кодового слова используется двоичная ЧМ, тогда р = Д(2~у,Я.) — при когерентном детектировании (8.1.74) р = 2 ехр( — 2у,й,) — при некогерентном детектировании. (8,1.75) 381 Декодирование по минимальному Расстоянию (правило максимального правдоподобия). Жесткие решения демодулятора для каждого принятого кодового слова поступают на декодер, который сравнивает принятое кодовое слово с М возможными переданными кодовыми словами и принимает решение в пользу кодового слова, которое ближе всего по Хеммингу к принятому кодовому слову, т.е.
отличается от него в наименьшем числе разрядов. Эго правило декодирования по минимальному расстоянию оптимально в том смысле, что оно обеспечивает минимальную вероятность ошибочного декодирования кодового слова в двоичном симметричном канале, Концептуально простой, но в вычислительном отношении неэффективный, метод для ::, " .декодирования жестких решений сводится к тому, чтобы сначала суммировать (щой 2) принятый вектор кодового слова со всеми М возможными к передаче кодовыми словами С„чтобы получить векторы ошибок е, Таким образом, е, представляет ошибочное ';:::..
событие, которое должно произойти в канале для того, чтобы превратить кодовое слово :;- С2 в данное принятое кодовое слово. Число ошибок при превращении С, в принятое :: кодовое слово как раз равно числу единиц в е, . Таким образом, если мы просто сосчитаем С,,+е, С,,+е, е., С,+е,„, С,+е, ... С,,+е, Эту таблицу называют стандартным расположением для заданного кода. Каждая строка, включая первую, состоит нз к принимаемых кодовых слов, которые образуются нз соответствующих образцов ошибок первого столбца.
Каждую строку называют смежным классом, а первые (самые левые) кодовые слова (или образцы ошибок) называют лидерами смежных классов. Следовательно, смежный класс состоит из всевозможных принимаемых слов, получающихся от частного образца ошибки (лндера смежного класса). Пример 8.1.10. Сконструируем стандартное расположение для систематического кода (5, 2) с порождающей матрицей О 1 О 1 1 382 вес каждого их М векторов (е,.) и примем решение в пользу кодового слова, которое привело к наименьшему весу вектора ошибки, мы фактически имеем реализацию правила: ': т. декодирования по минимуму расстояния.
о Более эффективный метод для декодирования жестких решений сводится к,:; и использованию проверочной матрицы Н. Для детальной разработки вопроса,:,'-: т предположим, что С вЂ” это переданное кодовое слово, а Х вЂ” принятое кодовое слово на выходе демодулятора. В общем случае Х можно выразить так Х=С +е, где е означает произвольный вектор ошибок. Произведение ХН' дает с учетом (8.1.9) ХН'=(С +е)Н' =С Н'+еН' =еН' =Я, (8,1.76) где (п-к)-мерный вектор Я называется синдромом образца ошибки.