Прокис Дж. - Цифровая связь (1266501), страница 81
Текст из файла (страница 81)
1. 106) где Я, — скорость кода. Для больших и слагаемым 1!и можно пренебречь. Если код имеет наибольшее возможное расстояние, т.е. И„., = и- 1+1, его называют разделимым кодом с .яиксимпльиььчч расстоянием. Исключая случаи тривиального кода (и, 1) для передачи двоичных сообщений с повторением, не существует двоичных разделимых кодов с максимальным расстоянием. Фактически верхняя граница в (8.1.106) для двоичных кодов весьма неточная. С другой стороны, существуют недвоичные коды с е( . =и-юг+1.
Например„коды Рида — Соломона, которые представляют подкласс БЧХ кодов, являются разделимыми кодами с максимальным расстоянием. В дополнение к верхней границе, данной выше, имеется несколько плотных границ для минимального рассгояния линейных блоковых кодов. Мы вкратце опишем четыре важные границы, три из них верхние границы, а четвертая нижняя, Доказательство этих границ сложное и не представляет особого интереса в нашем последующем обсуждении.
Интересующемуся читателю можно порекомендовать главу 4 книги Питерсона и Уэлдона (1972) с этими доказательствами. Одна верхняя граница для минимальных расстояний может получиться из неравенства (8.1.83). Взяв логарифм от обеих частей (8.1.83) н разделив на и, мы получим ' Ги1 (8.1.107) Поскольку эффективность кода, измеряемая параметром ч, связана с минимальным расстоянием, (8.1.107) является верхней границей для минимального расстояния. Ее называют верхней границей Хелтинга, Получена асимптотическая форма (8.1.107) при и -+ со, Теперь для любого и пусть ~„ является наибольшим целым ), при котором выполняется (8.1.107).
Тогда можно показать (Питерсон и Уэлдон, 1972) что при и — э соотношение ~/и для каждого (и,А) блокового кода не может превысить ч, ~и, где г„/и удовлетворяет условию 1-Л, = Н(к,/»), а Н() — двоичная энтропийная функция„определяемая (3.2.10). Обобщение границы Хемминга на недвоичные коды с основанием 9 простое: (й (8.1. 109) и ',, 1 Другую верхнюю границу, открьггую Плоткиным (1960), можно определить так. Число проверочных символов„требуемое для достижения минимального расстояния д,„в линейном блоковом коде (и, М), удовлетворяет неравенству дй -1 и — й > — -1 — 1о8 е1 „.
(8.1.110) — Ч ч' Для двоичного кода (8.1.110) можно выразить так (8.1.1 1 1) 41'„,„/и > а, (8.1.114) где и связано со скоростью кода уравнением 11с =1 — О(сс) =1+и1О8аи+(! — и)!о80(! — и), 0<и < а. (8.1.115) Эта нижняя граница — частный случай нижней границы, открытой Гильбертом (1952) н Варшамовым (1957), которая применима для недвоичных и двоичных блоковых кодов. Асимптотические границы, данные выше, приведены на рис. 8.1.16 для двоичных кодов. С целью сравнения на рисунке даны также кривые минимального расстояния, как функции скорости кода для БЧХ кодов с длиной блоков п = 31 и 63. Видно, что для п = 31 и 63 нормированное минимальное расстояние хорошо ложггтся над нижней границей Варшамова-Гильберта.
По мере увеличения длины блока и, эффективность БЧХ кодов ослабевает. Например, когда п = 1023, кривая нормированного минимального расстояния ложится близко к границе Варшамова — Гильберта. Если и возрастает выше и = 1023, нормированное минимальное расстояние БЧХ кода продолжает уменьшается и падает ниже границы Варшамова — Гильберта. Это значит, что гг„с„/и приближается к нулю по мере того как и стремится к бесконечности. Следовательно, БЧХ коды, которые являются наиболее важным классом циклических кодов, не очень эффективны при больших длинах блоков.
0,5 0,4 О 00 0,4 0,6 О,К 1Д Сюрссгь сода д, Рис. Я 1.16. Всржиа и нииоил граници пормироаашого минимального расстовниа в функции от скорости кода Наконец, имеется другая плотная верхняя граница для минимального расстояния, полученная Элиасом (Берлекэмп, 1968). Ее можно выразить в асимптотической форме; с~,„/п < 2А(1 — А), (8.1.
112) где параметр А связан со скоростью кода уравнением Я. =!+А!оя, А+(1 — А)1оц,(! — А), О< А < ~, (8.1,113) Существуют также нижние границы для минимального расстояния линейного блокового кода (п,гг). В частности, существует двоичный блоковый код, имеющий нормированное минимальное расстояние, которое асимптотически удовлетворяет неравенству вероятностями Р, =1 — Р, и Рм/(М-1). Эта модель канала, которая иллюстрируется на рис. 8.1.17, является обобщением ДСК. Качество декодера жестких решений можно характеризовать следующей верхней границей для вероятности ошибки кодового слова: (8.1.119) М-1 Р М-1 Рис.
8.1.17. Л1-ичный по входу, М-ичный по выходу симметричный камал без памяти где 1 — число ошибок, гарантированно исправляемое кодом. Ошибке кодового слова соответствует вероятность ошибки символа .=~~к Ф~- Г ;=1,1 Далее, если символы отображаются битами, то вероятность ошибки (8.1.120), равна (8.1.120) на бит, исходя из (8.1.121) 2"' Р, 2 — 1 Пример 8.1.13. Рассчитаем качество кода Рида-Соломона при У = 2' — 1 — 31, й =-3,5,9,17.
Соответствующие значения К равны 29, 27, 23 и 15. При модуляции используются М = 9 =- 32 ортогональных сигнала ЧМ и некогерентное детектирование на приеме. Вероятность ошибочного приема символа определяется (5.4.46), и ее можно выразить в виде (8.1.122) ! где у — ОСШ на кодовый символ. Используя (8.1.122) в (8.1.120) и объединяя результат с (8.1.121)„мы получим вероятность ошибки на бит. Результаты этих расчетов даны на рис.
8.1.18. Заметим, что более мощные коды (больше В„,„) дают худшее качество при низких ОСШ на бит, чем слабые коды. С другой стороны, при высоких ОСШ более мощные коды дают лучшее качество. Таким образом, имеется пересечение среди различных кодов, как показано для примера на рис. 8.1.18 для значений г = 1 и 1 = 8.
1о-з 4Д З,О О,О осш на оку, у~гла) Рис. 83.18. Характеристики некотории кодов Рида-Соломона, испрввляшпшх у ошибок, с Л' 31, 32-позицнонной ЧМ в канале с АБГШ (некогереитная демодуляция) Пересечение также возникает для кодов с у = 1, 2 и 4 при малых значениях ОСШ па бит. Аналогично, кривые для у = 4, 8 и у = 8, 2 пересекается в области больших значений ОСШ Это характерное поведение кодированных сигналов при некогерентном детектировании. Если демодулятор не выносит жесткое решение по каждому кодовому символу, но, вместо этого, отправляет неквантованные выходы согласованных фильтров к декодеру.
можно использовать декодирование мягких решений. Такое декодирование включает в Ф гк себя формирование и =2 корреляционных метрик, где каждая метрика соответствует одному из су' кодовых слов и состоит из суммы выходов М согласованных фильтров, соответствующих М кодовым символам, Выходы согласованных фильтров можно (1) суммировать когерентно, (2) детекгировать по огибающей, а затем суммировать или (3) квадратировать и затем суммировать. Если используется когерентное детектирование, а в канале действует АБГШ, расчет вероятности ошибки является простым обобщением двоичного случая, рассмотренного в разделе 8.1.4. С другой стороны, если используется детектирование огибающей или квадратичное детектирование и некогерентное сложение для формирования величин, по которым принимается решение, расчет качества декодера значительно более сложен.
Каскадные блоковые коды. Каскадный код состоит из двух отдельных кодов„ которые обьединяются для образования большего кода. Обычно один из кодов выбирается недвопчным, а второй двоичным. Они соединяются каскадно, как показано на рис. 8.1.19. Недвоичный (М, К) код образует внешний код, а двоичный — внутренний код. Кодовые слова формируются путем подразделения блока на К1 информационных бита по К группам, называемым символами, причем каждый такой символ состоит из к бит. К символов (с й битами каждый) кодируются в М символов внешним кодом, как это обычно делается при недвоичном кодировании.
Внутренний кодер берет каждый А-битовый символ и кодирует его в двоичный блоковый код длины и. Таким образом, мы получаем каскадный блоковый код, имеющий длину Мп бита и содержащий Кlг информационных 399 бита. Это значит, мы создали эквивалентный (ЛЪ,КА) длинный двоичный код. Биты в каждом кодовом слове передаются по каналу посредствам ФМ плп, возможно, ЧМ. Рис. Я.1.19. Блок-схема еистекиа сияли, исиользуккией каскадный коЛ Также укажем, что минимальное расстояние для каскадного кода равно с1„„„О,„,„, где 27,„,„— это минимальное расстояние для внешнего кода, а еl,„— минимальное расстояние для внутреннего кода, Далее, скорость каскадного кода равна Кк/ЛЪ, что равно произведению скоростей двух кодов.
Декодер жестких решений для каскадного кода удобно разделить на внутренний декодер и внешний декодер. Внутренний декодер выполняет жесткое решение по каждой группе из и бита, соответствующие кодовому слову внутреннего кода, и выносит решение о к информационных битах, основываясь на алгоритме максимального правдоподобия (минимума расстояния). Эти х бит представляют один символ внешнего кода. Когда принят блок пз ЛГ Ф-битовых символов от внутреннего декодера, внешний декодер принимает жесткое решение по К к-битовым информационным символам, основываясь на декодирование по правилу максимального правдоподобия. При каскадном кодировании возможно и декодирование мягких решений.
Обычно оно выполняется по внутреннему коду, если он выбран так, что имеет немного кодовых слов, т е. 2' не очень велико. Внешний код обычно декодируется посредствам декодера жестких решений, особенно если длина блока велика н имеется много кодовых слов. С другой стороны, можно достичь достаточный выигрыш в качестве при использовании декодирования мягких решений по внутреннему и внешнему кодам, чтобы оправдать дополнительную сложность декодирования. Этот случай интересен для цифровых систем связи в радиоканалах с замираниями„как мы покажем в главе 14. Мы завершим этот подраздел следующим примером.
Пример 8.1 14. Предположим, что код Хемминга (7, 4), описанный в примерах 8.1.1 и 8.1.2, используется как внутренний код при каскадном кодировании, причем в качестве внешнего кода используется код Рида — Соломона. Поскольку К-4„выберем длину кода Рида — Соломона М вЂ” 2' — 1=15. Число информационных символов К в кодовых словах внешнего кода можно выбрать в области 1 < К < 14 для того, чтобы достичь желательную скорость кода.