Прокис Дж. - Цифровая связь (1266501), страница 47
Текст из файла (страница 47)
Вероятность ошибки ограничена сверху объединенной границей для вероятности М вЂ” 1 событий. Это означает, что если Е, представляет событие, что С(г,я,)> С(г,в,)для « ~1, тогдаимеем Р„, = Р~~ ~,Е,) <~,Ь;. Следовательно, Р„, < (М- 1) Р =(М-1)а(Д7М,) < Ма(ф, / М,). (5.2.25) Эту границу можно упростить посредством верхней границы для ()(,/~;, / М,) . Имеем 0(~'./" )<е' '" (5.2.26) Таким образом Р„, < Ме ' '" — 2«е "'" -«(ь ч,-«ь«) « (5.2.27) Р„, <е При /с — «сс, что эквивалентно М -«со, вероятность ошибки зкспоненциально стремится к нулю при условии, что 0«' / Л', больше, чем 2 1п2, т.е. к«/М >21п2=1,39 (1,42дБ).
(5.2.28) Простая верхняя граница для вероятности ошибки, определяемая (5.2.27), подразумевает, что когда ОСШ на бит больше, чем 1,42дБ. то мы можем достичь произвольно малую вероятность ошибки Р„,. Однако зта объединенная граница не является очень плотной границей при достаточно низком ОСШ, что объясняется тем фактом, что верхняя граница для Д-функции в (5.2.26) является неточной.
Действительно, посредством более тщательного исследования границ в гл. 7 показано, что верхняя граница (5227) достаточно плотная при '«г« / Л', > 4 1п2. Для 0« / М, < 4!п2 плотная верхняя граница для Р„, определяется так: Р 2 -«1//Р««„-/«и«) (5.2.29) Следовательно, Р„, — + О при к -+ 0э при условии, что 1г« / Мо > 1п2 = О 693 ( — 1 бдБ) .
(5.2.30) Таким образом, 1,6 дБ — зто минимальное ОСШ на бит, требуемое для достижения произвольной сколь угодно малой вероятности ошибки в пределе, когда /г — > 0э (М -+ сю) Это минимальное значение ОСШ на бит ( — 1,6 дБ) названо пределом Шеппои««для канала с аддитивным белым гауссовским шумом. 5.2.3. Вероятность ошибки дли М-позиционной биортогональной системы сигналов Как указано в разд. 4.3, ансамбль из М = 2« биортогональных сигналов конструируется из —.
М ортогональных сигналов путем его дополнения сигналами, которые противоположны ь ортогональным сигналам. Так мы достигаем уменьшения сложности демодулятора для биортогональных сигналов относительно демодулятора такого же количества ортогональных сигналов, так как он требует лишь —, М взаимных корреляторов или согласованных фильтров вместо Мсогласованных фильтров или взаимных корреляторов. Чтобы рассчитать вероятность ошибки для оптимального детектора, предположим, что 222 был передан сигнал з,(г), которому соответствует вектор з, =(Я О О ...
01.. Тогда вектор принимаемого сигнала (5.2.32) 52.4. Вероятность ошибки для симплекеных сигналов Теперь рассмотрим вероятность ошибки для М симплексных сигналов. Напомним из разд. 4.3, что симплексные сигналы образуют ансамбль из М одинаково коррелированных сигналов с коэффициентом взаимной корреляции р„„=-1/(М вЂ” 1). Эти сигналы имеют одинаковое минимальное расстояние /'2Г,.
между соседними сигнальными точками в М-мериом пространстве, как у ортогональных сигналов. Они достигают такое взаимное разделение посредством передаваемой энергии 8'„(М вЂ” 1) / М, которая меньше, чем требуется для ортогональных сигналов,. в (М вЂ” 1) / М раз. Следовательно, формула для вероятности ошибки системы симплексных сигналов такая же, как для ортогональных сигналов, но достигается зкономия в ОСШ на .=~.д+, (5.2.3 1) где (и ) — взаимно независимые гауссовские случайные величины с нулевыми средними и дисперсией о,'=-,'М,. Оптимальный детектор выбирает решение в пользу сигнала, которому соответствует максимальное значение взаимной корреляции мп С(г,я ) = г.я„, = ~~~„т и „, т = 1,2,,—,' М, ьо причем знак наибольшего слагаемого используется для решения о том, передан ли сигнал з„,(/) или — з„,(г).
Согласно этому правилу решения вероятность правильного решения равна вероятности того, что й =.,'/е;+и, >О, и с; превышает по модулю Ц=~л„,~, я=2,3, ..., ФМ. Но Р~~л„~<г|~», >О~= / — ~ е "'"'с/х= ) е ""с(х. (5.2.33) 1 к~о Вероятность правильного решения равна Р„= г( 1 — 1~~~-""ь) р(,)и;. Из этой формулы, подставив выражение для р(б), получим ~ ма-~ где мы использовали ФПВ, определяемое (5.2.15). Окончательно вероятность ошибки на символ Р„, =1 — Р„,.
Вероятность Р, и, следовательно, Р,„можно. численно рассчитать для различных значений М по (5.2.34). Кривые на рис. 5.2.6 иллюстрируют зависимость Рм как функцию от ~, / М„где ~, = Ы„, для М=2, 4, 8, 16, 32. Видим, что эти кривые похожи на те, которые определяют систему ортогональных сигналов (см. рис.
5.2.5). Однако в этом случае вероятность ошибки для М = 4 больше, чем при М = 2. Это объясняется тем, что на рис. 5.2.6 показана зависимость для Рм. Если бы мы показали зависимость эквивалентной вероятности ошибки, то можно было бы видеть, что кривые при М =2 и М=4 совпадают. Как и в случае ортогональных сигналов при М -+ о (при Й -+ о ) требуемое минимальное значение Ф, / М, для достижения произвольно малой вероятности ошибки равна — 1,6 дБ, т.е.
пределу Шеннона. 223 (О 101й~1 — р) = 101я дБ. (5.2.35) Для М=2 экономия составит 3дБ. Однако по мере увеличения М экономия в ОСШ стремится к 0 дБ. (Оа 5 а. 5.2.5. Вероятность ошибки для М-позицнонной системы с двоичными кодовыми сигналами кодового блока, н она является также размерностью М-позиционного сигнала. -4 О 4 Я 12 (б ОСШ набит, тилб Рис.
5.2.6. Вероятность ошибки на символ лля биоргогональных сигналов 15.2.36) Величина минимального евклидова расстояния будет зависеть от выбора кодовых слов, т.е. синтеза кода. 5.2,6. Вероятность ошибки для М-позиционной АМ Напомним, что М-позицнонные сигналы Ам представляются геометрически как М одномерных сигнальных точек со значениями (5.2.37) где (гс — энергия базового сигнального импульса у(1) . Значения амплитуд можно выразить гак Аи =(2т — 1 — М)аа, т =1,2,..., М, (52.38) где евклидово расстояние между соседними сигнальными точками равно И Г2й'„. Средняя энергия сигнала и ((а аас ла (а 'ела 11„= — > И„, — ' ~(2т-1 — М) = ' (фМ(М вЂ” 1))=- а(М 1)И 1', (5.2.39) и-а п =! 224 о а 'Х й 1О' а в а о 1Ои к Мы видели в разд. 4.3, что двоичные кодированные сигналы можно представить сигнальным вектором а,„=(з„, з„„...
з„,„), па=1, 2, ..., М, где 1;, =+,/К7У для всех т и 7', А длина Если аа„а„— минимальное евклидово (и расстояние между парой сигналов из М возмох(ных, тогда вероятность ошибки приема кодового блока определяется верхней границей так: где Г =Р Т вЂ” средняя энергия.
При построении зависимости вероятности ошибки ив символ М-позицнонной системы АМ обычно используется ОСШ на бит как базовый параметр. Так как Т = 1сТ, и /с = 1ой, М, (5.2.45) можно преобразовать к 2(М-1) ~61оа М)к„ М (М'-1)М, (5.2.46) где и, = Р Т, — средняя энергия на бит, а р~, /Ма — средняя ОСШ на бит. Рисунок 5.2.8 иллюстрирует зависимость вероятности ошибки на символ ат 10ф /Фа) со значением М в качестве параметра.
-6 -4-2 О 2 4 6 8 1О 12 $416!82022 ОСШ набат, уь,дБ Рнс. 5.2.8. Вероятность ошибки нв символ дяя АМ 5.2.7. Вероятность ошибки для М-позиционной ФМ Напомним из разд. 4.3, что цифровой сигнал ФМ можно выразить так: 2ус 8„(у) = 8(у)со 2ф;г+ — (ун — 1), 1< и < М, 0< 1 < Т, (5.2.47) и он имеет векторное представление 2к 2п ,=~д~м — ( — в Г~яп — ~ — в~, гДе 8; =1~я — энеРгиЯ кажДого сигнала, а 8(Г)-огибаюЩаЯ импУльса пеРелаваемого сигнала.
Поскольку сигналы имеют одинаковую энергию, оптимальный детектор в канале с АБГШ, определяемый (5.1.44), вычисляет корреляционные метрики (5.2.48) Б |О- а а Ф о 1О' С 8 ~а Заметим, что случай М = 2 соответствует вероятности ошибки для двоичной системы противоположных сигналов. Также видим, что при фиксированной вероятности ошибки Рн ОСШ на бит возрастает более чем иа 4дБ при каждом удвоении числа М.
При очень больших М требуемый рост ОСШ при удвоении числа М приближается к 6 дБ. С(г, в ) = г в, гп = 1, 2, ..., М . (5.2.49) Другими словами, принимаемый сигнальный вектор г =(г1 г2) проектируется на М возможных сигнальных векторов, и решение принимается в пользу сигнала с наибольшей проекцией. Корреляционный детектор, описанный выше, эквивалентен фазовому детектору, который определяет фазу принимаемого сигнала г и выбирает сигнальный вектор а, фаза которого ближе всего к фазе г. Поскольку фаза г равна Гт О„= агсгя —, т; мы хотим определить ФПВ О„по которой сможем вычислить вероятность ошибки.
Рассмотрим случай, когда фаза передаваемого сигнала з,(г) равна О, = О. Следовательно, вектор переданного сигнала в, =[Я О~, (5.2.51) а вектор принимаемого сигнала имеет компоненты ~ =,/0;+ип (5.2.50) (5.2.52) гз = пз. Поскольку и, и пз являются совместно гауссовскими случайными величинами с нулевыми средними, следует, что ~; и гт являются совместно гауссовскими случайными величинами с Е(г; ) = Д, Е(г ) = О и о, = сг~ = з Мс = а,' . Следовательно, 1 (г;-Д) +г,' р,(~ ,)= з ехр— (5.2.53) 2пст, 2а~ ФПФ фазы О„можно получить заменой переменных (~п гз) на К = Я+гз', О„= агсгй(гз/г,). Это дает совместную ФПВ (5.2.54) р, (ГО )=, ех г К'+Ж вЂ” 2 Я1гсозО, 2а, Интегрирование р, (К,О,) по области г' дайт р (О,)= ~ р, (Р;О,)с1г"= — е '"'""~'~ ге ~ '~' '~~зсУ, (5.2.55) где для удобства мы обозначили ОСШ символом у, = й;/Фа . Рисунок 5.2.9 иллюстрирует р„(О,) для различных значений параметра ОСШ у., когда фаза переданного сигнала равна нулю Заметим, что р (О„) становится уже и более концентрированной около фазы О, = О по мере увеличения параметра ОСШ у „.
Когда передается ь;(г), ошибочное решение произойдйт, если шум вызовет нахождение фазы у„внеобласти -л(М~О„<п/М. ! Автор на протяжении всей книги обозначает случайные величины (процессы) то прописными (как обычно принято), то строчными буквами. Ввиду большого обьдма материала мы не ствлп вносить соответстауюших изменений (прп). 15' 227 с ( 2) -45~ (5.2.58) где Р,, — вероятность правильного приема для двух битовых символов. Результат (5.2.58) следует из статистической независимости шума на квадратурных несущих.