Прокис Дж. - Цифровая связь (1266501), страница 46
Текст из файла (страница 46)
)1- ! »» и)) »! ° ! »!»! -о) (о где з означает решение об з, и для математического удобства мы обозначили Р (з(!'О) ...,Я(2),з(!)) (г, „,. уУ!'и) ю(!))Р(х(!'О) я(!)) (5 1,69) Совместную вероятность 1з, ..., з, з ) можно опустить, если все символы Г (ьа) (П (Оз равновероятны и статистически независимы. Как следствие статистической независимости последовательности отсчетов аддитивного шума, имеем 2()(+ "»»" ) (!*а) (!)1 г„„,...,г!~з,...з )= )Р~ ( "' /' "Р( 2 )Й где мы предположили, что з(м = О для й < О .
Ддя детектирования символа з('~ имеем !'" = »(~*»(;„,...,,!*" = »„,)»(~" - А„,)~- (5.1.71) ! 5~в» Совместные условные плотности вероятности в суммах можно выразить так: (5.1.66) (5.1.68/ 2)5 Мы проиллюстрируем этот алгоритм применительно к детектированию сигнала АМ с М возможными уровнями. Предположим, что необходимо детектиро вать информационный символ, переданный на /(-м сигнальном интервале, 2( пусть );, );, ....г„„,— наблюдаемая принятая последовательность, а Р— параметр задержки, который выбирается так, чтобы превысить память сигнала, т.е.
Р > Е, где Š— присущая сигналу память. На основе принятой последовательности вычисляем апостериорные вероятности Р( 2 я = А„~~;„с»Р;„а !»...г!) (2) (5.1.65) для 12 возможных позиций символов и выбираем символ с наибольшей вероятностью. Так как р();„!,...,г!$ь~ '"~,...з~ )) = р(г„„3з~ '"',...,з~ '" ' )р(г!,„,...,г!1з«о~,...,з~ )). (5.1.72) Далее совместную плотность вероятности р( „„,...,,1з«' ),...Р))р(з«' ),...,з(з)) можно получить через плотности вероятности, вычисленные ранее при детектировании з . Это дает ! ! Р( !+о '"~ ! ' ~'"' ) .«+(!) о)1 ( «о) (и) ( (!.о) (о) с; ( (!.с!) () (!)) (5 1.73) ,!! ,(1! ' Комбинируя (5.1.73) и (5.1.72), а затем подставив их в (5.1.71), получим ., Т. -Хр,("'",—.*",*'')).
' (5.1.74) «1*и!,!, ! где по определению ( и о! (з) и)) ( ~ н+ш (з (ь!)) Р(,О~!!)) "~" ( «+о! ( ) то) (5 1 7 ,.! ! В общем рекуррентный алгоритм для детектирования символа з("! после приема г „,г.. !,...г„г! можно записать в виде р~), 1 (, „,!в))р(в1)~ Я Г ( .!ч,!!.~!,,! ! (5.1.76) где по определению Г,(!+о) (!*!) (()1 (й о) (и)-!.)! пГ о+О))~С Г (А-!+О) н) (А-!)) = р( ° ( - 'р( )~. (5.1.77) )~+!!1~ '"'~ Р 1~ )~ Ри-!(~ )аким образом, рекуррентный характер алгоритма выражается соотношениями (5.1.761) и (5.1.77). Основная проблема с этим алгоритмом — вычислительная сложность. В частности, усреднение. выполняемое над символами Р'"),...,з("!),з(") в (5.1.76)? требует большое число вычислений на одном такте принимаемого сигнала, особенно если число М уровней амплитуд (А„,) велико.
С другой стороны, если М мало и память относительно невелика, э(от алгоритм легко выполняется. 5.2. ХАРАКТЕРИСТИКИ КАЧЕСТВА ОПТИМАЛЬНОГО ПРИЕМНИКА ДЛЯ МОДУЛЯЦИИ БЕЗ ПАМЯТИ В этом разделе мы определим вероятность ошибки для модулированных сигналов без памяти, описанных в разд.4.3.1, Сначала рассмотрим сигналы двоичной АМ, а затем М -позиционные сигналы различных видов. 5.2.1. Вероятность ошибки прн двоичной модуляции Рассмотрим сигнал двоичной Ам, где два сигнала — з!(!) = д(Г) и з„(() = — д(Г), а д(()— произвольный импульс, который отличен от нуля на интервале О < Г < Т„и равен нулю в остальной области. Поскольку я,(г) = — д,(г), эти сигналы называют противоположными.
Пусп, энергия импульса д(г) равна оэ. Как указано в разд. 4.3.1, сигналы АМ является одномерными, и, следовательно, их геометрическое представление определяется одномерными векторами а,=Я, д,=' — Д . Рисунок 5.2.1 иллюстрирует две сигнальные точки. Предположим, что два сигнала равновероятны и что передан сигнал а,(г). Тогда выходной сигнал (на выходе корреляционной схемы или согласованного фильтра) демодулятораравен г=я,+п=Я+п, (5.2.1). — + а~ а( Рис. 5.2.!.
Сигнальные точки для двоичных противоположных сигналов где п представляет компоненту аддитивного гауссовского шума, которая имеет нулевое среднее и дисперсию о~ = т гу,. В этом случае правило решения, основанное на корреляционной метрике (5.1.44), сравнивает г с нулевым порогом. Если г > О, то решение принимается в пользу я,(г) . а если г < 0 - в пользу д,(г) . Ясно, что условные ФПВ для г равны р э!г~) р(г!гн р(г!я ) = ет "") ~ ", ~о Р(г!яа)= .е( '!') ~ '. г г —,у. (5.2.2) (5.2.3) "7~ь 0 Чеа Рис. 5.2.2. Условные ФПВ лля двух сигналов Эти две условные ФПВ показаны на рис. 5.2.2.
При условий, что передан сигнал д,(г), вероятность ошибки определяется вероятностью того, что г с О, т.е. Р(е!з,) = (!а Р(ф,)й = ~ — — ~а ех (5.2.4) где О(х) — Д-функция, определенная (2.1.97). Аналогично, если предположим, что был передан сигнал д,(г), то г=-„!Ф', +п и вероятность того, что г>0, также равна Р! е!га )= ф„г2!г,' ~Л/, ) .
Поскольку сигналы я,(Г) и я,(Г) равновероятны, то средняя вероятность ошибки (5.2.5) Мы хотим отметить два важных свойства этой характеристики качества. Во-первых, заметим, что вероятность ошибки зависит только от отношения $ъ/Фа и не зависит от 2!7 других более детальных характеристик сигналов и шума. Во-вторых, заметим, что 28'„/М, также выходное отношение сигнал/шум (ОСШл) согласованного фильтра (и коррелятора) демодулятора.
Отношение сз/Фл обычно называют отношением сигналlшум на бшл. Отметим также, что вероятность ошибки можно выразить через расстояние между сигналами а, и ая. Из рис. 5.2.1 видно, что два сигнала находятся на расстояния Ио = 2Д . Подставив 8а = —,' И,', в (5.2.5), получим (5.2.6) 2~о Это выражение иллюстрирует зависимость вероятности ошибки от расстояния между двумя сигнальными точками. Далее определим вероятность ошибки для двоичных ортогональных сигналов.
Повторим, что в этом случае сигнальные векторы а, и я, являются двухмерными, как показано на рис. 5.2.3, и их можно выразить согласно (4.3.30) так: а, =~Я О], (5.2.7) а, =~0 Я], где х„обозначает энергию для каждого из сигналов. Заметим, что расстояние между сигнальными точками теперь Ип = /2Ф,' . + 1 Для расчета вероятности ошибки предположим, что передается сигнал а,. Тогда принимаемый вектор на выходе демодулятора г=~ ф, +и, л,]. (5.2.8) Мы можем теперь подставить г в корреляционные метрики, определяемые (5.1А4), чтобы получить С(г,а,) и С(г,а,) Вероятность ошибки — это вероятность того, что С(г,а,)) С(г,я,).
Таким образом, Рис. 5.2.3. Сигнальные точки для двоичных ортогоиальных сигналов Р(е$ я,) = Р~С(г,ят) > С(г,а,)] = Р[и, — и, >,Я]. (5.2.9) (5.2.1 1) где по определению у„— это ОСШ на бит. 218 Поскольку и, и ггв — статистически независимые гауссовские случайные величины с нулевым средним и дисперсией 2 Ф„то х =1т, -л, — гауссовская случайная величина с нулевым средним и дисперсией Ма.
Следовательно, 1 27г111"~,/г', оl Вследствие симметрии та же вероятность ошибки получается в предположении, что перелетел а,. Следовательно, средняя вероятность ошибки для двоичных ортогональных сигналов 1О Бели сравним вероятность ошибки для двоичных противоположных сигналов с вероятностью ошибки для двоичных ортогональных сигналов, то находим, что ортогональные сигналы требуют удвоения энергии сигнала для достижения той же вероятности ошибки, что в системе с противоположными сигналами.
Поскольку 101я2 = 3 дБ, то видим, что ортогональные сигналы на 3 дБ хуже, чем противоположные сигналы. Разница в 3 дБ объясняется тем, что расстояние между двумя сигнальными точками ортогональной системы равно с/,'2 =2~14, в то время как расстояние между точками противо- 2 положных сигналов равно Н,, = 4на. Зависимость вероятности ошибки от 101я1'„'/М, для этих двух типов сигналов показана на рис. 5.2.4. Как видно из рисунка, для любой заданной вероятности ошибки требуемое значение аа / Л/с для ортогональных сигналов больше, чем для противоположных сигналов.
1О г 1О-г И в с а 10-4 ОЗ 2 4 б 8 1О ОСШаабат, Хвдв Рнс. 5.2.4. Всроятность ошибки лая даончнмх сигналов !2 14 С1,г,я,) = Я(Я+ и,), С(г,я,)=Д „ (5.2.14) С(г,я„г) =Дгт„. Заметим, что скалярный множитель Ф,' можно исключить путем деления всех выходов на Д. Тогда с учетом нормирования ФПВ сигнала на выходе первого коррелятора г, = Я+111) равна (= . 219 5.2.2.
Вероятность ошибки длн М-позиционных ортогональных сигналов Для ортогональных сигналов равной энергии оптимальный детектор выберет сигнал который приводит к наибольшей корреляции между принимаемым вектором г и каждым нз М возможных к передаче сигнальных векторов (яа), т.е. С(г,я )=г.я„=~г„я „, т=1,2,..., М. (5.2.12) 4-1 Чтобы рассчитать вероятность ошибки, предположим, что передабтся сигнал я,. Тогда принимаемый сигнальный вектор Г = [Я +и, Пу Гга ...П,„~, (5.2.13) где гг„п„гг„...гт„, — взаимно независимые случайные гауссовские величины с нулевыми средними и дисперсией гт„= —, Уа.
В этом случае выходы набора М корреляторов равны Для равновероятных ортогональных сигналов все вероятности ошибки на символ равновероятны, и они возникают с вероятностью Рм Рм М вЂ” 1 2" — 1 (5.2.22) Далее имеется ~,',) возможностей путей, при которых из 1 переданных битов и приняты с ошибкой. Следовательно, среднее число ошибочных битов на /г-битовый символ равно ь (5.2.23) и ! а средняя вероятность ошибки на бит точно определяется делением (5.2.23) на й — число бит на символ. Таким образам, 2'' Р, (5.2.24) Кривые зависимости вероятности ошибки на бнт от ОСШ на бит йь'/ Мс даны на рнс. 5.2.5 для М = 2, 4, 8, 16, 32 и 64. Эти кривые показывают, что с увеличением числа сигналов М можно уменьшить ОСШ на бит, требуемое для заданной вероятности ошибки на бит.
Например, чтобы достичь Р, = 10 ', для М =2 требуется ОСШ на бит немного больше, чем 12 дБ, но если М увеличить до 64 сигналов (/г=б бит/символ), требуемое ОСШ на бит станет равным примерно 6 дБ. Таким образом, реализуется экономия выше 6 дБ 1сокращение в 4 рази) в передаваемой мощности 1или энергии) для достижения Р, — 10 * при увеличении числа сигналов М от 2 до 64. Каково минимальное значение й„ //1/с для достижения произвольной малой вероятности ошибки при М вЂ” ь со? На этот вопрос ответим ниже.
1О-- е 10ь х в Р о 8. Ж 1О ' Объединенная граница для вероятности Ошибки'. Рассмотрим влияние роста М на вероятность ошибки для ортогональных сигналов. Чтобы облегчить ОСШнабит, умдБ математический анализ, сначала найдем ри верхнюю границу для вероятности ошибки на символ, которая намного проще, чем точная формула (5.2.21), Напомним, что вероятность ошибки для двоичных ортогональных сигналов дадтся формулой (5.2.11). Теперь будем рассматривать детектор для М ортогональных сигналов 1О-ь -4 Вероятность ошибки на бит для когереитного детектирования ортогональных сигналов Эту границу в литературе чаще всего именуют аадитивной верхней границей (прп). 221 как такой, который выполняет М вЂ” 1 двоичных решений между выходом коррелятора С(г,з,), который содержит сигнал, и остальными М вЂ” 1 выходами корреляторов С(г,з„), п«=2,3,..., М.