Скляр Б. Цифровая связь (2003) (1151859), страница 123
Текст из файла (страница 123)
Точно так же на рис. 9.1, б можно видеть, что при неортогональной передаче, такой как модуляция МРБК, характеристики ведут себя абсолютно иначе, Лостоверность передачи снижается при увеличении к или М. б) Чем мы платим за передачу ортогональных сигналов, при которой достоверность передачи повышается с ростом /: или М? Наиболее распространенным вариантом передачи ортогональных сигналов является схема МРБК, где к =! и М = 2, а набор тонов состоит из двух сигналов.
Если к = 2 и И= 4, в наборе уже содержится четыре тона. При /г = 3 и М = 8 будет уже восемь сигналов и тл. При использовании схемы МРБК за время лере- дачи символа отсылается только один тон, но доступная полоса пропускания — это весь набор тонов. Следовательно, при увеличении к нли М за повышение достоверности передачи придется платить расширением требуемой полосы пропускания. в) При передаче неортогональных сигнаяов (схема МРБК или ЯАМ) с ростом к или Мдостоверность передачи падает.
Логично предположить, что компромисс повлечет за собой снижение требований к полосе пропускания. Рассмотрим следующий пример. Пусть требуется скорость передачи данных /? = 9600 бит/с, а в качестве модуляции используется 8-уровневая схема РБК. Тогда с помощью уравнения (9.!) скорость передачи символов находится следующим образом: )? 9600 бит/с )?, = = 3200 символов/с. )ойз М 3 бнт/символ Если для передачи воспользоваться 16-уровневой схемой РБК, то скорость передачи символов будет равна следующему: 9600 би г/с = 2400 символов/с . 4 бит/символ Если применить 32-уровневую схему РБК, скорость передачи символов будет равна 9600 бит/с )?, = = 1920 символов/с .
5 бит/символ Что происходит, когда на рис. 9.1, б рабочая точка сдвигается вдоль горизонтальной линии с кривой с /г= 3 на кривую с /г = 4 н далее на кривую с /г = 5? При данной скорости передачи данных и вероятности появления ошибки каждый такой сдвиг позволяет осуществлять передачу на все более низких скоростях. Всякий раз, когда говорится "более низкая скорость передачи сигнала", это эквивалентно сообщению, что имеется возможность уменьшить ширину полосы пропускания. Анатогично любое повышение скорости передачи сигналов соответствует увеличению ширины полосы пропускания.
9.3. Минимлльняа и~ионна ооеооы ооопчекьние по Ыя якюл~тч Ват 9.4. Теорема Шеннона-Хартли о пропускной способности канала Шеннон (3) показал, что пропускная способность канала С с алдитивным белым гауссовым шумом (адсййче чч(й(ге бацая!ап по1зе — А%гбХ) является функцией средней мощности принятого сигнала 5, средней мощности шума ЛГ и ширины полосы пропускания И'.
Выражение для пропускной способности (теорема Шеннона-Хартли) можно записать следующим образом: С = И'!оя (+в (9.2) (9.3) Подставив выражение (9.3) в уравнение (9.2) и немного преобразовав последнее, по- лучаем следующее: С ( 5 ~ л'о"'г (9.4) Если битовая скорость передачи равна пропускной способности канава (Я = С), то с помощью тождества (3.30) можно записать следующее: (9.5) поС )Уо Г О Кп и пм ппи иппппичпппиии мопчпяоИИ И КОЛИООВання Если И' измеряется в герцах, а логарифм берется по основанию 2, то пропускная способность будет иметь размерность бит/с. Теоретически (при использовании достаточно сложной схемы кодирования) информацию по каналу можно передавать с любой скоростью )г ()Г < С) со сколь угодно малой вероятностью возникновения ошибки.
Если же )г> С, то кода, на основе которого можно добиться сколь угодно малой вероятности возникновения ошибки, не существует. В работе Шеннона показано, что величины Я, У и )У устанавливают нределы скорости передачи, а не вероятности появления ошибки. Шеннон [4) использовал уравнение (9.2) для графического представления доступных пределов производительности прикладных систем. Этот график, показанный на рис. 9.2, представляет нормированную пропускную способность канала С/Гч' в бит/с/Гц как функцию отношения сигнал/шум в канале. График, представленный на рис. 9.3, изображает зависимость нормированной полосы пропускания канала Иг/С в бит/с/Гц от отношения сигнал/шум канала.
Иногда рис. 9.3 используется как иллюстрация компромисса между мощностью и полосой пропускания, присущего идеальному каналу. Однако зто не совсем компромисс (5), поскольку мощность детектируемого шума пропорциональна полосе пропускания: С/Ит(бит/с/Гц) Рис. 9.2 Зависиткть нормированной пропускной способности канала от ЮЛт)т канала Ит/С (Гц/бит/с) Недссту сбпесть Рис. 9.3. Зависимость нормированной полаем пропусканип канала от ЗР/К канала 9.4. Теорема Шеннона-Хартли о пропускной способности канала Таким образом, уравнение (9.4) можно модифицировать следующим образом: (9.6,а) (9.6,б) — = — (2 — 1) . Еь ьУ сгя Уо С (9.6,в) на рис.
9.4 представлен график зависимости 57с от еь9г„описываемой формулой (9.6,в); асимптотическое поведение этой кривой при С!И'-ь 0 (или НгС -+ ) рассматривается в следующем разделе. иаэс (Гцьеитус) Асим !Я2 = Рис. 94. Зависимость нормированной тиоси пропусканин ка- нала от Еййго 9.4.1. Предел Шеннона Существует нижнее предельное значение ЕглХ„при котором ни при какой скорости передачи нельзя осуществить безошибочную передачу информации.
С помощью соот- ношения ! !и! (1 ь х) нх = с л -ь О можно рассчитать граничное значение Е~Ми г о к и пь мспт ппм испппьяоааиии модиляыии и кодиРОВания Пусть х= — ( — ). 'Тогда, из уравнения (9.6,а), — = х!ойз(1+ х) С их Иг 1= — /' !ойз(1+х)ь". /уо В предеяе, при С/И'-в О, получаем — = — = 0,693 Еь Не !о8 е (9.7) или, в децибелах, — = -1,6 дБ. Еь л/а 9.4.2. Энтропия Для разработки системы связи с определенной способностью к обработке сообщений нужна метрика измерения объема передаваемой информации. Шеннон (3) ввел такую метрику Н, называемую энтропией источника сообщений (имеющего и возможных 0.4. Теорема Шеннона-Хаотпи о поопчскной способности канала Это значение Е~/Чв называется пределом Шеннона (ЗЬаппоп !нпй).
На рис, 9.1, а предел Шеннона — это кривая зависимости Р, от Е~/Ч, при й-в . При Ев//Чв=-1,6 данная кривая скачкообразно изменяет свое значение с Р, = 1гх на Р, = О. В действительности достичь предела Шеннона невозможно, поскольку /г возрастает неограниченно, а с ростом /г возрастают требования к полосе пропускания и повышается сложность реализации системы. Работа Шеннона — это теоретическое доказательство существования кодов, которые могут улучшить Р, или снизить требуемое значение Ев//Ч, от уровней некодировацных двоичных схем модуляции до уровней, приближающихся к предельной кривой. При вероятности появления битовой ошибки 10 ' двоичная фазовая манипуляция (Ь~пагу рЬазе-зЬ1й-)геу!п8 — ВРБК) требует значения Ев/Н„равного 9,6 дБ (оптимум некодированной двоичной модуляции). Следовательно, в данном случае в работе Шеннона указано, что теоретически, за счет использования кодирования, производительность можно повысить на 11,2 дБ по сравнению с некодированной двоичной модуляцией.
В настоящее время большую часть такого улучшения (почти 10 дБ) можно получить с помощью турбокодов (см. раздел 8.4). Оптимальную разработку системы можно наилучшим образом представить как поиск рациональных компромиссов среди различных ограничений и взаимно противоречивых требований. Компромиссы модуляции и кодирования, т.е. выбор конкретных схем модуляции и кодирования для наилучшего использования переданной мощности и ширины полосы, являются очень важными, поскольку имеется много причин для снижения мощности, а также существует необходимость экономии спектра радиочастот. Н = — ~ р| !о82 р, бнт?выход источника. (9.8) сообщение двоичное с вероятностями р и Здесь р| — вероятность 1-го выходного значения и Хр, = 1. Если или источник имеет только два возможных выходных значения д =(1-р), выражение для энтропии примет следующий вид: (9.9) Н (р !082р+ 9!0829).
Зависимость энтропии от р показана на рис. 9.5. 1,00 0,9 0,6 э О,? ~ 0,6 Й 0,6 К Д О,4 0,3 0,2 0,1 0 0,1 0,2 0,3 024 0,6 0,6 0,7 0,6 0,9 1,0 Вероятность, р Рис. 85. Зависимость энтропии о|п верона|но- сти (два сабитов) Величина Н имеет ряд особенностей. 1. Если логарифм в уравнении (9.8) берется по основанию 2„единица измерения Н вЂ” среднее число бит на событие. Здесь единица измерения бит — это мера количества информации, и ее не следует пугать с термином "бит", означающим "двоичная цифра" (Ь!пату с!!811 — Ь!1). 2.