Калмыков В.В. Радиотехнические системы передачи информации (1990) (1151851), страница 8
Текст из файла (страница 8)
д. Модель помех можно определить, указав способ вычисления многомернойе плотности распределения вероятностей. Эта модель наиболее полно отображает реальный шум в каналах связи, однако редко используется из-за сложности. Наиболее просто 47 флуктуаций фазы, В дискретных системах различают каналы с быстрыми флуктуациями, ногда интервал их корреляции меньше длительности посыласн, и с медленными, когда это условие не выполняется. При медленных флуктуациях фаза несущего колебания за длеггельность посылки практически не изменяется. Гауссовский канал с неопределенной амплитудой и фазой сигнала вносит в сигнал наряду с флуктуациями фазы и флуктуации амплитуды, которые связаны с изменением во времени по случайному закону коэффициента передачи ес. Как и в предыдущем случае, флуктуации могут быть быстрыми и медленными.
Для определения модели канала необходимо задать плотность распределения ие(р) и корреляционную функцию флуктуаций Ям (т). В гауссовском канале с линейными пскажениями форма сигнала изменяется из-за наличия избирательных цепей. В обшем случае линейные иска>кенеея носят случайный характер. Частотная характеристика канала К()оь е) неравномерна в полосе частот сигнала Г, н изменяется во времени, а импульсная характеристика й(Е, т) имеет длительность т, (время памяти канала), превышающую величину ЦГв. Такая модель полезна при анализе систем, использующих, например, каналы с рассеннием сигнала.
Сигнал на оыходе канала с линейными искажениями Если в стационарном дискретном канале алфавиты на входе ы выходе совпадак>т и р, для всех учмг, 11 — (пг — 1) р для 1=г, то такай канал называется симметричным. Математическая модель канала должна обеспечивать возмож- '. ность нахождения основных характеристик потока ошибок. К ним относится: вероятность ошибкп в приеме символа р„„; распреде- .' ление вероятностей Р„(г) появления г оы>ибок в блоке длины п? распределение длин интервалов между соседними ошибками; рас- ' нределение длин серий ошибок и т. п.
Модель должна быть простой и удобной для проведения рас- четов. В то же время она должна достаточно точно описывать ре- альный канал, т. е. находиться в хорошем соответствии с экспе- '- риментальными данными. Наиболее простой является модель сти- г!ионпрного симлетричнаиа канала без памяти. В таком канале ': ошибки возникают независима друг от друга, т. е. между ошиб-:.
ками отсутствуют статистические связи. Вероятность ошибки р, при передаче любого символа одинакова н не меняется ва вре- ? менн. Стационарный симметричный канал без памяти полностью ':,-,: описывается вероятностью р, . Распрсделешмь ошибок в нем под- чиняется биномиальнаму аакону Р (г) =-бг р' (1 — р„)" ", (3.!1),:; где и — число символов в блоке.
г — число ошибочных символов Зная вероятность ошибки р„,„и используя выра>кение (3.!!), можно найти все необходимые характеристики. В частности, веро- ятность правильного приема блока из и символов Р (О) =- =(1 — р )", вероятность приема блока, содержащего хотя бы од- ну ошибку, Р„(г~1) =1 — Р„(0), вероятность появления в блоке ! и более ошибок и -( ) .р ° ( р ) Большинство реальных каналов имеют «памятьв, которая про- '„:', является в том, что вероятность ошибки в символе зависит от то-;:,,",', го, какие символы передавались до него и как они были приняты. ',:,„ Первый факт обусловлен межсимвольными искажениями, являю-' -'.:.
щимися результатом рассеяния сигнала в канале, а второй— изменением отношения сигнал-шум в канале или характера помех. При рассеянии сигнала приходящая на вход приемника посылка является суммой некоторого числа предыдущих посылок с соответствующими весовыми коэффициентами. Поэтому вероятность ошибки в последующем символе будет зависеть от характера передаваемой информации за время рассеяния сигнала. Например, прн чередовании посылок разных частот ошибка будет больше, чем внутри последовательности, состоящей из посылок одной частоты.
Если меняется длительность отдельных мешающих воздействий, 50 например, в результате общих замираний сигнала или изменения уровня помех, та ошибки будут группироваться в пачки. Вероятность ошибки при приеме символа в этом случае зависит от того. была ошибка в предыдущем символе или нет. Простой моделью двоичного симметричного канала с памятью является канал, который может находиться в одном из двух состояний: с(=0 и с(=1. В обоих состояниях возможны независимые ошибки с вероятностямп рс и р,, где нижние индексы указывают на состояние канала. Одним из распространенных методов описания дискретного капала с памятью, связанной с межсимвольными искажениями, является использование аппарата цепей Маркова (посимвольное описание). В этом случае последовательность состояний двоичного канала рассматрпвается как Лг-связная двоичная цепь Марков», а значения символов на каждой позиции — как состояние цепи, где >ч' — число символов, на которое распространяется память канала.
КОНТРОЛЬНЫЕ ВОПРОСЫ 1. Дайте классификапию каналов по диапазону используемых частот. 2. Поясните особенности прохождения радиоволн различных диапазонов. 3. Укажите особенности спутниковых линий связи. 4, Какие звенья включает в свой состан модель радиоканала? 5. Как связаны входной н выходной сигналы для канала с линейными искажениями? и, Укажите причины возникновения линейных исиажений в канале.
7. Какие искажения возникают в канале в результате рассеяния сигнала? 8. Как можно моделировать канал с лннейиымн искажениями? 9. Поясните методику пахождепвя отклика па выходе ггопииейгвого звена. 10, Чем ощ>едеаяются впгргсгвчгскнг потери сигнала в результате прохождения через пелппгйпос звено? 11, Назовите осаоаныс виды помех, действующих в радвокапапзх. 12. Кзк можно моделировать внешние помехи? 13. Поясните математические модели непрерывных каналов. 14. Как определяются математические модели дискретных каналов? 15.
Поясните причины появления памяти в дискретных каналах. 16, Как можно моделировать дискретный канал с памятью? (4.1) В качестве функции 1 улобно использовать логарифм отношения апостериорной вероятности р(аг!у,) к априорной р(а;), т. е. определить !(аг; у!) как 1(ай у!)=!ой Р р (аг) Прн таком задании, в частности, количество информации обладает свойством аддитивности: количество информации о символе а, (в дальнейшем лля общности рассуждения — событии а;), доставляемой двумя независимыми символами (событиями) у; и гсп 1(ап уггь) =-1(ак', у!)+1(а;; гд). (4.2) Это свойство хорошо согласуется с синтуитивнымь понятием информации. Основание логарифма может быть любым.
От него зависит единица измерения количества информации. В технических приложениях обычно ~используют основание 2. При этом количества информации 1 измеряется в двоичных единицах, или битах. При проявлении математических выклалок зачастую удобно пользоваться натуральными логарифмами. Соответственно информация измеряется в натуральных единицах, или натах.
Введенная величина 1(а;; у;) обладает важным свойством симметрии по отношению к а; и у;: р(аг!у!)р(у!) 1 р(аг. у!) р(аг) р(у!) р (аг) р(у!) =)ой Р(У'!'ч) =1Ц,; а,), (4.3) р (у!) т. е. информация, доставляемая событием у; о событии аь равна информации, доставляемой событием а; о событии уь По этой 'причине 1(ап у;) называется взаимной информацией двух случайных событий относительно лруг друга. Из (4.3) следует, что если событии а; и у, статистически неза.висимы, то 1(ап у;) =О, т. е. независимые события не несут лруг о друге никакой информации.
Взаимная информация при фиксированной вероятности р(а;) принимает максимальное значение, когда апостериорная вероятность р(аг!у;) =1, т. е. когда наблюдаемое событие у, однозначно определяет событие аь При этом 1(аг! уг) = 1(аг) = — )оп р(са,) (4.4) Величина 1(а„) называется собственной информацией события а;. Ее можно интерпретировать как количество информации, которое .доставляет событие а; или любое другое, однозначно связанное с яим. Собственная информация всегда является неотрицательной величиной, причем чем менее вероятно событие, тем она больше. Взаимная информация может быть как положительной, так н отрицательной величиной.
44 Пусть аь у; и «г — трн статистически зависимых события. Прел- положим, что событие «ь известно. Количество информации о событии аь доставляемое событием у; при условии, что гь известно, называется условной взаимной информацией. Она определяется так же, как и взаимная информация (4.1), олнако априорная и апостериорная вероятности должны быть взяты при условии «ы т. е.
1(а . у (г ) )од Р(~г!Уг ) (4.9 р (аэ)2А) Из (4.5) слелует, что условная взаимная информация при фиксированной вероятности р(а;)гл) принимает максимальное значение, когда р(аг~!уггг) =1. При этом !(а уг~гй) = !Ок р(аг)гь) =1(аг !«В). (4.6) Величина 1(аг!гь) называется условной собственной информацией. Ее можно интерпретировать как количество информации, доставляемое событием а; при известном событии гы или как количество информации, которос лолжпо доставляться некоторым лругим событием для олнозначного определения события а; при известном гь.
Покажем, что взаимная информация уловлетворяет свойству аллитивности. Пусть а;, у; и «г — трн статистически зависимых события. Тогда количество информации о событии аь которое до-' ставляют события у; и гь р(аг)уггд) 1 р(аг!у)ц) р(аг!у!) р (аг) р (ай р (аг!уг) =!ой ' У! +1оц Р ' Уг ") = 1(а;; У!) + ! (аг, гь(У!). (4.7Р р (аг) р !аг!уг) Таким образом, количество информации о событии аь которое лоставляют события у; и «ы равно сумме информации„доставляемой у„, и информации, лоставляемой гг при известном событии уя Если события у; и гг статистически независимы, то (4.7) переходит в (4.2).
Аналогично можно показать, что 1 (аг ! уггь) =1 (а,; гь) + 1(а,; у!(гь). Используя соотношения (4.1), (4.3), (4.4) и (4.6), можно взаимную информацию записать в одной из следующих форм: 1 (а,; у!) = 1 (аг) — 1 (а, ! у!), (4.8) 1 (аг; у!) = 1 (у!) — 1 (у!/а,), (4.9) 1 (а;; у!) = 1 (аг) + 1 (у!) — 1 (сг, у!), (4.10). где 1(а;у;) = — !оп р(аь у,) — собственная информация сложного события а;уь Соотношение (4.8) можно интерпретировать следующм образом. Взаимная информации 1(аб у,) равна разности между коли- Ы Рис. 4.!. Зависимость энтропии дисирегиого источ ника от вероятности появления одного иа символов Н(Л2) =-ЕУ.Р(аь гь)Х(аь гь) = = — ХХР(а!, га) (ойр(ас, га). ! а (4.! 7) Подставляя вместо вероятности р(аь га),под знаком логарифма произведение р(а;) р(гь(а!), выражение (4.17) можно привести к виду Н (А2) =-Н(Л) + Н(г(А).