В.Н. Васюков - Теория электрической связи (1266498), страница 35
Текст из файла (страница 35)
Таких отсчетов на протяжении сигнала оказываетсяM 2FкTc , таким образом, упомянутые условные плотностидолжны быть M -мерными99. Заметим, что число M имеет смыслприближенной размерности пространства сигналов, которые могутпоступить на вход демодулятора.Если условные плотности не зависят от времени, дискретнонепрерывный канал является стационарным.
Если условные плотности не зависят от символов, передававшихся ранее, канал называется каналом без памяти. Реальные каналы обычно обладаютпамятью и нестационарны, тем не менее модель стационарногоканала без памяти часто применяется ввиду ее сравнительной простоты.9899Заметим, что внутри этого канала содержится непрерывный канал.Если не накладывать ограничения на полосу канала, то приходитсявместо условной многомерной плотности рассматривать функционалплотности вероятности.2227. КАНАЛЫ СВЯЗИ7.7.
ДИСКРЕТНЫЕ КАНАЛЫДискретный канал имеет дискретный вход и дискретный выход, что соответствует каналу от выхода кодера до выхода демодулятора (входа декодера) (рис. 1.3). Для описания дискретного канала необходимо задать алфавит входных символов k , k 1, K ,априорные вероятности их появления p k , k 1, K , алфавит выходных символов (который, вообще говоря, не обязан совпадать свходным алфавитом100) l , l 1, L , а также набор всех переходных(условных) вероятностей появления каждого выходного символапри условии передачи любого входного p l k , k 1, K , l 1, L .Входной алфавит и набор априорных вероятностей определяютсяисточником дискретных сообщений и кодером, выходной алфавит –устройством (алгоритмом работы) декодера, а переходные вероятности – характеристиками непрерывного канала (в частности, уровнем помех) и устройством (алгоритмом работы) демодулятора.
Очевидно, помехоустойчивость системы тем выше, чем ближе кединице условные вероятности правильного приема символов. Задача оптимального синтеза демодулятора играет важнейшую роль впостроении систем связи и подробно рассматривается в разд.
9.Если переходные вероятности не зависят от времени, дискретный канал является стационарным. Если переходные вероятностине зависят от символов, передававшихся ранее, канал называетсяканалом без памяти.Если входной и выходной алфавиты совпадаютk k,k 1, K , вероятность ошибочного приема любого символа pош , ав случае ошибки может быть с равной вероятностью принят любойдругой символ, т.е. p ( K 1), если l k ,p l k ошесли l k , 1 pош ,канал называют симметричным. Если, кроме того, вероятностьошибки не зависит от времени, имеет место стационарный симметричный канал.
Наиболее проста модель стационарного симмет100Например, в канале со стиранием выходной алфавит содержит, кромесимволов входного алфавита, специальный символ стирания, которыйпоявляется на выходе дискретного канала, когда демодулятор не может с уверенностью принять решение в пользу одного из входныхсимволов.223Упражнениеричного канала без памяти, в котором ошибки при приеме различных символов являются статистически независимыми. Для такогоканала вероятность получения r ошибок при передаче n символовподчиняется биномиальному закону [23]rPn (r ) Cnr pош1 pош .Из этого выражения можно найти такие характеристики, как вероятность правильного приема блока из n символов Pn (0) (1 pош )n ,вероятность приема блока, содержащего хотя бы одну ошибкуPn (r 1) 1 Pn (0) 1 (1 pош )n , вероятность появления в блокеm и более ошибок и т.д.Память реального дискретного канала проявляется в том, чтовероятность ошибки приема символа зависит от того, какие символы передавались ранее.
Эта зависимость может возникнуть, например, вследствие межсимвольной интерференции в непрерывном фильтровом канале. Простейшей моделью дискретного каналас памятью является марковская модель, согласно которой дискретный канал может находиться в двух состояниях, каждому из которых соответствует определенная вероятность ошибки; состояниеканала при приеме очередного символа определяется предыдущимсимволом. Более сложной является марковская модель порядка N ,в которой состояние канала определяется N последними принятыми символами (последовательность состояний канала представляет собой N -связную цепь Маркова101).n rКОНТРОЛЬНЫЕ ВОПРОСЫ1.
Что такое канал связи? Как описать канал?2. Существуют ли линейные стационарные каналы?3. Что такое многолучевость?4. Как описываются дискретные каналы?5. Что такое дискретно-непрерывный канал? Как он описывается?6. К каким последствиям приводит нелинейность канала?УПРАЖНЕНИЕВыведите формулу определения вероятности появления в блоке из n символов m и более ошибок для стационарного симметричного дискретного канала без памяти.101Андрей Андреевич Марков (1856 – 1922) – выдающийся русский математик, известен своими достижениями в области теории вероятностей и др.2248. ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ8. ОСНОВЫ ТЕОРИИИНФОРМАЦИИ8.1.ОСНОВНЫЕ ПОНЯТИЯ И ТЕРМИНЫнформация относится к предельно широкимИпонятиям, которым трудно или невозможнодать строгое определение, поэтому приходится прибегать к интуи-ции, объясняя термин «информация» через синонимичные понятия– «данные», «сведения» и т.п.
Однако для решения инженерныхзадач требуется количественное определение информации. В теории и технике связи в настоящее время используется определениеколичества информации, предложенное К. Шéнноном102.Для введения этого определения необходимо абстрагироватьсяот физического воплощения источника и семантического (смыслового) содержания сообщений. Дискретный источник сообщений тогда полностью определяется набором символов (алфавитом) 1 ,..., K ( K – объем алфавита) и распределением вероятностей P (a) , заданным на множестве всех возможных последовательностей символов a (a1,..., an ) , ai произвольной длины.
В простейшемслучаеисточникабезпамятисимволывпоследовательности являются независимыми, и распределение P (a)полностью определяется набором априорных вероятностей отдельных символов p( k ), k 1,..., K . В более сложных моделях источников с памятью условная вероятность появления в последовательности определенного символа зависит от того, какие символыему предшествуют. Например, в тексте телеграммы на русском языке после буквы «щ» можно ожидать букв «а», «у», «е», но не «ю»,102Клод Элвуд Шеннон (1916 – 2001) – выдающийся американский математик и инженер, один из основоположников теории информации.8.1. Основные понятия и термины225«я», «й» и т.п. Далее, как правило, рассматриваются источники безпамяти.В процессе передачи информационная последовательностьсимволов, представляющая собой сообщение, может быть заменена другой, кодовой последовательностью, состоящей из символовкодового алфавита.
Целью кодирования может быть более полноеиспользование канала связи (экономное кодирование) или повышение достоверности передачи (помехоустойчивое кодирование).Естественно, кодовые последовательности характеризуются другими распределениями вероятностей, нежели информационныепоследовательности.Канал связи (дискретный) формально описывается входным ивыходным алфавитами X x1 ,..., xL и Y y1 ,..., yM разных вобщем случае объемов L и M и условным распределением вероятностей P(y | x) , заданным для всех возможных последовательностей y и x произвольной длины.
Условное распределение P(y | x)описывает вероятностный механизм действия помех в канале.В простейшем случае канала без памяти распределение P(y | x)полностью определяется набором условных вероятностей для всехпар отдельных символов P( y j | xi ) , xi X , y j Y .Информация, согласно современным представлениям, – этосвойство сообщения снимать (или уменьшать) неопределенностьотносительно исхода некоторого случайного опыта (например, относительно переданного символа). Действительно, во всех реальных случаях получатель сообщения что-то знает о некотором объекте или событии до опыта («a priori»), но ему известно не все,иначе не было бы необходимости передавать сообщение. Например, футбольный болельщик знает, с кем сегодня играла его любимая команда, но не знает, кто победил.
Таким образом, до опыта(до получения сообщения) налицо некоторая неопределенность.После приема сообщения неопределенность исчезает (или, покрайней мере, уменьшается) вследствие получения информации.Количество получаемой информации, очевидно, должно быть связано со степенью снимаемой неопределенности. Так, принимая сообщение о событии, которое достоверно известно, информации мыне получаем.Количественная мера информации должна удовлетворять следующим интуитивно очевидным требованиям:если исход опыта единствен (достоверное событие), то количество информации в сообщении о нем должно быть равно нулю;2268. ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИколичество получаемой информации тем больше, чем болеенеожиданным является исход;общее количество информации в нескольких сообщениях обисходах опытов, независимых в вероятностном смысле, должноравняться сумме количеств информации в отдельных сообщениях(аддитивность информации).Мера неожиданности сообщения a в виде 1/ P(a) удовлетворяет второму требованию, однако она не равна нулю для достоверного события и не обладает свойством аддитивности: неожиданностьдвух независимых сообщений a1 и a 2 равна, очевидно,1/[ P(a1) P(a2 )] .