Галкин В.А., Григорьев Ю.А. - Телекоммуникации и сети, страница 8
Описание файла
PDF-файл из архива "Галкин В.А., Григорьев Ю.А. - Телекоммуникации и сети", который расположен в категории "". Всё это находится в предмете "сетевые технологии" из 7 семестр, которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "книги и методические указания", в предмете "сетевые технологии" в общих файлах.
Просмотр PDF-файла онлайн
Текст 8 страницы из PDF
метрическое пространство. Как правило, в качествемодели сигнала используется метрическое линейное пространство^ котороеназывают пространством сигнала,В пространстве сигнала точек должно быть не меньше, чем возможныхсообщений источника информации: М>С, где М- мощность множества пространства сигнала Х,С - мощность множества сообщений источника. Сигналы, представляемые в пространствах, где М= С, обладают низкой устойчивостью к помехам.Для повышения помехоустойчивости процесса передачи информации используют сигналы с большим числом состояний, чем это необходимо для кодирования всех возможных сообщений, т. е.
Л/ > С. Тогда возникает вопрос:какие точки пространства сигнала сопоставлять возможным сообщениям источника информации? Чтобы ответить на этот вопрос, проведем анализ работы прием1шка.392. Основы телекоммуникацииНа вход приемника поступает сигнал, искаженный помехой, которому соответствует точка X в пространстве сигнала Х^ отличная от той, которая быласопоставлена в передатчике передаваемому сообщению. Таким образом, вприемнике одному и тому же переданному сообщению могут соответствоватьразличные точки пространства сигнала.
Чтобы приемник мог принимать каждый раз решение относительно переданного сообщения, пространство сигналадолжно бьггь классифшщровано, т. е. множество X должно быть априорноразбито на непересекающиеся подмножества (классы) Cj, С^, ..., С^ и установлено взаимно однозначное отображение разбиения {С^, С^,..., С^} на множество возможных сообщений источника информащш:Рассмотрим один из способов такого разбиения, основанный на вьщелениив пространстве сигнала так называемых реперных точек х^^х^, ..., х^, которыеявляются представителями соответствующих классов С^, С2, ..., С^.В передатчике каждому передаваемому сообщению сопоставляется определенная реперная точка пространства сигнала.
В процессе передачи помехапереводит эту реперную точку в другую точку х пространства сигнала. В приемнике осуществляется процесс, который, в сущности, сводится к оценке расстояния между точкой х пространства сигнала X и всеми реперными точкамид:^, ^2, ..., дс^ и выбору той реперной точки, до которой от точки х расстояниеминимально, т. е. вычисляетсяmin d{x., х) для всех / иу от 1 до т.(2.3)Фактически в приемнике осуществляется классификация пространства сигнала, объединением точек, ближайших к данной реперной точке х в один классС(дс, х) (рис. 2.2):С,(дс, х) = {дс 6 X\d{x, х) < d(x, х), i Ф]}.Рис. 2.2.
Классификация пространства сигнала40(2.4)2.1. Понятие системы передачи данныхНа рис. 2.2 линии состоят из точек пространства, не вошедших ни в один изклассов.Искажение сигнала в канале можно рассматривать как наложерше на выбранную передатчиком реперную точку х. некоторой помехи ^. В результатестановится доступной для анализа в приемнике точка х =х.-^^. Значения х.
и ^неизвестны. Поэтому возникает задача так распределить реперные точки призаданном статистическом описании сообщений и помехи, чтобы выход точкил: = x.+ ^ за границы класса C(JC, Х) происходил бы как можно реже.Рассмотрим одно из частных решений поставленной задачи. Пусть пространство сигнала есть линейное пространство, заданное в некотором ортонормированном базисе Wj, w^^ •••> ^„^ В ортонормированном линейном векторном пространстве норма произвольного вектораV = ^а.и =ttjWj+ а^и^+ ... + a^w^+ ...
+ а^и^(2.5)1=1определится какг;iivii=V(^=j|;«^(2.6)а расстояние между парой векторов vnw определяется выражением:d(v,w)HI V - м; 11= 1|](а, ~р,У = ^(v-w,v-w).(2.7)Точка X =ttjWjн- а^и^ +... + а^и^ ++ а^и^ - произвольная точка в этомпространстве. Она рассматривается как возможное состояние сигнала, в частности возможное значение его информативного параметра.В теории связи квадрат нормы вектора д: обычно называют энергией сигнала.^=|ИР = (х,;с).(2.8)Предположим, что в рассматриваемом пространстве сигнала необходиморазместить т реперных точек -х^.х^, .,,,х^9 расстояние между любой паройточекX их:ф^.,л:.) = ||х-л:.||.(2.9)Для уменьшения числа опшбок при восстановлении сообщений необходимостремиться увеличивать расстояние между реперными точками.Пусть Е.
- энергия сигнала х., а Е - энергия сигнала л:. Умножим левую иправую части равенства (2.9) на веществевгаое неотрицательное число X:Xd(x,x) = \\Xx,^Xx.\l(2.10)Используя вьфажение для энергии, для сигналов кх. и Х,х получим значенияэнергий Х?Д и }}Е. соответственно. Отсюда следует, что при пропорщюналь412. Основы телекоммуникацииНОМ увеличении энергии сигналов х. и д: расстояние между ними увеличивается. Реальная энергия сигнала всегда ограничена. Поэтому будем решать задачу оптимального распределения реперных точек в пространстве сигнала приусловии равенства конечных энергий сигналов д:^, дс^,..., д:^, выполняющих рольреперных точек.Из определения расстояния в линейных пространствах со скалярным произведением векторов, имеем:d\x. ,х) = (л:.- X., X.- X.) = (д:., х- х) - (х., х- х) == {х.,х)-{х.,х)-{х^,х)л-{х^,х).^ ' ^Учитывая, что Е.
= (л:., х.), а ^ = (jc, л:) и по условию Е. = Е = Е получим:d\x^,xp= 2E^2(x^,xp,(2.12)т. е. расстояние между сигналами зависит не только от их энергии, но и от ихскалярного произведения.Учитывая, что -Е < (х.,х) < Е, представим скалярное произведение{х., л:) в виде произведения Х..Е, где X..- коэффициент различимости сигналов(-1<Х <1):иd\x^,x) = 2E(l-X^.).(2.13)Из формулы (2.13) видно, что расстояние между сигналами минимально иравно нулю, когда JC. =JC , при этом (х.,х) = Е, Х.=1, d(x.,x) = 0.Расстояние между сигналами х. и х равной энергии максимально, когда X.
= - X. В этом случае Я,^^ = - 1 , а d\x., jc^) = 4Е.Если в пространстве сигнала необходимо разместить только две реперныеточки, то вопрос об их оптимальном распределении решается весьма просто:нужно выбрать произвольный сигнал х^ заданной энергии и в качестве второгосигнала х^ взять сигнал - х^.Количественная оценка информационногосодержания сигналаРассмотрим дискретный по параметру информативности сигнал. С помощью этого сигнала можно закодировать конечное множество возможных сообщершй. Интуитивно понятно, что количество информации, которое получает адресат, некоторым образом связано с априорной неопределенностью ситуации,зависящей, в конечном счете, от числа возможных сообщений.
Таким образом, чем больше число возможных сообщений и, следовательно, чем большевозможных значений сигнала, тем больше априорная неопределенность и тембольшее количество информации получает адресат, когда эта неопределенностьснимается.Впервые количественную оценку неопределенности ввел в 1928 г Р. Хартлидля опьгга Хст различными исходами:422.7. Понятие системы передачи данныхH{X) = \ogm.(2.14)Под опыгом Хможно понимать информативный параметр сигнала.Однако в оценке Р. Хартли не учтены вероятности различных исходов.К. Шеннон ограничил рамки применимости оценки Р.
Хартли случаем, когдавсе т исходов в опьгге ^ равновероятны {р = 1/т), а затем применил формулук разновероятным исходам, усреднив полученные неопределенности по всемисходам.Для опытаX={jCj, х^,..., дс^}, где х^^х^, • • • > ^т ~ возможные исходы с вероятностями/7^, р^, ..., /7^, неопределенность каждого исхода равна ~ logPj,- logp^,..., - ^ogp^, а математическое ожидание дает количественную оценкунеопределенности - энтропию:H(X)=-f^pAogp,(2.15)Понятие энтропии тесно связано с понятием количества информации.
Подколичеством информации понимается мера снятия неопределенности в процессе получения сигнала адресатом.Пример. Априорно ситуация характеризовалась энтропией Я,. После получения сигнала,энтропия уменьшилась до Н^. Количество информации, полученной адресатом, равно 1=Н^-Н^Если неопределенность снята полностью {Н^= 0), то / = Я,.Рассмотрим свойства, которыми обладает энтропия дискретного сигнала.Энтропия заранее известного сигнала (значение его информативного параметра априорно известно) равна нулю. Формула для энтропии в этом случаебудет состоять из слагаемых только двух видов: либо 1 х log 1 для заранееизвестного сигнала, либо О х log О, так как вероятность появления всех другихравна нулю.Так как 1 х log 1 = О и lim(x х log х) = О, то энтропия заранее известногосигнала равна нулю.Энтропия ~ вещественная и неотрицательная величина.
Это справедливо,так как перед знаком суммы в формуле энтропии стоит знак минус, а вероятности неотрицательны и не превьппают значение единицы. Энтропия - величинаконечная при любом конечном числе т.Продифференцируем и приравняем нулю производную:^ {-p\ogp)dp.= - log/?,- р^ \\oge = 0.(2.16)PiОтсюда следует, что /?. = Me и все слагаемые в формуле для энтропии не превьппают значение 1/^ х log е. Следовательно, Н{Х) - конечна.Энтропия достигает максимального значения, когда вероятности появлениявозможных значений информативного параметра сигнала одинаковы.432.
Основы телекоммуникацииНайдем максимум функцииF= -Xp,log/,,-XXA(2.17)методом неопределенных множителей Лагранжа при дополнительном условиитДифференцировав Fnop. и приравняв производную нулю, получим:- log р.- \1р. p.\oge-Xили=0-logp. = log^ + ?i,(2.18)т. е. вероятность/7. не зависит от переменной суммирования /. Это может бытьлишь в том случае, когда все вероятности равны между собой: р^ —р^^^..
-—р^=р = \1т.Следовательно,^п^ = - 1 ^ 1 о 8 ф = 1о8'«'(2-19)1= 1таким образом энтропия достигает своего максимального значения при равновероятных значениях информативного параметра сигнала и равна оценке Р. Хартли.Для получения количественной оценки энтропии обьршо используют основание логарифма равное двум, при этом полученная единица измерения количества информации называется битом (bit - binary digit).Непрерывный и дискретный каналыВ зависимости от того, какие сигналы передаются по каналу связи, различают аналоговые (непрерывные) и цифровые (дискретные) каналы.В аналоговых каналах передатчик (см. рис.
2.1) вьшолняет роль устройствасогласования источника сообщений с непрерьшным каналом, т.е. осуществляет преобразование непрерывного или дискретного сообщения в непрерывныйпо структурному параметру сигнал с такими характеристиками, которые обеспечивают его прохождение по данному каналу связи. В таких каналах для согласования параметров среды и сигналов применяют амплитудную, частотную, фазовую и квадратурно-амплитудную модуляции.В цифровых каналах на выходе передатчика и входе приемника действуетдискретный по структурному параметру сигнал. В них для передачи данныхиспользуют самосинхронизирующиеся коды, а для передачи аналоговых сигналов - кодово-импульсную модуляцию.Обычно дискретным каналом называют комплекс технических средств,обеспечивающих передачу дискретного сигнала.