Главная » Просмотр файлов » Прокис Дж. Цифровая связь (2000)

Прокис Дж. Цифровая связь (2000) (1151856), страница 18

Файл №1151856 Прокис Дж. Цифровая связь (2000) (Прокис Дж. Цифровая связь (2000)) 18 страницаПрокис Дж. Цифровая связь (2000) (1151856) страница 182019-07-07СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 18)

Единица измерения 1(х„у,) определяется основанием логарифма, в качестве которо$ Та добыт~ обычно выбирается или 2, или е. Когда основание логарифма равно 2, единицей измерен б ~х,;у,) является бит, а когда основание равно е, единицей измерения 1(х,;у,) являета' лат (натуральная единица). (Стандартная аббревиатура для 1оя, — это 1п.) Так как $ редст 1п а = 1п 2 1оя, а = 0,69315 1оя, а, то количество информации, измеренное в натах, равно количеству информац пред< измеренной в битах, умноженному на 1п2.

Когда случайные величины Х и У статистически независимы, то Р(х,~у,) = Р(х,), 1 следовательно, 1(х,;у )=О. С другой стороны, когда выбор события У=у полность1 определен выбором события Х=х„условная вероятность в числителе (3.21) равна едини~( Оп и, следовательно, нож ьаданн 1(х,; у ) = 1оя — = — 1оя Р(х,) = 1(х,; х, ) . (3.2.2) Р(х,.) Но (3.22) как раз определяет информацию о Х=х,. Исходя из этих соображений, а называют собственной информацией события Х=хь Она обозначается так: 1(х, ) = 1оя — = — 1оя Р(х, ) .

1 (3.2.3) Р(х,) Заметим, что событие„которое выбирается с высокой вероятностью, сообщает меньщ' информации, чем маловероятное событие. Действительно, если имеется единственна Ан событие х с вероятностью Р(х)=1, тогда 1(х)=0. ~анна Чтобы далее показать, что логарифмическая мера количества информации являетй единственно приемлемой для цифровой связи, рассмотрим несколько примеров.

Пример 3.2.1. Предположим, что имеется дискретный источник, который выла) ра, двоичную цифру 0 илн 1 с равной вероятностью каждые т, секунд. Количества информации при каждом появлении новой цифры Сл 1(х) = - 1оя Р(х ) = — 1ой, ф = 1(бит), х, = О, 1. )тороп Теперь предположим„что последовательные цифры на выходе источник Е статистически независимы, т.е. источник не имеет памяти. Рассмотрим блок символа источника из )г двоичных цифр, который существует на интервале 1сг,. Имеется М =3 таких возможных lс-битовых блоков, каждый с равной вероятностью 11'М = 2 '~ Собственная информация 1с -битового блока равна ' Это Е(х,') =-1о8,2 ' =Ес бит, и она выдается на временном интервале Кт, Таким образом, логарифмическая мера 'полнчества информации обладает желаемыми свойствами аддитивности, когда 'определенное число единичных выходов источника рассматривается как один блок.

Теперь вернемся к определению взаимной информации, определяемой (3.2.1), и ~множим числитель и знаменатель отношения вероятностей на р(у,): Р(х,. ~ у,.) Р(х, ~ у,)Р(у,) Р(х„у,) Р(у, ! х,.) Р(х,) Р(х,)Р(у,) Р(х,.)Р(у,) Р(уе) Отсюда делаем вывод Е(х,; у,) = Е(у,; х,) . (3.2.4) Таким образом, информация, содержащаяся в выборе события У=у, относительно „обытия Х=х„идентична информации, содержащейся в выборе события Х=х, относительно ,"обьпия У=у; Пример 3.2.2. Предположим, что Х и У вЂ” двоичные (О, Ц случайные величины, представляющие вход и выход канала с двоичным входом и двоичным выходом.

Входные ;амвоны равновероятны, а условные вероятности выходных символов при заданном входе )пределяются так: Р(У=О!Х=О) =1-р„, Р(У=1~Х =О) = р„ Р(У=1~Х=1)=1 р„ Р(У =О!Х =1) =Рг Определим, сколько информации об Х = 0 и Х = 1 содержится в событии У = О. Из аданных вероятностей получим Р(1' = 0) = Р(У = 0 / Х = 0)Р(Х = 0) + Р(У = 0 ~ Х = 1)Р(Х = 1) = —,(1 — р, + р, ); Р(У=1)=Р(У=1~Х=ОЕР(Х=О)+Р(У=1~Х=ЦР(Х=Ц=ф(1 — р, +р ).

Тогда взаимная информация о символе Х= 0 при условии, что наблюдается У = О, равна Е(х„у,) = Е(0;0) =!о8, Р(1 О~ Х = 0) 1 2(1 Ро Р(У 0) 1 р +р Аналогично взаимная информация о символе Х =1 при условии, что наблюдается У = О, вна Е(х„'у,) =Е(1;0) =1оя, 2р, Ра+Р~ Рассмотрим несколько частных случаев. В первом, когда р, = р, = О, канал называют ~налом без шумов и Е(0; 0) = 1о8, 2 =1 бит. Следовательно, когда выход точно определяет вход, нет потери информации.

С другой проны, если р, = р, = 1/2, канал становится непригодныл~ ', так как Е(0 0) = 1о8, 1 = 0. Если р, = р, =1Е4, то Е(0; 0) = 1о8, ф = 0,587 бит; Е(0; Ц = 1о8, —,' = -1 бит. ' Этот случай называют «обрыв канала» (прп) 77 Пом!1мо определения взаимной информации и собственной информации полез!8 определить условную собственную информацию как « 1 Ф) 1(к! ) у ) = 1оя = — 1оя Р(х, ( у, ) . Р(к,.

~ у.) (3.2.5) ~! энтрог Тогда, комбинируя (3,2.1), (3.2.3) и (3,2.5), получаем соотношение Ср 1(х,.;у,) =1(х,)-1(х, ~у,). Мы интерпретируем 1(к!!у ) как собственную информацию о событии Х=х, пос4. ! / наблюдения события 1'=у!. Из условия 1(х,.)>0 и 1(х,. ~у,)>0 следует, что 1(х„у,)<$ когда 1(х, ! у!) > 1(х,.), и 1(х,, у,) > О, когда1(к, ( у,.) < 1(х!).

Следовательно, взаимн~ содеря информация между парой событий может быть илн положительной, или отрицательна~ нли равной нулю. 3.2.1. Средняя взаимная информация и энтропия ~! Из у Зная взаимную информацию, связанную с парой событий (х;,у;), которые являюто , равенс возможной реализацией двух случайных величин Х и У, мы можем получить среди~ когда значение взаимной информации простым взвешиванием 1(х;,у;) с вероягносты!Если появления этой пары и суммированием по всем возможным событиям.

Таким образо!( получим «и и я Р(х„у, ) 1(Х;у)=,');) Р(х„у,)1(х„у,)=,'!',ГР(к„у,)1ой " ' =1р;Х) (3.2.7)~!набл -! «=! -! з-! Р(к,)~ (у,), априо1 как среднюю взаимную информацию между Хи К !! инфор Видно, что 1(Х,У)=0, когда Хн 1'статистически независимы н Р(х!,у,) = Р(к )Р(у» девиа, Важным свойством средней взаимной информации является то, что 1(Х,У)>0 (с!~ ннф р задачу 3.4). ! ния ня Аналогично определим среднюю собственную информацию, обозначенную Н(Х): :, тельно « я ', Н(Х):. Н(Х)=") Р(х,,)1(х,)=-~~) Р(х,)1ояР(х,,).

(3.2.8) ! ! ! ! Если Х представляет собой алфавит возможных символов источника, Н(Х) представляя "нтск. среднюю собственную информацию на символ источника, и ей называют энтропие1 источника. В частном. случае, когда символы источника равновероятны, Р(х,)= 1/и дд Пр всех 1, н, следовательно, ' рассмс Я Н(Х) = — ,'Г-,!, 1оя —,', = 1ояп. (3 2 9) , !входна ! В общем случае Н(Х)<1ойп (см. задачу 3.5) при любых заданных вероятностя символов источника. Другими словами, энтропия источника л«аксимальна, когда выходнььгде Н символы равновероятны. , Зависн Пример 3.2.3. Рассмотрим двоичный источник, который выдает последовательност, независимых символов, причйм выходной кодовый символ «0» с вероятностью а, а симв!8 ~Р фи' «1» с вероятностью 1 — д.

Энтропия такого источника ' Термин «энтропия» взят из механики (термодинамики), где функция, похожая на (3.2.8), назва1 (тсрмодинамичеокой) энтропией. 78 а Н(Х) = Н(г/) = — 41 1ой !1 — (1 -41) 1о8(1 — !1) . (3.2.10) Функцию Н(г/) иллюстрирует рис. 3.2,1. Видно, что максимальное значение функции энтропии имеет место при д = 2, причем Н(22) = 1 бит. Среднее значение условной собственной информации называется условной энтропией и определяется как 1(Х;У) = Н(Х)-Н(Х ) У) = Н(У)-Н(У ! Х). (3.2.12) Из условия 1(Х, У) > 0 следует, что Н(Х)> Н(Х~У) и Н(У)> Н(У)Х), причем равенство имеет место тогда, и только тогда, когда Х и У статистически незави-симы. Если мы интерпретируем Н(Х~У) как среднее значение неопределенности (условной собственной информации) Х после наблюдения Уи Н(Х) как среднее значение априорной неопределенности (собственной информации), т.е. имевшейся до наблюдения, тогда 1(Х, У) определяет взаимную информацию (уменьшение среднего значения неопределенности, имеющейся относительно Х после наблюдения У).

Так как 11(Х)> Н(Х!У), то ясно, что при условии наблюдения У энтропия Н(Х) не увеличится. н(9! О,9 о,к 0,7 а Й о,б 0,5 « О,4 о.з О,2 о,! о .--!» о 0 О,! ОД 0,3 0,4 0,5 О,б 0,7 О,В 0,9 ! Всроятностыу Рнс. 3.2.!. Энтропия двоичного источника Пример 3.2.4. Определим Н(Х~У) и 1(Х, У) для канала с двоичным входом и выходом, рассмотренного выше в примере 3.2.2, для случая, когда р, = р, = р. Пусть вероятность входных символов равна Р(Х=О)=!1 и Р(Х=1)=1 — д .Тогда Н(Х) = Н(1) = -1 181-(1-д)18(1-,1), где Н(!1) — функции энтропии, а условная энтропия Н(Х~У) определяется (3.2.11).

3ависнмость Н(Х~У) в бит/символ как функция от д и параметра р показана на рис. 3.2.2. График средней взаимной информации 1(Х, У) в бит/символ дан на рис. 3.2.3. 79 «« 1 Н(Х(!У) = ~ т4~ Р(Х„у )1О8 (3.2.1 1) ! Р(х, /!у ) Мы интерпретируем Н(Х~У) как неопределенность Х (дополнительную информацию, содержащуюся в Х) после наблюдения У Комбинация (3.2.7), (3.2.8) н (3.2.11) дабт соотношение т!х,!3 о в 0,8 и й ьт 0,6 $ 0,4 нгхв!т) ф ели Хт заимна у=О у = 0,5 0,8 в М О,б о 0,4 Нес! а неп епрерь учайн едста огран тропн 0,2 0,2 о О .Ф Под 0 0,2 0,4 0,6 0,8 ! 0 0,2 0,4 О,б 0.8 ! 0 - вероятность символаХ = 0 8- всроятаость символа Х = 0 предел Рис.

3.2.2. Условная энтропия для двоичного Рис.3.2.3. Средняя взаимная информация для симметричного канала двоичного симметричного канала Когда условную энтропию Н(Хф рассматривают применительно к каналу с входом~. Т г и выходом У, то Н(Х г') называют ненадежностью канала на символ и ее интерпретирук( как величину средней неопределенности, оставшейся в Х после наблюдения тг . Результаты, приведенные выше, легко обобщаются на случай произвольного чнс!1.

случайных величин. В частности, предположим, что мы имеем блок из /с случайн ' В нт величин Х!Хзхз...Х4 с совместной вероятностью Р(Хьх2,...,ХОР(Х5=х!, Х2=х2, „Хя=х Тогда энтропия определяется как зможт я~ я св атиств Н(Х,Х2...Х,) = — ~ ~" ~У Р(х, х, ...х )1ояР(х,х, ...х, ). А !д=! А=! Поскольку совместную вероятность Р(Х!, Х2, ..., Х!) можно выразить в виде Р(х,хз " х„) = Р(х,)Р(хз ! х!)Р(хз ! х!хз) "Р(хв ! х!хз " х„,), (3.2.14) предел. (3.2.13) то следует Н(Х Х,Х, ...

Х„) = Н(Х ) + Н(Х, ! Х ) + Н(Х, ) Х Х,) + " +н(х,~х,...х„,) =)"н(х, ~х,х,...х,,). ! С Учетом РезУльтата Н(Х) > Н(х~г"), где Х=Хв и г'=Х!Х2...Хя,.!, из (3.2.15) с Н(Х,Х - Х,)-ХН(Хм), и=! причем равенство имеет место тогда, и только тогда, когда случайны Х!, Х2, ..., Хт статистически независимы. Тог ледует 1 нове При е величин 3,2.2. Измерение информации дли непрерывных случайных величин Определение взаимной информации, данное выше для дискретных случайных величн8 можно непосредственно использовать для непрерывных случайных величин. В частност!~ Сред 6-5б Н(21Х) называют энтропией шума в канале (прп) 80 аа альтернативно как 1(Х; 1') = Ь(У) — Ь(1' ! Х) .

Характеристики

Тип файла
DJVU-файл
Размер
14,41 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6439
Авторов
на СтудИзбе
306
Средний доход
с одного платного файла
Обучение Подробнее