Главная » Просмотр файлов » Вернер М. Основы кодирования (2004)

Вернер М. Основы кодирования (2004) (1151882), страница 12

Файл №1151882 Вернер М. Основы кодирования (2004) (Вернер М. Основы кодирования (2004)) 12 страницаВернер М. Основы кодирования (2004) (1151882) страница 122019-07-07СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 12)

7.5. Диаграмма информационных потоков.H{X/Y) - определяет среднюю меру неопределенности посланного символа источника X в том случае, когда символы приемника источника У известны, т. е. оставшуюся неопределенность приемника.Величину H(X/Y) часто называют также «утечкой» информации,так как энтропию Н(Х) можно интерпретировать как собственнуюинформацию источника X, Н(Х) = 1(Х;Х). В бесшумном каналеH(X/Y) = 0 информация передается от источника X к источникуY и обратно без потерь (без «утечки»). Если канал полностью зашумлен, то H(X/Y) = Н(Х) и никакой передачи информации непроисходит («утекает» вся информация).H(Y/X) - определяет среднюю неопределенность принятого символа при известных посланных символах, поэтому ее называют «посторонней» шумовой информацией.Передачу информации по зашумленному каналу можно рассматривать как серию случайных экспериментов, которые способствуютснижению неопределенности.

С точки зрения теории информации,канал является источником шумов.Глава 7. Дискретные каналы без памятиПример: Передача информации по двоичному симметричномуканалу (ДСК).Поясним физический смысл величины 1(х; у) на примере ДСК(рис. 7.2). Для двоичного симметичного канала имеем(7.17)Как видим, I(X; Y) зависит только от двух параметров - вероятности ошибки в канале и вероятности появления символа х\ навыходе канала p(xi).

При этом выполняются следующие выражения= р И р(х2) = 1 - рр{у\)e\p{yi/x2)p{y2/x2)J\ e 1-е= (1 - е)р + е(1 - р) и р(у2) = 1 - р(у\)(7.18)Р(ХиУг)0.4 р -Рис. 7.6. Передача информации по двоичному симметричному каналу с вероятностью ошибки е для различных значений вероятности символа на входеканала р.Результаты вычислений для I(X;Y) при различных р и £ представлены на рис. 7.6 в виде семейства кривых I(X; Y) = f(p) при£ — {0.05,0.1,0.2,0.4,0.5}. В канале без шума е = 0 передача информации происходит без искажений и информация I(X; Y), в этомслучае, равна энтропии Н(х) на входе канала.

С увеличением уровняшума, вероятность ошибки е повышается, а количество переданной7.3. Передача информацииинформации снижается, причем, относительно малый уровень шума е =«0,05 приводит к заметному снижению I(X;Y). В.полностьюзашумленном канале £ = 0,5 передача информации невозможна.Интересно отметить, что при фиксированных значениях е, информация I(X;Y) существенно зависит от вероятности р на входеканала. При р = 1/2 через канал передается максимальное количество информации.

В разделе 7.5, в котором будет введено новое понятие - пропускная способность канала, это свойство I(X; Y) будетрассмотрено подробно.Пример: Связанные источники.Мы хотим дополнительно пояснить смысл энтропии на числовомпримере. Для этого мы предлагаем такую конструкцию связанныхисточников, в которой все интересующие нас величины могут бытьдостаточно просто подсчитаны.В таблице 7.1 задан дискретный источник без памяти Z с символами из алфавита {0,1,2,3} и соответствующими вероятностямисимволов. Каждый символ z\ кодируется двоичным кодом с первымбитом Xi и вторым битом 2/i- Мы будем интерпретировать "эти битыкак символы двух связанных источников X nY.Таблица 7.1.

Источник Z и его двоичное кодирование.iz.Pz(Zi)XУ101/200211/401321/810431/811Выполните следующие задания:1. Опишите источники XuY;2. Установите связь между источниками X и Y в форме модели канала, в которой источник X является входом канала, аисточник Y - его выходом;3. Приведите для задания 2 диаграмму информационных потокови найдите для этой диаграммы числовые значения энтропии;4. Найдите энтропию источника Z;L94Глава 7.

Дискретные каналы без памяти5. Выполните задания 2 и 3, считая источник У входом канала.Решение.1. Начнем с описания источников X и Y. Оба источника являются дискретными источниками без памяти. Используя таблицу 7.1,найдем распределение вероятностей символов 0 и 1 для каждого изних^H(7.19)(7.20)Согласно (2.34), энтропии источников равныта = -2.о б ! (5)Л 1 о е 2 (^„, 8 Ш ,(7ЛЦ2. Модель канала представляет собой двоичный канал с символами х\ и Х2 на входе и символами у\ и 2/2 н а выходе. Канал можетбыть задан матрицей переходных вероятностей (7.1), содержащей вероятности p{jjj/xi).

Из (7.19), (7.20) и таблицы 7.1 следует, что•rv,y(O,O)Pz{0)1/2ЗДМ>)S(2)V8PZZ)231/4Px(O)1/8В результате получим матрицу переходных вероятностей канала/2/3[1/3 \J(7-24)7.3. Передача информации 95 ;Замечание. Как и следовало ожидать, матрица является стохастической, так как сумма вероятностей в каждой ее строке равнаединице.ИсточникХОOsr-..»Источник Кг?О ОРис. 7.7. Двоичный канал.Диаграмма канала с вероятностями переходов приведена на рис.7.7.

Можно заметить ее сходство с диаграммой (рис. 7.2). Однако, внашем примере, уже нельзя говорить об ошибках в канале.3. Для построения диаграммы информационных потоков необходимо знание величин H(Y/X), H(X/Y) и I(X;Y). По известнымпереходным вероятностям можно вычислить H(Y/X)--(7.25)(2)log2pY/x(Q/l)-pz(3)log2PY/x(l/l).PzПодставляя числовые значения, находимбит2Ojl\ZJ4 °*\3J8o/V2/i 0,9387.Неличины I(X;Y) и H(X/Y) можно найти из (7.11).Диаграмма информационных потоков представлена на рис.

7.8.Утечка информацииЩХ/У) = 0,7956 битЭнтропияНЙШИЕШ———,Н(Х)=0,8113 битI ИХ;Y) = 0,0157 бит \I ^ ^ ^ ^ ^ ^ ^ЭнтропияH(Y) =0,9544 битПосторонняя информация ЩУ/Х) = 0,9387 битРис. 7.8. Диаграмма информационных потоков связанныхисточников.^96Глава 7. Дискретные каналы без памяти4. Энтропия источника Z равнаПолученным результатам можно дать следующую интерпретацию.Энтропия источника Z равна совместной энтропии двоичнь!х источников X и У. Энтропия источника Н(Х) равна 0,8113, остальные0,9387 бит вносит условная энтропия H(Y/X) согласно (7.7).5. По аналогии с заданием 2, находимPz(0)1/24_=_ = Рг(1)1/42~ з78 - з1/8'р=15(7 28)-1/8 _ 13/8-3и получаем матрицу канала(7(7 2Диаграмма канала и диаграмма информационных потоков ноказанына рис.

7.9 и рис. 7.10.РИСТОЧНИК X0л/сИСТОЧНИК У2/31/50Рис. 7.9. Двоичный канал.Утечка информацииH(Y/X) = 0,9387 битЭнтропия навыходе каналаН(Х) =0,8113 битПосторонняя информацияЯДО9 =0,7956 битРис. 7.10. Диаграмма информационных потоков.7.4- Выводы7.4. ВыводыВсе определения и величины, рассмотренные в предыдущих разделах, обобщены в таблицах 7.2 и 7.3. Следует обратить особое внимание на переходы от теории вероятностей к теории информации.При этих переходах выходные символы дискретных источниковбез памяти рассматриваются как исходы случайных экспериментов.В соответствии с вероятностями этих исходов, каждому символу приписывается некоторая информационная мера, равная логарифму вероятности его появления.

Заметим, что вероятности символов можнорассматривать как стохастические переменные.При переходе от вероятностей символов к их информационномусодержанию, вводится новая величина, не имеющая аналога в теориивероятностей - взаимная информация, которая возникает при анализе пар совместных событий (ж, у). Взаимная информация определяется как логарифм отношения апостериорной вероятности символа ур(у/х) к его априорной вероятности р(у) и служит информационноймерой связности двух событий.Для описания источников используются средние значения информации символов, генерируемых источником. Таким образом, вводится понятие энтропии как математического ожидания количестваинформации отдельных событий (символов) или пар событий.

Приэтом, особую роль играет взаимная информация. Ее математическоеожидание I(X;Y) является мерой передаваемой информации и характеризует связь между двумя источниками X и Y, т.е. описываетсреднее количество информации, которой обмениваются между собой источники по каналу связи. Основополагающее значение величины I(X; Y) будет подробно раскрыто в следующих разделах.98Глава 7. Дискретные каналы без памятиТаблица 7.2. Дискретные источники без памяти X и У с символами х £ X — {ж1,Ж2, • • • ,хм} и у 6 Y ={уьУ2, ••-,!/w}Теория вероятностейТеория информацииВероятность отдельного символа(априорная вероятность)Информация отдельного символа/(x) = -!og 2 p(z)6HTр(х)Совместнаясимволоввероятностьдвухр{х,у)Р{У)р(у/х) = У(х,у)Информация пары символов(7.31)Условная вероятность (апостериорная вероятность)р(х/у) =(7.30)Условная информация(7.33)1(у/х) = - log2 p(y/x) бит(7.32)Взаимная информация/ ( * ; » ) = •апостериорная инф.бит =априорная информ.(7.34)р(х)р(х)Обозначенияр(х) = Рх (х.) для х, 6 Xр(х/у) = Px/r(xi/yj)битНекоторые важные соотношения, используемые для расчетов]Гр(х) = 1;для Xi € X53 Р(УЖ.

Характеристики

Тип файла
PDF-файл
Размер
9,43 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6381
Авторов
на СтудИзбе
308
Средний доход
с одного платного файла
Обучение Подробнее