Главная » Просмотр файлов » Вернер М. Основы кодирования (2004)

Вернер М. Основы кодирования (2004) (1151882), страница 14

Файл №1151882 Вернер М. Основы кодирования (2004) (Вернер М. Основы кодирования (2004)) 14 страницаВернер М. Основы кодирования (2004) (1151882) страница 142019-07-07СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 14)

Теорема кодирования для дискретных каналов без памяти107)С из (7.58), совместную энтропию и две условные энтропии можно подсчитать, используя таблицу 7.3. Диаграмма информационныхпотоков изображена на рис. 7.15.Н(ХЛГ) = 0,7142 битЭнтропия^.Энтропия//(*)= I бит / /№)0 = 0,2858бит \ W ( y ) = 1 5813бит) = 1,2967 битРис. 7.15. Диаграмма информационных потоков двоичногосимметричного канала со стираниями.5.

Пересчет матрицы переходных вероятностей канала Ру/х вматрицу Px/Y предоставляем сделать читателю в качестве самостоятельного упражнения. Диаграмма канала с входным источником Уи выходным X приведена на рис. 7.16 для контроля.0,8571дг,="О"Источник X0,1429.Уз="1" С^"0,8571Рис. 7.16. Двоичный симметричный канал со стираниями.7.6. Теорема кодирования для дискретных каналовбез памятиРассмотрим дискретный канал без памяти с пропускной способностью С[бит/символ], в котором каждый символ передается в течении7's сек.

Для этого канала С[бит/сек]= С[бит/сек]/Г«.Пусть энтропия некоторого источника X, измеренная в теченииТя сек, составляет Н(Х) бит. Тогда имеет место следующая теорема.Глава 7. Дискретные каналы без памятиТеорема 7.6.1. Теорема кодирования для канала (теорема Шеннона).Для источника X со скоростью R — H(X)/TS [бит/сек] и R < Ссуществует некоторый код, с помощью которого информация источника X может быть передана.но каналу связи с пропускной способностью С[бит/сек] со сколь угодно малой вероятностью ошибки.1Доказательство теоремы кодирования для канала (см..например,[10]) довольно сложно и выходит за рамки этой книги, поэтому ограничимся здесь следующими замечаниями.• Доказательство теоремы кодирования предполагает использование случайных кодов бесконечной длины и декодера максимального правдоподобия, обеспечивающего минимальную вероятность ошибки.

Доказательство не использует никаких конструктивных решений. В нем используются только статистические свойства и предельные переходы для блоковых кодов сдлиной блоков, стремящейся к бесконечности. Доказательствоне дает никаких указаний на конструкцию оптимальных кодов.• Теорема кодирования определяет также верхнюю границу дляскорости передачи R. 2• При доказательстве теоремы вводится показатель экспоненциальной оценки До, который может быть использован для оценки технически достижимой скорости передачи данных [4|.1Теорема кодирования справедлива не только для дискретных каналов, она также верна и при передаче дискретных сообщений по непрерывным каналам. Прим.

перев.2Здесь необходимо сделать разъяснение. Существует обратная теорема кодирования, которая говорит о том, что при R > С не существует никакого методакодирования, позволяющего передавать информацию с как угодно малой вероятностью ошибки.- Прим. перев.ГЛАВА 8НЕПРЕРЫВНЫЕИСТОЧНИКИИ КАНАЛЫВ главе 2 дано определение энтропии как меры неопределенностиисточника. При этом предполагалось, что энтропия измеряется посредством случайных экспериментов. В данной главе мы будем применять аналогичный подход к непрерывным источникам.ИсточникX«г\/ \StРис. 8Д. Сигнал непрерывного источника.Вместо источников с конечным алфавитом символов будем рассматривать источники, выходом которых являются непрерывные сигналы. Примером таких сигналов может служить изменяющееся вовремени напряжение в телефонных каналах и т.д. На рисунке 8.1представлен непрерывный источник X, выходом которого являетсяаналоговый сигнал x(t), являющийся некоторой случайной функцией от времени t.

Будем рассматривать значения x(t) в некоторыефиксированные моменты времени как случайные эксперименты, которые несут некоторую информацию об источнике X.8.1. Дифференциальная энтропияНа рисунке 8.2 показаны два непрерывных источника X и У, связанные каналом (аналогично рис. 7.4). Здесь, вместо вероятностей,стоят функции плотностей распределения вероятностей стохастических переменных.Использование стохастических неременных и их функции плотностей распределения вероятностей-позволяет вводить понятие ин-I 10Глава 8. Непрерывные источники и каналыформации, энтропии, условной и взаимной энтропии для двух непрерывных источников по аналогии с дискретными источниками.ИсточникXИсточникYПлотностьраспределенияПлотностьраспределения )Плотностьределен„ярасПjР и с . 8.2.

Два непрерывных источника без памяти, связанных каналом.Преобразуем непрерывный источник X в дискретный. Для этого проквантуем значения аналогового выхода источника с шагом Д(рис. 8.3).ИсточникXР и с . 8.3. Оцифровка непрерывного источника с интервалом квантования Д в моменты наблюдения to, tiи т.д.Кроме этого, как это обычно делается в теории информации, произведем дискретизацию источника по времени. В результате, получим последовательность стохастических переменных Xo,Xi,X2,Следуя таблице 7.2, определим взаимную информацию символов а^и yj, где Xi - значение выходного символа в момент времени tm, a Xj- в момент времени tn= logP{\Xi - А < ХтР(1; - А < ХтIJбит< Xi] П |j - А < Хп << Xi)P(Xj-А<Хп<fxmxn{xi^x2)dxidx28.1. Дифференциальная энтропияВзаимную информацию можно трактовать как «снятую» (утраченную) неопределенность попадания переменной Хп в интервале[XJ — A,Xj[, когда известно, что переменная Хт принадлежит интервалу [xi — Д,Xi[ или наоборот.

Будем считать функцию плотностираспределения вероятности непрерывной функцией. Тогда, устремляя ширину интервала квантования к нулю, получимXiXjJJfxmxn(xi,x2)dxidx2/ fxm{xi)dxxXi-ДAfv(T-\Afv(r)JXj-Д•fv(rAfv(T-Yт.е. результат, аналогичный выражению взаимной информации длядискретных источников. Передаваемую информацию можно определить как математическое ожиданиебит( 8 3 )Замечание. Здесь, для приведения в соответствие обозначенийэтой главы с результатами таблицы 7.2, вместо Хт используетсяX, а вместо Yn - Y.Информация источника определяется исходя из аналогичных рассуждений^= - log2 Р([ХГ -А<Х<]) =Xi(8.4)XiX= -log2 J }x{xi)dx^ХГ-А'-lo g2 (A/ x fe)) =.-= -log2A-log2/x(a:i).В отличие от выражения (8.3) для взаимной информации, в (8.4)появляется слагаемое, зависящее от интервала квантования Д.При Д —> оо, величина log 2 (A) также стремится к бесконечности. В результате, выражение для I{xi) также стремится к оо.

Этоне удивительно, так как с уменьшением шага квантования, числоотдельных событий (символов алфавита источника) возрастает и,следовательно, неопределенность источника также растет.Глава 8. Непрерывные источники и каналыВеличина log 2 (A) не зависит от источника и совершенно не уместна для его описания,«поэтому, кажется вполне естественно использовать только функцию плотности распределения вероятности непрерывного источника. Таким образом, мы переходим к следующемуопределению.Средняя информация непрерывного источника, так называемаядифференциальная энтропия, определяется как/•ооН(Х)= - / f(x)log2f(x)dx.битJ оо(8.5)Прежде всего отметим, что такое произвольное определение дифференциальной энтропии подтверждает свою пригодность тем, чтоэнтропийные отношения для дискретных источников оказываютсясправедливыми и для случая непрерывных источников и каналов.

Вчастности, для непрерывных источников имеют место соотношения(7.39) - (7.42).Таким образом, дифференциальная энтропия непрерывного источника зависит только от функции плотности распределения вероятности, которая в общем случае является бесконечной величиной,поэтому, поставим вопрос о том, как велико может быть значениедифференциальной энтропии. Прежде всего отметим, что характеристиками стохастического процесса являются две величины: среднее значение, которое принимает стохастическая неременная (обладающая свойством линейности) ц и стандартное отклонение стохастической переменной а.Среднее значение или математическое ожидание /i не оказываетникакого влияния на дифференциальную энтропию.

С ростом же а,неопределенность источника возрастает, что приводит также к возрастанию дифференциальной энтропии. В связи с этим, сравнениеразличных функций плотностей распределения вероятностей относительно соответствующих им энтропии имеет смысл производитьпри одинаковых <х.Замечание.

В информационной технике за исходный параметрпринимают <т2 - дисперсию, которая определяет среднюю мощность стохастического процесса /10/. Ясно, что с увеличениеммощности передатчика, количество передаваемой информации увеличивается и, наоборот, с увеличением мощности шумов, возрастает неопределенность, т. е. в единицу времени передается меньшеинформации.8.1. Дифференциальнаяэнтропия113,Из теории информации следует, что дифференциальная энтропиядостигает своего максимума при гауссовском распределении вероятности.Теорема 8.1.1.

При заданной дисперсии а2, максимальной дифференциальной энтропией обладает источник с гауссовским распределением, вероятности, причем,HGaus(X) = ~Vb 2' бит.(8.6)Пример: Дифференциальная энтропия гауссовского источника.Из (8.5) следует, что дифференциальная энтропия гауссовскогоисточника равнаЩХ)+ООВыражение в квадратных скобках может быть разложено на два интеграла. Таким образом, окончательно имеем+нат°°/ x2 ехр (2<T2V2^J•V,2J dx =2aЧисленные примеры для трех, наиболее употребительных распределений, приведены в таблице 8.1.Пример: Телефония.Практическая польза приведенных выше результатов может бытьнаглядно показана при помощи оценки достижений скорости передачи информации (в битах) в цифровых телефонных линиях.

Характеристики

Тип файла
PDF-файл
Размер
9,43 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
А знаете ли Вы, что из года в год задания практически не меняются? Математика, преподаваемая в учебных заведениях, никак не менялась минимум 30 лет. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6390
Авторов
на СтудИзбе
307
Средний доход
с одного платного файла
Обучение Подробнее