Главная » Все файлы » Просмотр файлов из архивов » PDF-файлы » Вернер М. Основы кодирования (2004)

Вернер М. Основы кодирования (2004), страница 11

PDF-файл Вернер М. Основы кодирования (2004), страница 11 Шумоподобные сигналы (ШПС) (51144): Книга - 9 семестр (1 семестр магистратуры)Вернер М. Основы кодирования (2004): Шумоподобные сигналы (ШПС) - PDF, страница 11 (51144) - СтудИзба2019-07-07СтудИзба

Описание файла

PDF-файл из архива "Вернер М. Основы кодирования (2004)", который расположен в категории "". Всё это находится в предмете "шумоподобные сигналы (шпс)" из 9 семестр (1 семестр магистратуры), которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. .

Просмотр PDF-файла онлайн

Текст 11 страницы из PDF

ВведениеВ главе 4 были рассмотрены два связанных источника информации.Были введены такие ключевые понятия как совместные, взаимныеи условные информации пар событий (символов) для связанных источников. На их основе мы пришли к фундаментальным понятияминформации - совместной, взаимной и условной энтропии. (См.

табл.4.3). Там же было отмечено, что совместная и условная энтропииимеют аналоги в теории вероятностей и определяются как математические ожидания совместных и условных информации всех парсобытий двух источников.ПередатчикПриемникИсточникИсточникXКРис. 7.1. Модель передачи.Мы продолжим эти рассуждения, уделив основное внимание взаимной энтропии. Для описания каналов передачи информации используем концепцию двух связанных источников.

Оказывается, чтос помощью понятий, введенных в главе 4, удается полностью описатьпроцесс передачи информации по каналам без памяти. В результате, мы оценим возможность передачи информации по каналу, т.е.пропускную способность канала.В Шенноновской модели канала связи информация одного источника (передатчика) передается по каналу приемнику и выдаетсяпотребителю. Для потребителя имеет значение только выход приемника, т.е. приемник сам является источником информации, поэтому,7.2. Двоичный симметричный каналмодель связанных источников полностью применима к цепочке Передатчик - Канал - Приемник (рис. 7.1). Если происходит передачаинформации, то символы одного источника должны оказывать влияние на символы другого источника. В качестве примера рассмотримдвоичные симметричные каналы без памяти.7.2.

Двоичный симметричный каналДвоичный симметричный канал (ДСК) является простейшим примером взаимодействия двух дискретных источников без памяти. Онявляется дискретной двоичной моделью передачи информации поканалу с аддитивным белым гауссовским шумом (АБГШ).Замечание. При проверке эффективности алгоритмов помехоустойчивого кодирования, для расчетов и моделирования каналов связиметодом Монте-Карло успешно применяются дискретные моделиканалов.Двоичный симметричный канал описывается с помощью диаграммы переходов (рис. 7.2). На диаграмме представлены возможные переходы двоичных символов (0,1) источника X в двоичные символыисточника Y.

Каждому переходу приписана переходная вероятность.Источник XИсточник YР и с . 7.2. Диаграмма передачи данных по двоичному симметричному каналу.Из рис. 7.2 видно, что ошибочным переходам соответствует вероятность е, поэтому, обычно говорят, что при передаче двоичнойинформации по ДСК, ошибка происходит с вероятностью е. Эквивалентом диаграммы переходов является матрица канала. Она содержит переходные вероятности и является стохастической матрицей, укоторой сумма всех.элементов каждой Строки равна единице.Матрица канала с входным алфавитом, состоящим из М символов Х{ и выходным алфавитом, состоящим из N символов yj, содер-,86Глава 7. Дискретные каналы без памятижит все переходные вероятности P(yj/xi)и имеет вид\(7.1)рЫ/хм)'Р(У2/ХМ)•••P{VN/XM)В случае ДСК имеемрДСК _ ( 1 - е1£е[)>Из симметрии переходов следует, что равномерное распределениесимволов на входе канала влечет за собой равномерное распределение выходных символов.Выпишем условные и взаимные информации всех возможных парсобытий, предполагая равномерное распределение входных символов.

Для ДСК имеем/(2/1 /xi)1{У2/х\)1{у\/х2)1{У2/х2)= - log2p(yi/xi)= -log 2 p(2/ 2 /zi)= -\og2p(yi/x2)= ~log2p(y2/x2)бит = - Iog2(l - е) битбит = -log 2 e6HTбит = -log2e6HTбит = - I o g 2 ( l - <г) бит...О т с ю д а следует= log2 P;{^l)бит = log2{~^y2) = log2 % ^ р бит = log2 щ= (1 + lo g 2 (l - е))бит= {1 + log2 e) бит(7.4)\ Vi) = log2 — р у - бит = log2 — = (1 + log2e) бит= log2 ^^ бит = log2{~f = (1 + Iog2(l - е))бит.Рассмотрим три особых случая1.

£ = 0 (передача без ошибок)-f(zi;t/i) = 1{х2\У2) = 1 бит.Других взаимных информации не существует, так как парывзаимных символов (cci,j/2) и (x2,yi) никогда не могут появится. Информация передается от источника X к источнику У безпотерь.7.2. Двоичный симметричный канал2. Е = 1/2. Для всех нар символов (x{,yj) имеем/№; Vj) = bg 21/2YJ2бит =°-Источники X и Y независимы. Передачи информации не происходит.3. е = 1. В этом случае или какие-то вероятности перепутаны, илимы где-то полностью заблуждаемся. Обнаружив этот факт инроинвертировав принятые символы yi, мы придем к первомуслучаю.В заключении рассмагрим поведение условной I(yi/xi) = 1{у\/х\)и взаимной I{yi\Xi) = I(y\;xi) информации в ДСК как функцийвероятности ошибки е.ПереданнаяинформацияНеопределенностьвносимая каналом[у10,8[бит]0,4\>!.0,20О0,10,2Рис.

7.3. Условная l(yi/xi)0,3£ — » О.5и взаимная информацияУсловную информацию 1(уг/х,) можно рассматривать как неопределенность, вносимую каналом, а взаимную информацию I(yi\Xi)как информацию, передаваемую по каналу. При передаче одногодвоичного символа е = 0, информация передается без потерь, поэтому I{Vi/xi) = 0, a I(yi;Xi) = 1 бит.

С ростом вероятности ошибки;, неопределенность, вносимая каналом, возрастает, а передаваемаяинформация, наоборот, убывает. При е = 0,5, передача информацииотсутствует, поэтому I(yi/xi) = 1, a I(yi\Xi) = 0. Сумма же условнойи4yi/%i) взаимной I{yi\Xi) информации не зависит от е и всегдаравна одному биту.87]Глава 7. Дискретные каналы без памяти7.3. Передача информацииПосле рассмотрения отдельных нар событий в предыдущем разделе,вернемся опять к модели передачи информации.

На рис. 7.4 показанаисходная ситуация.Описание канала с помощью переходных вероятностей сводится,в конечном счете, к совместным вероятностям нар событий. С этойточки зрения, оба источника в модели передачи информации равнозначны, поэтому подразделять источники на передатчик и приемник,имея в виду направление передачи информации, здесь и в дальнейшем не всегда имеет смысл.Источник¥ИсточникXАлфавитX = {xt, х2,..., х„]Условные вероятностиptyjlx,) и pOc,lyi)Вероятность р(хдСовместная вероятностьАлфавит¥={У1.У2.-Ун)Вероятность р(удР и с . 7.4.

Два дискретных источника без памяти, связанныеканалом.В главе 4 (см. таб. 4.3) совместная энтропия двух источниковопределена как математическое ожидание информации всех возможных пар событийH(X,Y)бит(7.5)XYТочно так же определяется условная энтропияXYЛIV/V\fj(би(7.6)тИз этого следуетH{X,Y) = H{Y) + ЩХ/Y) = Н{Х) + H{Y/X)(7-7)иH(X,Y)<H(Y)(7.8)7.3. Передача информациипричем, знак равенства имеет место только для независимых источников.В случае двух источников, связанных каналом, совместная неопределенность снижается, так как событие одного источника позволяетзаранее предполагать событие другого источника. С точки зрениятеории информации, снижение неопределенности означает обмен информацией между источниками.

Рассуждая аналогично, приходим квыводу, что среднее значение информации, передаваемой по каналу,определяется как математическое ожидание взаимных информациивсех пар событий.Среднее значение информации, которым обмениваются два дискретных источника без памяти X и У, равноЗамечание. Обратите внимание на знак «минус» в левой частиравенства и знак «плюс.» перед правой частью.Из определения передаваемой информации следуетXУ-H(X/Y) бит( 7 Л 0 )н(Х) бити, поэтому,ЦХ; Y) = Н{Х) - H(X/Y) = H(Y) - H{Y/X).(7.11)В этом месте опять возникает вопрос о сущности аксиоматическогоопределения энтропии. В качестве «пробного камня» докажем справедливость следующего утверждения.Глава 7. Дискретные, каналы без памятиТеорема 7.3.1. Передаваемая информация I(X;Y) всегда неотрицательна, причем, она равна нулю только для независимых источников X и Y,1(Х;У)>0.(7.12)Доказательство.При доказательстве будем исходить из определения I(X; Y) и используем три приема.

Во-первых, воспользуемся оценкой функциинатурального логарифма (2.19). Во-вторых, без ограничения общности будем рассматривать только такие пары символов, вероятностькоторых отлична от нуля. В третьих, в аргументе логарифмическойфункции из (2.19) поменяем местами числитель и знаменатель, чтоэквивалентно умножению логарифмической функции на минус 1, поэтому, нам достаточно доказать справедливость неравенстванатТак как, в силу сделанного, нами ограничения, суммы берутся толькопо парам (х, у), для которых р(х, у) ф 0, аргумент логарифмическойфункции v ? s всегда имеет отличное от нуля конечное положительное значение, поэтому, используем оценку (2.19)натху0ФЫX(7Л4)^ VР(Ф)1 < о.YЕсли бы (7.12) не выполнялось, передача информации не снижалабы энтропии (т.е.

определенность источника не повышалась бы).То, что переданная информация всегда неотрицательна и всегда справедливы равенства (7.11) и (7.7), лишний раз подтверждаетсправедливость следующих утверждений:Любое ограничение не может повышать неопределенность источникаН(Х) > H(X/Y).(7.15)917.3. Передача информацииСовместная энтропия достигает своего максимума, когда источники независимыЩХ, Y) < Н(Х) + H(Y).(7.16)Найденные зависимости можно наглядно пояснить при помощидиаграммы потоков информации (рис.7.5). Диаграмма помогает уяснить смысл условных энтропии H{X/Y) и H(Y/X).Утечка информацииH(X/Y)Энтропия навходеканала Н(Х)Переданная информацияH(X)-H(X/Y)= I(X; Y)=H(Y)-H(Y/X)Энтропия навыходеканала Н(¥)Н(¥/Х)Посторонняя информацияР и с .

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5304
Авторов
на СтудИзбе
416
Средний доход
с одного платного файла
Обучение Подробнее