Главная » Просмотр файлов » Вернер М. Основы кодирования (2004)

Вернер М. Основы кодирования (2004) (1151882), страница 6

Файл №1151882 Вернер М. Основы кодирования (2004) (Вернер М. Основы кодирования (2004)) 6 страницаВернер М. Основы кодирования (2004) (1151882) страница 62019-07-07СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 6)

Простейший пример «правила цепочки» для вероятностей р(х, у) = р(х/у)р(у) и р(х, у, z) =p(x/yz)p(y/z)p(z). Так как логарифмическая функция отображлетпроизведение в сумму, получаем «правило цепочки» для совместнойэнтропии.5.1. ЭнтропияAT,, Так как энтропия всегда неотрицательна и имеет место неравенство\откуда следует нижняя оценка 2.3.

Из (5.5) прежде всего следует разложениеHUX)= ^-Н,^(Х)+ jH(XL\X1,X2,LiLJ...,XL-X).(5.7)Используя уже известное соотношение (5.5), получаем неравенствоL.HUX)<(L-l)-HL-l(X)+HL(X).(5.8)После подстановки получаем утверждение 3.HL(X)< HL^{X)..(5.9)4. Утверждения 1., 2. и ограничение Н\{Х) < оо устанавливаютсуществование предела. Используя далее «правило цепочки», получаемттГ LT/ V/V"\VV\|/> -f" 7+ ff(Xi,|Xi, X 2 ,..., X b -i) + Я ( Х ь + 1 | ^ 1 , Jf2, • • •, XL)++ •••+ H(XL+J\XUX2,...,XL+i.i)\.(5.10)Согласно утверждению 1., условная энтропия в правой части .равенства не возрастает, поэтому справедлива оценкаHL+j(X)<1~^l±lH{XL/\X1,Xi,...,XL-1).Lj(5.11)Устремляя j к бесконечности, получимlira HL+j{X)<j-»oolim —"— H(XUX2,..j->oa L+J+• ,XL.-i)+i±±H(XL\X1,X2,...,XL.l),L +Jчто дает для каждого натурального L,Яоо<Я(Хь|А-1,Х 2 ,...

1 Х 1 ,_1),(5.12)(5.13)но, т.к. для любого натурального L выполняется так же и 2., то 5.13превращается в равенство при L —» оо. •Глава 5. Стационарные дискретные источники с памятью5.2. Теорема кодирования источников 2I/Теперь мы можем дополнить теорию информации еще одной теоремой.

Окалывается, что объединяя события источника в блоки длимыL и кодируя эти блоки, средняя длина кодового слова на событиеможет достигнуть энтропию источника Нх(х) при L—>оо как угодноблизко. При этом память источника полностью учитывается.Теорема 5.2.1. Теорема кодирования стационарного дискретного источника с энтропией Hi(X).Для блока длины L существует .D-ичный префиксный код, в котором средняя длина кодового слова на одно событие п удовлетворяетнеравенствуМ § ^ §(5.14)1Теорема (5.14) не нуждается в специальном доказательстве.

Еслимы рассматриваем блоки длины L как новые независимые событияс энтропией, равной L • HL{X) И применяем теорему кодированияисточников 1, то мы имеем^11.(5.15)Разделив все члены неравенства на L, получаем среднюю длину кодового слова на событие) ^ Ш Л .(5.16)При L —» оо, Hi(x) —» Нос(х) = Н(х) мы имеемLHL(X)LHL{X)( 5 1 7 )+6-( 5 Л 8 )Таким образом, для любого сколь угодно малого S, существуетметод кодирования блоков, содержащих L > 1/6 событий, при котором для средней длины кодового слова на событие п выполняетсянеравенство (5.18). Теорема кодирования источников 2 показывает,что увеличивая длину блока L, мы можем как угодно близко подойтик энтропии Н(х) = Ноо(х). Однако, на практике существуют некоторые ограничения. Для того, чтобы блок из L событий мог быть5.3.

Конечные цепи МарковаI' продекодирован, он должен быть полностью принят, что может привести к недопустимым задержкам декодирования и недопустимомуОбъему буфера памяти.5.3. Конечные цепи МарковаВ этом и последующих параграфах будет рассматриваться специальная форма дискретных источников с памятью марковские источники. Их описание сходно с марковскими цепями, которые нашли разнообразное применение в других областях науки и техники.Гак, на основе марковских цепей строятся модели распознавания речи, модели передачи по телефонным коммутируемым каналам.

Цени Маркова1 используются при исследовании моделей сетей связи(каналы Гильберта-Элиота) и в теории управления транспортнымипотоками. Значение цепей Маркова основывается не только на ихполном математическом описании, но также на том факте, что с ихпомощью можно составить математическую модель многих процессов, наиболее близкую к практике.5.3.1. Дискретные во времени цепи МарковаВ этом разделе шаг за шагом вводится понятие конечных дискретных во времени марковских цепей. Мы наглядно поясним это понятие на простейшем примере «случайных блужданий».Пример: Случайные блуждания студента.Нас интересует вопрос о том, доберется ли пьяный студент отдверей пивной до дверей студенческого общежития.

Поставим во-,прос но другому (рис. 5.2): какова вероятность того, что случайныеблуждания на 7 временном шаге приведут студента в пространственное состояние Si? илиР («случайные блуждения» приведут к состоянию Si в моментвремени п = 7).Ситуация, изображенная на рис. 5.2 уже содержит в себе важнейшие признаки цени Маркова. Под марковской цепью понимаетсядискретный во времени и по состоянию марковский процесс S(n).Его реализацией является множество путей, ведущих из состояний5i в состояние S;.'А.

А. Марков (1856 1922) - выдающийся русский математик.Прим. перев.50Глава 5. Стационарные дискретные источники с памятьюШАГИПИВНАЯ0ГЧЖ*~~I TVJ123Щ"74*56Щч*7-'8л5ЯГ 7А.If N,* )*-# м3»5ч1«Lis^.Студенческое общежитие*****Р и с . 5.2. Случайные блуждания студента.Исходным пунктом для описания марковской цепи является множество состояний(5.19)где /V натуральные и стохастический вектор распределения вероятностей состояний в момент времени пРп = (Рп(1),Рп(2),...,Рп(Л г )).(5.20)Для того, чтобы полностью определить цепь Маркова, нам остается задать метод подсчета вероятностей р„(г) для любого моментавремени п.

Из определения вероятности имеем(5.21)г=1Особое значение имеет распределение вероятностей в начале наблюдения, т.е. начальные условияРо = (Ро(1),Ро(2),...,Ро(Л0).(5-22)Смена состояний описывается переходными вероятностямиТад,», 0 7 * ) = P(a[m]= stn s[n2] = Sj).(5.23)Эти переходные вероятности обладают следующими свойствами:1.

Одно из состояний в момент времени п всегда достигается прилюбом Si в момент п\г) = 1-(5.24)5.3. Конечные цепи Маркова512. Граничное распределение, т.е. вероятности j'-ro состояния вмомент времени п2N5Z я'па.щО'Л) = Pmti)-(5-25)3. Рекурсивная формула для переходных вероятностей (частныйслучай уравнения Колмогорова - Чэнмена.)Nтпз.шО'А) = X! 7r "3,n2070Tn 2 ,ni(/A)-(5.26)Дискретное равенство Колмогорова - Чэпмена получается трансформацией «правила цепочки» для вероятностейp{xi,x2)=p(x2/xi)p(xi),(5.27)р(х ь а;2,хз) = p(x3/xi,x 2 )p(x2/xi)p(xi).(5.28)Умножая обе части равенства на \/р(х{), получимр{х2,х3/х3)=р(хз/х1,х2)р(х2/х1).(5.29)Суммируя по всем х2, приходим к дискретной форме уравнения Колмогорова - Чэпменаp(x3/xi) = ^2P(X3'/XI,X2)P(X2/XI).х2(5.30)При преобразовании (5.30) в (5.26), мы предполагаемр(хз/хьх 2 ) =р(х 3 /хг).(5.31)Последнее равенство характеризует марковский процесс.Определение 5.3.1.

Марковским процессом называется процесс, вкотором прошлое не оказывает влияния на будущее, если настоящееизвестно.Замечание. В рассмотренном примере известное прошлое этостохастическая переменная Х\, известное настоящее - Х2, неизвестное будующее - Х3.Применение цепей Маркова сильно упрощается, когда они гомогенны, стационарны и регулярны. Рассмотрим эти три понятия.Глава 5. Стационарные дискретные источники с памятьюОпределение 5.3.2.

Цепь Маркова гомогенна, если переходные ве- /роятности между состояниями не зависят от выбора временной точ-еки отсчета./Таким образом, переходные вероятности зависят только от раз(ности времен отсчетов I.Tr{j/i) = p(s[n] = Si U a[n + I] = Sj) n = 0,1,2,3,... .(5.32)В этом случае для I = ri2 - n\ и т = пз — пг равенство Колмогорова - Чэпмена (5.26) можно записать в виде(5.33)n+m{Jli) =Это равенство может быть представлено в виде суммы покомпонентных произведений векторов-строк на векторы-столбцы. Записав переходные вероятности в виде матрицы, получим уравнение (5.33) вматричной форметг 1 + т (1/1)т+т{2/1)• • • TTl+m(N/l)7г(+т(1/2)тг,+т(2/2)•••n+m(2/N)•••\jrJ+ra(l/JV)7T,(2/1) • • • m(N/l) \JT,(2/2) • • • TrHiV/2)ym(l/N)m(2/N)\m+m(N/2)(5.34)7rl+m(N/N)JI 7T m (l/l) 7Tm(2/l)7r m (l/2) 7r m (2/2)• • • *i{N/N)J\nm(l/N)7rm(2/N)• • • itm(N/N)JЭТОТ процесс может быть начат с первого шага с помощью матрицы переходных вероятностей7T(2/1)п=тг(1/2)TT(2/2)тг(ЛГ/2)7r(l/iV)тг(2/ЛГ)••• 7r(iV/iV)(5.35)Заметим, что матрица П - стохастическая матрица с суммой вероятностей строк равной 1.Многократно применяя такое матричное преобразование к исходному распределению состояний ро, мы можем получить распределение вероятностей рп в любой момент времени прп = р0П".(5.36)5.3.

Конечные цепи МарковаТеорема 5.3.1. Гомогенная цепь Маркова полностью характеризуется матрицей переходных вероятностей и исходным распределением состояний. Приведенные выше рассуждения можно наглядно обобщить припомощи графа состояний (рис. 5.3). Здесь узлы соответствуют состояниям, а пути между ними переходам между состояниями. Каждому пути приписан вес, равный переходной вероятности. Таким образом, граф состояний дает полную информацию о матрице переходных вероятностей.ПереходнаявероятностьР и с . 5.3.

Граф состояний гомогенной цепи Маркова.Пример: Случайные блуждания студента (продолжение).Случайные блуждания (см. рис. 5.2) представлены на рис. 5.4 ввиде графа состояний.Рис. 5.4. Граф состояний для случайных блужданий студента.1—1Графу состояний соответствует матрица переходных вероятностей01001/21/2 00(5.37)П =1/2 0 1/20000Из рис. 5.2 следует, что исходное распределение состоянийРо = (О, 0, 0, 1).(5.38)Глава 5. Стационарные дискретные источники с памятьюВероятность того, что в результате случайных блужданий студентна 7-ом временном шаге окажется у дверей общежития, определяется нервой компонентой вектора состояний на 7 шаге Pj.

Характеристики

Тип файла
PDF-файл
Размер
9,43 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6390
Авторов
на СтудИзбе
307
Средний доход
с одного платного файла
Обучение Подробнее