Главная » Просмотр файлов » Кловский Д.Д. Теория электрической связи. Сборник задач и упражнений (1990)

Кловский Д.Д. Теория электрической связи. Сборник задач и упражнений (1990) (1151854), страница 38

Файл №1151854 Кловский Д.Д. Теория электрической связи. Сборник задач и упражнений (1990) (Кловский Д.Д. Теория электрической связи. Сборник задач и упражнений (1990)) 38 страницаКловский Д.Д. Теория электрической связи. Сборник задач и упражнений (1990) (1151854) страница 382019-07-07СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 38)

Следо- вательно, в т-ичном симметричном канале вероятности переходов удовлетворяют условиям р(Ь )1 ) 1 Р при /=!о р/(т — 1) прн /~ь1. Подставляя эти вероятности в выражение (4.11), находим эн- тропию шума о! о~ Н(В)В) — ~ ~', Р(Ь) Р(Ь~)Ь!) )ойр(Ь )Ь!). )=ое-! )89 Выделяя нз этой суммы слагаемые с номером т=!', получаем Н (В[В) = — ~', Р(Ь!) (1 — р) !од(1 — р)— ! ! — ~'„2, 'Р(5!) Р [ок )-! !м! = — (1 — р) [оя (1 — р) — р [оц 4.2.4.

Согласно формуле (4.12) находим скорость передачи нн- формации 1'(В, В) =гн!(В, В) =п„(Н(В) — И(В~В)1. Как показано в решении задачи 4.2.1, ненадежность двоичного симметричного канала со стиранием прн ро-!-0 Н(В~ В) =р,Н(В). Следовательно, скорость передачи информации в таком канале 1'(В, В) =сн(Н(В) — р,Н(В)! =пнН(В) (1 — р,).

Чем больше вероятность стирания р„тем надежнее отождест- вляются символы 1 н 0 в месте приема, однако одновременно па- дает скорость передачи ннформацнн по каналу. Следовательно, имеет место обмен между верностью (качеством) н колнчест- вом переданной информации. 4.2.8. Согласно (4.13) пропускная способность канала С= п„!пах (Н (В) — Н (В ) В) ), Как показано в решении задачи 4.2.2, энтропия шума т-нчно- го симметричного канала без памяти н без стирания равна Н (В [ В) = — (1 — р) [оя (1 — р) — р [оя С учетом этого имеем С = ои [шах Н (В) + (1 — р) [од (1 — р) + р [оц Очевидно, что гпахН(В) =[ори. Следовательно, С = пн [[ой и+ (1: р) [оя (1 — р) + р [оя Для двоичного симметричного канала без памяти н стирания (т=т'=2) С=о,(1+р[од р+ (1 — р) [оп(1 — р) ].

График величины С!и, в зависимости от р показан на рнс. Р.4.3. Пропускная способность канала равна нулю, когда вероятности перехода Р(0~11) =Р(110) =05. (В этом случае символы на входе н выходе оказываются независимыми.) 4.2.8. Избыточность кода (вторнчного алфавита) можно опре- делить по (4.4): м„=[ — Н(В)!И „,(В), 190 где Н(В) — энтропня ансамбля кодовых сФ„ символов. Очевидно, что прн объеме ансамбля кодовых символов т Н„,„.(В)= =!оп т. Следовательно, ! хси Н (В) В' (В) [оя пт ин (оя пх где Н'(В) =п„Н(В); п„— число кодовых снмволов, поступающих на вход канала в йб 'л единицУ вРемени.

ПосколькУ пРн коднРо- ри р4 Рис. Р.4.3. Зависимость ваннн должны отсутствовать потери ннфор- нормированной пропускмацнн, то Н'(В) =Н'(А) =п„Н(В), где ной способности двоичо„— число снмволов, создаваемых нсточнн- ноно симметричного паком сообщения в единицу времеви; Н(А) — энтропия нсточннка.С учетом этого приеме символа ои В ('1) мн он )оя Iп Согласно теореме Шеннона лишь прн инН(А) (С существует оптимальный способ кодирования.

Следовательно, избыточность кода не может быть меньше величины С мн.мии +е, о„)оя пх где е — сколь угодно малая положительная величина. Для двоичного симметричного канала без памяти н стирания согласно решению задачи 426. С=о„(1+р[од р+ (1 — р) [оя (1 — р)). Подставляя эту величину в выражение н,, „н учитывая, что т= =2, получаем он [1+ р )акр+ (! — р) )ой(1 — р)1 Мн,мии +а о„)оях 2 = — р [оа р — (1 — р) [од (1 — р) + е. Если р=О (в канале нет ошибок), то х,,„.„=е- О. Если р= =0,01, то ин ни-0,067, т. е, прн не очень сильных помехах в канале избыточность оптимального кода невелнка.

4.2.9. Способы кодирования н декодирования, обеспечивающие сколь угодно малую вероятность ошибки, согласно теореме Шеннона, существуют лишь прн Н'(А) (С. Если источник информации выдает в единицу времени о. символов, а его энтропия Н(А), то Н'(А) =пнИ(А). Пропускная способность канала по определению равна С=нишах!(В, В).

Следовательно, можно записать, что оптимальное кодирование по Шеннону возможно лишь прн пиИ(А) - пншах1(В, В) нлн й= — ") . Здесь й— юах! (В, В) среднее число символов кода на одни символ источника. 4.2.10. Из (4.!5) получаем запас пропускной способности С вЂ” Н' (А) я" ро я' 90,96 бнт!с. т зю,(о — з 191 Подчеркнем, что чем больше запас пропускной способности, тем легче реализуется система связи, но одновременно падает ее 1аяа Рош эффективность.

Очевидно, что Т =— С вЂ” Н' (А) Поэтому при сохранении вероятности ошибки (качества связи) неизменной уменьшение запаса пропускной способности в 2 раза (рост эффективности системы) влечет за собой увеличение дли- тельности кодовой комбинации в 2 раза, что приводит к усложне- нию системы (в частности, из-за усложнения устройств памяти на передаче и приеме). 4.2.11. Предположим, что можно закодировать некоторый ис- точник с производительностью Н'(А)=С+2э, а.аО так, что не- надежность канала Н'(А*!А) (е. Тогда оказывается, что скорость передачи информации в системе связи 1(А,А) =Н'(А) — Н'(А ~А) ) )С+э, т. е. будет больше пропускной способности канала, что противоречит ее определению. Противоречия не будет, если до- пустить, что при Н'(А) ~С сообщение передается с отличной от нуля ненадежностью Н'(А !А) )е.

4.2 12. При кодировании по методу Хаффмена все символы ис- точника располагают в порядке убывания вероятностей. Если не- сколько букв имеют одинаковые вероятности, их располагают ря- дом в произвольном порядке. Затем выбирают две буквы с наи- меньшими вероятностями, и одной из них в качестве первого сим- вола двоичного кода приписывают символ О, а дру~ой — символ 1, Выбранные буквы объединяют в «промежуточную» букву, имею- щую вероятность, равную сумме вероятностей выбранных букв.

Затем в ансамбле оставшихся букв (вместе с промежуточной) вновь находят две с наименьшими вероятностями и поступают так же, как и на первом шаге. Эту процедуру осуществляют до тех пор, пока не будет исчерпан весь алфавит. Процесс кодирования показан в табл. Р.4.2. Средняя длина коз довой комбинации данного кода й= Х инва=3,08. Минимальная ! ! длина кодовой комбинации примитивного кода, которым можно закодировать данный алфавит, 5,„„= 1оя К1!од т= 4. При оптимальном двоичном кодировании в канале без шумов 9 йа,„=Н(А)1!одт=Н(А)= — Х р, (одр;=3,04. 1=1 Средняя длина кодовой комбинации кода Хаффмена отличает- ся от средней длины оптимального кода на . 100% = 1,32%, 3,04 что позволяет считать код Хаффмена близким к оптимальному, 4.2.15.

Кодирование по методу Шеннона — Фана осуществля- ется следующим образом. Все буквы записываются в порядке 192 Таблаца Р,42 убывания их вероятностей. Затем вся совокупность букв разбивается на две примерно равновероятные группы. Всем буквам верхней группы приписывается первый кодовый символ 1, а буквам нижней группы — символ О. Затем каждая группа аналогичным образом разбивается на подгруппы по возможности с одинаковыми вероятностями, причем верхним подгруппам в обеих группах приписывается символ 1 (второй кодовый символ), а нижним — символ О. Эта процедура осуществляется до тех пор, пока в каждой подгруппе не останется по одной букве.

Процесс кодирования по Шеинону — Фано иллюстрируется табл. Р.4.3. Средняя длина кодовой комбинации в и ~',и1р;=2,75. !=! Прн оптимальном двоичном кодировании в и, = Н(А) = — ~„'р, !оп р, =2,75, 1=1 Та блица Р.4.3 7 — бз 193 Следовательно, в данном случае код Шеннона — Фано является оптимальным. РЕШЕНИЯ И УКАЗАНИЯ К РЕШЕНИЮ ЗАДАЧ й 4.3. 43..(. Рассмотрим сечение случайного процесса Х(»), предположив, что процесс в этом сечении имеет плотность вероятности п»»(х).

Разделим область изменений Х на дискретные уровни х» с малым интервалом Лх между ними. Вероятность того, что значение Х лежит в интервале (х», х»+Лх), приближенно равна р»= =гр»(х») Лх. Будем считать, что отдельные отсчеты случайного сигнала Х(») независимы, а их распределение не зависит от времени (стационарный источник без памяти). Тогда согласно (4.3) можно записать выражение для энтропии на один отсчет квантованного сигнала: Нд„(Х) = — 2',ц»»(х») Лх!ок [в»,(х,) Л х] = = — 2', и»» (х») Лх 1оя [»р» (х»)] — 2', и», (х») Лх [оц Лх. » Чтобы непрерывный отсчет воспроизвести абсолютно точно, необходимо, чтобы Лх-~0.

Заменив тогда суммы соответствующими интегралами, найдем энтропию одного отсчета непрерывного сигнала »О Н(Х) = — ['п»,(х)!од»р»»(х)»(х — Вт!ойЛх ['ш,(х)»(х= д.»-»0 — ]'»р, (х) 1ой и»» (х)»(х — 1!ш 1од Лх. дк 0 Так как !пп 1оаЛХ= — ор, Н(Х) =со. Полученный результат оздх- о начает, что один непрерывный отсчет сигнала мог бы перенести бесконечно много информации, если была бы возможность воспроизвести его абсолютно точно. К сожалению, в реальных каналах этой возможности нет.

4.3.2. Подставим в (4.16) выражение плотности вероятности гауссовского случайного процесса: Х ~-[ой)72ла' — ",*) !оае~»(х. Вводя новую переменную (х — т„)/о и интегрируя, получаем Ь(Х) =!од У 2пео». Следовательно, величина Ь(Х) не зависит от т„. 194 4.3.3. Условная дифференциальная энтропия может быть определена по формуле Ь (Х]Х»»р) 1 ( ы»» (х» хпр) 1ой»Р» (х!х»»р)»(х»(хрр Согласно [3] и», (х]х,р) = ехр à —, (х — х,р Й)'~, ')»'2я»»» (! — й')» 2»»» (1 — )2») 1 Г 1 Подставляя эти выражения в соотношение для условной диф- ференциальной энтропии, получаем х ] — 1оаУ2па' (1 — )»Р) — (х — х, М)Р 1од е!»(Х»(х 2»7» (1 — )7») После простых преобразований имеем Ь(Х]Х,р) = 1оа]/2п ео'(1 — Я'), Обратим внимание на то, что с ростом нормированной корре- ляционной функции условная дифференциальная энтропия умень- шается.

4.3.6. Указание к решению. Принять во внимание, что выход- ной сигнал У(!) =Х(!)+М(!) при гауссовских и независимых про- цессах Х(!) и М(() будет иметь гауссовское распределение и дис- персию о'р — — о'„+а' . При вычислении условной дифференциаль- ной энтропии учесть, что » ]'»и, (х) и»» (у] х)»(х = и», (у). 4.3.7. По определению Н,(Х) =т!п1(Х, Х) =Ь(Х) — тахЬ(Х]Х). Поскольку Х(()» Х(() — М(!), то условная дифференциальная энтропия Ь(Х]Х) при заданном сигнале Х(() полностью определяется шумом воспроизведения (каиала) М(() .

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
А знаете ли Вы, что из года в год задания практически не меняются? Математика, преподаваемая в учебных заведениях, никак не менялась минимум 30 лет. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6458
Авторов
на СтудИзбе
304
Средний доход
с одного платного файла
Обучение Подробнее