Главная » Просмотр файлов » Калмыков В.В. Радиотехнические системы передачи информации (1990)

Калмыков В.В. Радиотехнические системы передачи информации (1990) (1151851), страница 9

Файл №1151851 Калмыков В.В. Радиотехнические системы передачи информации (1990) (Калмыков В.В. Радиотехнические системы передачи информации (1990)) 9 страницаКалмыков В.В. Радиотехнические системы передачи информации (1990) (1151851) страница 92019-07-07СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 9)

(4.18) Если события а; и га статистичеокн независимы, то формулу (4.18) можно переписать |в виде Н(Л2) = Н(Л) +Н (2). (4.19) Соотношения (4.18) и (4:!9) есть не что иное, как свойство аддитивности энтропии. Используя (4.!'!), (4.12), (4.15) н (4.17), среднюю лзаимнуго информацию можно цредстэвить как Х(А; У) =Н(А) — Н(Л(У), Х(А; У) =Н(У) — Н(ЧА), Х(А; У)=Н(А)+Н(У) — Н(АУ). (4.20) (4.21) (4.22) йи етически независимы (р(а!)га) =р(а!) для всех индексов ! и е). Соотношение (4:16) играет .важную роль в теории кодцрования. На его основе можно сделать следующий вывод: для того чтобы каждый символ кодовой комбинации доставлял как .можно больше информации, ,необходимо обеспечивать статистическую независимость каждого символа кодовой комбинации от предыдущих еньаволов.

Можно ввести'понятие энтропии множества совместных событий А и 2: Пусть 7, — среднее время передачи одного символа. Тогда величина Й=Х'(А; У) = (1!!Тс)Х(А; «') характеризует среднее количество информации, передаваемое в единицу времени. Ее называют скоростью передачи информации. Величине Н'(Л) - (1/Тс)Н(А) характеризует среднее количество информации, выдаваемое источииком.

Ее называ!ог производительностью источника. Найдем среднее количество информации, передаваемое по двоичному симметричному, каналу (рис. 4.2). Пусть ва вход канала ,поступают двоичные символы а! и аа с вероятностями, р и (! — Р) соответетввиио. На выходе канала появляются двоичные символы у! и уг Вероятность ошибки при передаче любого символа равна Рсш, Таким образом, Р(у!(а!) = 1 — Рош, Р(у!(ах) =Рот, Р(уа (<хх) = 1 Рош! Х>(уа (а!) Рош Воспользуемся формулой (4.21). Энтропия Н(У) = Р(у!)«оКР(у!) Р(ух)«ойр(уэ). С учетом рассматриваемой модели каиала р(у!) =Р(а!)Р(у!!!а!)+Р(ах)р(у!!!аа) =р — 2рр +р Р(ух) = Х вЂ” Р(у!) = ! — !(Р— 2ррсш+Рсш1. Нетрудно убедиться, что Н(У) принимает максимальное значение, равное 1, при р=1/2.

Условная энтропия т 2 Н (У(А) =- — 2; р (а„) 2' .р (у;(сс,) !ой р (ут!а!) = — р !ой р, ь 1 ! ! — (1 — Р, ) !ой(1 — Р,„). Заметим, что для,раесматринаемого случая Н(У!А) не зависит от .вероятности р. Х(д!и) у(ид у! ит у! ФХта)иа Хих р! у,Б удоЖУхя Рнс, 4.2. Диаграмма переходных вероятностей в двоичном симметричном канале Рис. 4.3. Зависимость передаваемой ннформации и двоичном симметричном канале 'от вероятности они!бкн ор Выражение (4.20) имеет простую физическую интерпретацию, когда а! — переданный символ, а у! — принятый, При этом Н(Л) можно раеематрввать как среднее количест!ю передаваемой информации, Н(Л( У) — каис среднее количество ииформации, теряемое н канале связи (велнчину Н(Л( У) обычно .называют ненадеисностью), Х(Л; У) — как среднее количество информации, получаемой с приходом каждого символа.

Нетрудно дать соответствующие интерпретации соотношениям (4.21) и (4.22). Энтропия Н(У(А) определяется только помехой в канале связи н называется шумовой. 56 В рассмотренном примере энтропия Н(Л) =1,875, а среднее '.'::,.', число двоичных символов, приходящихся на одно сообщение, л= ='1,875. Следовательно, полученный код является экономным. Существуют в другие процедуры кодирования, устраняющие:::г избыточность сообщений из-за их неравновероятности 1141. Избыточность псточнина, обусловленная наличием статистгсче-:".( ских связей между элементарными сообщениями„устраняется кодированием укрупненных сообщений. При передаче письменного:,",',:;: текста ото означает, что необходимо кодировать ие отдельные,'!:, буквы, а слова.

В результате такого кодирования остается избы- '? точность, обусловленная наличием статистичеокой связи между словамн, которая значительно слабее статистической овяаи меж- .,'-:: ду буквами. 4.4. ПРОПУСКНАЯ СПОСОБНОСТЬ ДИСКРЕТНЫХ КАНАЛОВ С ШУМОМ В й 4.2 было показано, что среднее (количество,информации,,", передаваемое по дискретному каналу в .расчете на один символ, .::. определяется как й(Л; У) —— Н(А) — Н(А $ У) =Н(!') — Н(У)А). где Л и У вЂ” множества символов иа входе,ц выходе канала.

Эн- тропия Н(А) определяется только источником входных символов. Энтропии Н(Л) У), Н(У) и Н(У!А) в общем случае зависят как от (источника входных символов, так и от свойств канала. Поэто- му скорость передачи, информации зависит не только от .канала,::,': но и от источника сообц(ений. Максимальное количество переда~и-;;:: ной информации в единицу времени, взятое по всевозможным ис- ':.' точникам входных символов (по всем многомерным распределе- ниям вероятностей Р(Л), ха~рактеризуюп)гим эти,источники), С= — )пах 7(А; У) ! (4,24) Гв Р(А) г)1 называется пропускной способностью канала.

Пропускную способность можно определить и в,расчете гна символ: С„,=игах Х (А; У). (4.25) Р(А) Из опрсделевий (4.24) и (4.25) следует, что скорость переда« чи информации не может быть больше С. В качестве примера найдем пропускную способность т-,ичного симметричного канала без памяти в расчете н~а олин снмвол, для которого переходные вероятности Р (У,)!ссг) = (р, !(т — 1) при 1~1, (1 — р при г=!', где р, — вероятлость ошибочного пр~иема символа„а( и уя '1, ( ° =1, ..., т, — символы на входе н выходе канала соответственно. 62 Воспользуемся формулой (4.21). Энтропия Н (У!А) = — — 2; р (а,) ~', р (у,.(аг) 1ой р (уг(аг) = г г г=г — р(сс,) ~ ~, '— 'ш 1од — 'ш +(1 — р, ) !оп(1 — р ) г=г , ш — ! и — 1 у-„г )+ 1 Рою (4.26) Из (4.26) следует, что Н(У')Л) не зависит от распределения передаваемых символов. Энтропия Н(У) принимает максимальное значение, равное !опас, когда символы уь 1=1, ..., пг, оказываются равновероятными.

Можно показать, что в случае симметриггиых каналов ото имеет место„когда входные символы равновероятны. Подставляя выражения для Н(У) и Н(У!Л) в (4.2!), и учитывая (4.25), находим: Сеимв = !Ой "г+ (1 Рош) 1Ой (1 — Рош) +Рвш )ой Рши)(т !) При т=2 Свимв= 1+(1 — Рвш) )ой (1 — Р )+Рош !ой Р ш (4 27) Из сравнения (4.27) с (4.23) следует, что ранее найденная величине 7(А;У) — ~ие что иное, с(ак пропускная способность двоичного симметричного канала в расчете на олин символ. Заметим, что пропускную способность канала несложно вычислить только для простейших каналов. 4.5. ВЗАИМНАЯ ИНФОРМАЦИЯ В НЕПРЕРЫВНЫХ СООБЩЕНИЯХ. ДИФФЕРЕНЦИАЛЬНАЯ ЭНТРОПИЯ.

ЭПСИЛОН-ЭНТРОПИЯ Распространим основные понятия теории информации иа непрерывные сообщсг(ия. Пусть Х(!) в У(!) — непрерывные сообщения иа входе н выходе канала соответственно. Пусть их звачеиня в любой момент 1 представляют непрерывные случайные ве.личины Х и У с плотностями вероятности цг(х) и сс(у), а статистические связи между Х и У характеризуются плотностью,вероятности цгв(х, у). Разобьем диапазон возможных значений случайной величины Х иа малые интервалы Ах. Введем дискретную случайную величину Х', принимающую значения хь 1=1, ..., т, с .вероятлостями р(х() жп)(х()Лх, где х( — среднее значение г-го интервала. Атсалогично введем дискретную случайную величину У', принимающую значения ув 1=-1, ..., и, с .вероятностями р(у,) айаг(у()Ау. Для случайных дискретных величин Х' н У' справедливы все соотношения $4.2.

Применяя к ним формулу (4.1) и затем пере- 63 1(Х; У) ОΠ— 1оц 1+— 2 ах (4.431 чайных величин с,различными плотностями вероятности нанболь- шеи дифференциальной энтропией обладает гауссовская случай- .ная величина с нулевым математическим ожиданием. В качестве второго примера найдем среднее количество ин- формации ((Х; У) о случайной величине Х, которос содержит случайная величина У=Х+Ж, где Х и !У вЂ” независимые гауссов- ские случайные велкчииы с нулевыми средними значениями и дисперсиями о'„и о'„соответственно.

Заметим, что величины Х и У можно рассматривать, например, как амплитуды импульса на входе и выходе канала, а й! —,как шум, который добавится к импульсу при его передаче по каналу. Итак, в рассматриваемом примере в(х)= ехр ( — — 1, "~/2яа» ! 2а~~ / в(п)= ехр ( — — ), ~/2 па„! 2 ах / Случайная величина У как сумма независимых гауссоваких случайных величин также будет гауссовской, причем ее матема- тическое ожидание будет равно нулю, а дисперсия о'„=- а'»+а' . Таким образом, 1 дй в (у) ОО ехр !в -Г1> ~ "..".1 При нахождении 1" (Х; У) воспользуемся формулой (4.31).

С учетом (4.38) дифференциальная энтропия й (У) = 1ой $'г2я е ( а', + а.') . (4.39) В соответствии с (4.'34) условная дифференциальная энтропия О О й (У!Х) = — ( ( в, (х„д) 1оцв (д)х) бхбу = ОО в(х) !" в (у!х)!опв (у(х) буях, (4.40) где условная плотность вероятности 1 (д — Х!О '1 в (д(х) = в (и) = — ехр (4.41) ~/2иа„ 2а~ Подставляя (4.4!) в (4.40) и обращая внимание, что д — х=п, находим й(У(Х)=!оцР Жео'. (4.42) Наконец, подставляя (4.39) и (4.42) в (4.31), получаем зависит не только от статистических свойств сообщения Х(1), определяющих,дифференциальную энтропию й(Х),,но и от критерия эквивалентности, от которого зависит условная плотность вероятности в(х!х) и соответственно условная дифференциальная эитропин й(Х!Х).

Величина О„(Х) =пбп !(Х; Х) =Ь(Х) — п1ах й(Х(Х), (4.45) где минимум берется,пе всем условным распределениям в(х!2) для которых е~(1) (е~м называется эпсилон-энтропией. Другими словами, эпсилон-энтропия — содержащееся,в сообщении Х(1) минимальное, количество,информации о сообщении Х(1), при котором оин еще эквивалентны. Она определяет количество существенной информации в одном отсчете .нецрерьщного сообщения или, что то же самое, среднее количество информации в одном отсчете непрерывного сообщения, которое необходимо передать для воспроизведения этого сообщения с заданной точностью. Так как Х(Е) =Х(1) — е(1), то условная диффереициальная энтропия й(Х!Х) при известном Х(1) полностью оцределяется диф- бт формула (4.43) при некоторых ограничениях (см.

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
А знаете ли Вы, что из года в год задания практически не меняются? Математика, преподаваемая в учебных заведениях, никак не менялась минимум 30 лет. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6439
Авторов
на СтудИзбе
306
Средний доход
с одного платного файла
Обучение Подробнее