Горяинов В.Т., Журавлев А.Г., Тихонов В.И. Статистическая радиотехника - примеры и задачи. Под ред. В.И.Тихонова (2-е издание, 1980) (1092036), страница 77
Текст из файла (страница 77)
При отсутствии помех (Р, = О) С =- С = Р. Поэтому С/С = 1 (Р,) = 1 + (1 — Р,) !оя (1 — Р,) "; Р, !од Р,. Зависимость относительной пропускной способности С/С от вероятности ошибочного приема Р, изображена на рис. 17.5. 3. ЗАДАЧИ И ОТВЕТЫ 17.1. Самолет противника с равной вероятностью может находиться в одной из 1024 зон воздушного пространства.
Какое количество информации получает оператор радиолокационной станции, когда он фиксирует наличие самолета в одной из зон? Ответ: 1(х;) = 10 дв. ед. 17.2. Радиостанция состоит из 16 равноценных с точки зрения надежности блоков и имеет устройство контроля и индикации исправности блоков. Определить минимальное число проб й, которое необходимо выполнить этому устройству, чтобы отчяскать любой неисправный блок. Ответ: /г ) 4. 17.3. По каналу телекодовой связи передаются пять команд Х = (х; ), 1 = 1, 2, 3, 4, 5 с вероятностями р (х,) =- 0,3, р (х,) = 0,1, р (ха) = 0,25, р (ха) = 0,2, р (х,) = 0,15. Определить среднее количество информации, приходящееся на одну команду.
Ответ: 1 (Х) 2,228 дв. ед. 17.4. Символы алфавита азбуки Морзе появляются в сообщении со следующими вероятностями: 0,51 для точки, 0,3! для тире, 0,12 для промежутка между буквами, 0,06 для промежутка между словами. Определить среднее количество информации в сообщении из 500 символов данного алфавита, считая, что связь между последовательными симвсччами отсутствует. Ответ: 1(Х) = 236 дв. ед.
5!О и (ир 0,25 0,4 0,35 0 0,1 0,3 0,2 0,3 0 0,05 0 0,05 Уд и, Уа 0,4 0,5 О,! р (хй Ответ: 1(Х; у,) 0,268 дв. ед. 17.8. Радиостанция противника может работать на волне Л, (событие А,) илп на волне Ля (событие А,), причем в импульсном (событие В,) нли непрерывном (событие В,) режимах. Вероятности совместных событий имеют следующие значения: р (А„В,) = 0,7, р (А„В,) = 0,15, р (А,, В,) = 0,05, р (А„В,) = 0,1. Вычислить количество информации, получаемой о режиме работы станции, если станет известной длина волны станции.
Ответ: 1(В; А) = 0,102 дв. ед. 17.9. Найти максимальную энтропию черно-белого изображения с двумя градациями, содержащего 5 ° 10а независимых элементов. Ответ: Н„, (Х) = 5 1О' дв. ед. 17.10. Распределение вероятностей случайной величины Х имеет вид: р (х,) = 0,1, р (х,) = О,1, р (ха) = 0,1, р (ха) = 0,7. Определить число и значений случайной величины, при котором энтропия Нп (Х) равномерного распределения будет равна энтропии Н (Х) задайного распределения. Ответ: и = 2,56.
511 17.5. Напряжение изменяется в пределах (/а — (/, = 8 В, При равномерном квантовании датчик регистрирует приращения напряжения Л(/ = 0,1 В. Вычислить максимальное количество информации за 5 отсчетов. Ответ: 1(Х) = 31,61 дв. ед. 17,6. Найти количество информации, которое содержится в квантованном телевизионном сигнале, соответствующем одному кадру развертки изображения, если: в кадре 625 строк; сигнал, соответствующий одной строке развертки изображения, представляет собой последовательность из 600 случайных по амплитуде импульсов, каждый из которых может с равной вероятностью принять любое значение в интерва.че от 0 до 8 В; каждый импульс квантуется по величине с шагом квантования ! В; импульсы изображения между собой не коррелированы.
Ответ: 1(Х) = 1125 !О' дв. ед. 17.7. Вычислить среднее количество информации 1 (Х; у,) о переданных командах Х = (х;), 1 = 1, 2, 3, доставляемое принятым сигналом у, ансамбля сигналов К = (у/), 1 = 1, 2, 3, если объединенная система (Х, )') характеризуется распределением вероятностей, приведенным в следующей таблице: *г ~ Хз хв хв хз Хз !/1б 1/16 1/16 !/!б 1/8 1/8 1/4 1/4 Рв Построить код Шеннона — Фано для данного ансамбля и показать его оптимальный характер. 17.11. Вероятность появления события Л при одном испытании равна р. Испытания повторяются до перво~о появления события Л.
Найти энтропию числа испытаний Х и выяснить характер изменения энтропии с изменением р. Ответ: Н (Х) =- — (р !06 р + (! — р) !од (1 — р))/р дв. ед. При уменьшении р от 1 до 0 энтропия монотонно возрастает от 0 до оо. 17.12. Для повышения достоверности каждое сообщение может передаваться по каналу связи /е раз, причем вероятность неискаженного прохождения сигнала при каждой передаче р, = 0,2. После /е повторений (! < й < А1) решающее устройство сравнивает все й принятых сигналов и при их совпадении выносит решение о правильном приеме, после чего отправитело посылается команда о прекращении посылки данного сообщения и о передаче следующего сообщения. Определить значение коэффициента дублирования /4 из условия максимума количества информации, обеспечиваемой решающим устройством.
Ответ: /г = 3. 17.13. Ансамбли событий Х и У объединены, причем вероятности совместных событий равны: р (х,, у,) = 0,1, р (х,, у,) == 0,25, р (х„у,) =- 0,2, р (х„у,) = О, р (хз, !/4).'= 0,3, р (хз, у,) = — 0,15. Определить: а) энтропии ансамблей Х и У; б) энтропию объединенного ансамбля; в) условные энтропии ансамблей. Ответ: а) Н (Х) = 1,5!2 дв. ед., Н (У) = 0,971 дв. ед.; б) Н(Х, У) =- 2,228 дв. ед.; в) Н (Х(У) = 1,257 дв, ед., Н(У(Х) = 0,716 дв. ед.
17.14. Источник сообщений создает последовательность букв, выбранных из набора букв Л, В, С, Р с вероятностями 0,5; 0,25; 0,125; 0,125, причем очередная буква выбирается независимо. Вычислить избыточность текста. Ответ: Я = 0,125. 17.15. Для передачи сообщений используется код, состоящий из трех символов, вероятности появления которых равны О, 6; 0,2; 0,2.
Корреляция между символами кода отсутстьует. Определить избыточность кода. Ответ: Н = 0,139. !7.16. Ансамбль сообщений (хв), ! = 1, 2, ..., 8, н вероятности сообщений заданы следующей таблицей: Ответ: Сообщение Хв Хв Кодовая комбинация 00 100 101 !100 1101 1110 Н (Х) = (и> = 2,75 дв, ед. 17.17. Сообщения х„х„хз, х, появляются соответственно с вероятностями 1/2, 1/4, ! /8, 1/8 и кодируются четырьмя двоичными кодовыми словами О, 10, 110, 111. Требуется: а) показать, что если сообщения статистически независимы, то в получающейся последовательности кодовых слов символы 0 и 1 появляются с равными вероятностями, и что символы в такой последовательности независимы; б) найти среднее значение (и> числа двоичных символов на сообщение.
Ответ: б) (и> = Н (Х) = 1,75 дв. ед. 17.18. Ансамбль сообщений (х,), 1 = 1, 2, 3, ..., 9, н их вероятности заданы следующей таблицей: Хв хв хд Хв 0,04 0,06 0,08 0„10 О,!О 0,12 О,!б 0,20 0,18 Ра Произвести кодирование двоичным кодом по методу Хаффмена (метод вспомогательных группировок) и вычислить энтропию сообщений Н (Х) и среднюю длину (и> кодового слова. Ответ: ообщение хв Хв Хз 00000 00001 1!О 011 001 010 одоаая комби- нация 10 11! 0001 Н (Х) ж 3,04 дв. ед., (и> 3,08 дв. ед.
17.19. Ансамбль сообщений состоит из двух букв: х, н х,, причем вероятности р (х,) появления букв равны р (х,) =- 0,89, р(хз)= = 0,11. Определить среднее число символов кода, приходящееся на одну букву, если кодирование осуществляется: а) по одной букве; б) блоками по две буквы; в) блоками по три буквы. 17 Звв, 1ЗОЗ 818 Ответ [115[: Рпс. 1?.8. Канал связи с ретрансляторам Уг 1-,и е 1-Ре б) е) Ргет) —, 2 Сообщение х,х, ! х,хе к,х, 110 !О Реза) = — ~ 1. г' гг уг 1-Ре 1 Ре 0,66 в) Сообщение к,х,к, х,хах, х х к х~ххе !1!00 11101 к к кз кекзх 101 110 к,к,к, к,х,х, !!!!О Кодовая комбина- ция 100 0,552 <н), да.ед.
дует) Упк) Уз Рис. 17.6 Двоичныи симметричный канал связи со стиранием Уг Рбаг) 1 РЕ) У) руат) ' аг Руег) 'лг У» Рнс. 17.7 Капал связи Ргл») ул» )7' 514 17.20. Определить пропускную способность С двоичного симметричного канала со стиранием (рис. 17,8), если символы хг и уу имеют одинаковую длительность т, где Р = 1Ут — частота посылки символов. Ответ: С = Р((1 — )У) [1 — [ои (1 — )У)! + (! — Ре )У) [ой (! У е )У)+ + Р, !ои Р,). !7.21. На вход канала связи (рис.
17.7) поступает ансамбль сигналов Х = (х;), 1 =- 1, 2, ..., А), с вероятностями р (х)) и часто- Пер»вил?»ин Ревринииелкир при»мнил той посылки Г ==- 1?т, где т — длительность сигналов. Вероятности перехода равны р (уу ! х;) — - ! — Р, при у = — )' и р (уг! Х)) = Р, У(А) — 1) при уФ(. Определить пропускную способность канала связи. Ответ: С=Р~!ОКЖ+Р.[ой — '+(1 Р)1.0(1 Р)~ 17.22. По каналу связи, состоя)нему из передатчика, ретранслятора и прие), ника (рис. !7.8), передаются сигналы х, и х, с частотой следования Р = 1Ут, где т — длительность сигналов. Значения априорных вероятностей и вероятностей перехода на участке передатчик — ретранслятор и ретранслятор — приемник указаны на рисунке.
Вычислить пропускную способность канала связи. Ответ; С =- Р [! + (1 — 2Р, + 2Р',) [од (! — 2Р, + 2Р',) + 2Р, (!в — Р,) + 2Р, (1 — Р,) [од Р, (! — Р,)!. !7.23. Определить пропускную способность канала связи, по которому передаются сигналы х,, х,, хз, х, с частотой следования Г = 1'т, где т — длительность сигналов. Влияние помех характеризуется условными вероятностями р (уу[х)): р (у,[х,) =- р (уз!хе) = р (уз[хз) = р (у,[х,) = 1 — Р„, Р (У [х)) Р (У)[хз) Р (ее[ха) Р (Уз[хе) Р у) (уз[Х)) = ут (уе[Х)) = р (уз[хе) у) (уз[хе) = у) (у)[Л а) .'-'. =- Р (74хз) =- Р (У,[хе) --= Р (У,[ха) = О. Ответ: С вЂ”.
у' [2 + Р, !он Р, + (1 — Р ) 1ой (1 — Р,)1. 18. НЕПРЕРЫВНЫЕ СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ 1 ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Непрерывные системы передачи информации — системы, в которых как реализации сообщения, так и реализации сигнала на конечном временном интервале (О, Т) представляют собой неиоторые непрерывные функции времени [1, ! 10!. (18.8) /(Х; у)= ] р,(д)/(Х; д) [д= г При независимых Х и г' Н(Х, )г) = Н(Х)+ Н(У). = ] ] р, (х, д) 1 (х; д) дхг/д=/ (г'; Х), г х (18.! 2) (18.3] (18.4) Г 1 С=!!ш Мах ~ — / (Х; 1')~, Т (18.14) (18. 5) С= Р1оа (!+паз/У Р), (18.15) (18.6) где При оз/УеР « 1 Н(Х)= — ]" р,[х) ! дл,(х)а . С 1,443аэ/Уа. (18.17) (18.7) /г С=[ ! 6[! ьл([)/У(/)]4[, 5 (18.18) 516 517 Пусть х (/) — реализация непрерывного сообщения на входе какого- либо блока схемы связи, д (/) — реализация выходного сообщения (сигнала), р„(х) — одномерная плотность вероятности ансамбля входных сообщений, рг (д) — одномерная плотность вероятности ансамбля выходных сообщений, рз (х, д) — совместная плотность вероятности, рг (х[д) — условная плотность вероятности х при известном д, р, (д [х) — условная плотность вероятности д прн известном х.
Тогда для количества информации / справедливы следующие соотношения [1, 3, 110, 1!5[: / (х; д) =!ой -.-[ой Рз(х, д) Рд(х[д) Р,(д[х) — "' 1оа =/ (д; х), (18.1) рд (х) рг (д) рт (х) рг (д) / (Х; д) ] /(х; д)рг(х[д)пх, /(х; г')=т/ /(х; д) р,(д[х)бд, (18.2) х /(Х; 1')= ~ ~ р (х, д) 1ой г/хг/д= — ~ рг(х) [ой рг (х) г/х+ рх(х] д) р (х) + ~ 1 р (х, д) 1ойр (х [ д) г/хг/д, /(Х; д) > О, / (х; )') м О, /(Х; г) > О. Здесь / (х; д) — взаимная информация меясду каким-либо значением х входного и значением д выходного сообщений, / (Х; д), / (х; )г) — средние значения условной информации, / (Х; г') — полная средняя взаимная информация. Формулы для энтропии Н непрерывных сообщений получаются путем обобщения формул для энтропии дискретных сообщений.
Если Ьх — интервал квантования (точность измереняя), то при достаточно малом Ьх энтропия непрерывных сообщений Н (Х) = -- 1 р (х) !ой рд (х) г/х — !он дх )г рт(х) дх =Н (Х) — 1ой Лх= — ] Р, (х)1ой [Р, (х) Ьх] пх, О Из (18.6) видно, что информативность сообщений, обусловленная статистикой состояний элементов сообщения, целиком определяется величиной Н (Х), которая называется дифференциальной [115, 116], а иногда приведенной [3] энтропией. Величина — !ой Лх зависит только от выбранного интервала Ьх, определяющего точность квантования, и прн /!х = сопя[ есть величина постоянная, которую иногда исключают из рассмотрения [117, 118].