Радиоэлектронные системы Основы построения и теория. Справочник . Под ред. Я.Д. Ширмана (2007) (1151789), страница 178
Текст из файла (страница 178)
Особенности многоальтернативной классификации детерминированных ортогональных сигналое с одинаковой энергией Точное выражение вероятностей ошибок для когерентных детерминированных сигналов. Нормированный сигнал с номером 1 =! (этот номер не существен) различается при условии (9 е и1) — и, > 0 (1 = 2, ..., М) . Здесь и, = г, /21Э)УΠ— 9 (1 = 1, 2,...,М> 2) — случайное число с нулевым математическим ожиданием, единичной дисперсией и гауссовской плотностью веро- 112 212 ятности р(и,) = (2я) е "', см. разд.16.2.
Условная вероятность Р (1 [9+ и)) ошибочного превышения достаточной статистикой 1-го канала достаточной статистики 1-го канала д + и4 составляет Рош (1 / 41+и)) = ]гр(и4) а)и! (1 =2 3 М). (24 7) д4-и1 Условная вероятность того, что ошибки не будет, составит 1- Р (1 [9+ и)) . Безусловная вероятность отсутствия ошибки определяется интегралом от произведения вероятностей вида 1-Р (1[9 ьи))для всех М вЂ” 1 каналов от 2-го до М-го по всем возможным значениям и~ с весом, определяемом плотностями вероятностей Р( и~), 1-Р, = ]]й[1-Р, (1[9+и))1 Р(,) ь) (24.8) о 0=2 откуда следует вероятность ошибки Р [4.2].
Аснмптотический случай большого числа когерентных сигналов. При условии М » 1 сколько- нибудь приемлемые вероятности Рои4 достигаются при д» 1. Разлагая интеграл (24.7) по частям в ряд, можно: ° ограничиться первым членом ряда и, 12) (ч+и1) 12 + (24 9) 2п „, и, 4/2як(9 ьи)) ° пренебречь в (24.9) нормальной случайной величиной и1 с единичной дисперсией по сравнению с 9; ° прологарифмировав выражение (24.9), представить его в виде е, где и =9 12+ 1л(/2я41) =9 12=Э/%О. 398 Обозначая е" = п и используя известное предельное выражение !пп(1-1/и)" =е ', получим при больших и-444 М- 1 = М=ехр(!пМ), что 1-Р - '"и( ') = '"О('" ') (249а) 1 — ощ =е Это означает, что в рассматриваемом асимптотиче- ском случае больших значений М эависииасть Р от 2 отношения ч = д 12=Э))УО оказывается ступенчатой Рош = (24.9 б) 0 при!и М < Э1)УО, ! при 1лМ > Э1)ч'О, что характерно лля теории информации (разд. 24.3).
Приближенное выражение вероятности ошибок при конечном числе когерентных сигналов, но дос- таточной их интенсивности. Значение суммы сигнала и шума также д + и~ = 9. Выражение (24.8) поэтому су- щественно упрошлется: Р т 1 — (1 — Рз) ... (! — Ры), (24.9в) где Рз,..., Ры — вероятности двухальтернативного пере- путывания произвольно выбранного первого сигнала с каждым из остальных. Двукратные ошибки превышения первого сигнала не рассматриваются нз-за предпола- гаемой большой интенсивности сигнала.
Случай четырехальтернативного различения коге- рентных сигналов с квадратурной фазовой манипуля- цией (КФМ, иначе двукратной ФМ). Этот случай соот- ветствует подстановке в выражение (24.9а) значения М = 4 и частных формул для вероятностей перепутываиия Рз = Р =0,5 — 0,5 4)4 [9 яп(я14)], Рз =0,5 — 0,5 4)4 [9 яп (п12)], вытекающих из общей формулы разд. 24.2 различения двух произвольно сдвинутых по фазе сигналов с одина- ковой энергией. При малых Р, = Р, и Рз значение Р, =2Р,+Рз Случай четырехальтернативного различения коге- рентных сигналов с относительной квадратурной фа- зовой манипуляцией (КОФМ, иначе ДОФМ).
Ошибка возникает при совмещении событий искажения одной из двух смежных посылок и неискажения другой. Вероятность Рз в выражении (24.9в) заменяется на 2Р, (1 — Рз). Аналогично заменяются Р, и Р4. Все это приводит к выражению Ров = 1 [1-2Рз(! — Рз)][1 — 2Рз (1-Рз)] [1-2Р4 (! — Р4)] в котором Р„Р,, Р4 определяются приведенными уже формулами. При малых Рз = Р4 и Р, значение Р 2(2 Рз+ Рз), что позволило построить кривую (рис. ! 0.9) для относительной квадратурной фазовой манипуляции. 24.3. Элементы теории информации и ее связь с теорией классификации сигналов Теория информации, разработанная в трудах Шеннона, явилась толчком в развитии методов кодирования и других методов улучшения классификации сигналов в системах связи, локации и управления [! .5, ! .13!.
24.3.1. Мера количества информации при передаче дискретных сообщений Вводится в предположении, что сигналы х, некоторого алфавита (! = 1, 2, ..., М) могут независимо передаваться без помех с априорными вероятностями Рь составляющими в сумме единицу. Меру вводят, исходя нз следующих требований: ° она должна обладать свойством аддитивности, иначе, количества информации в независимых сообщениях должны суммироваться; ° она определяется лишь степенью неопределенности события, и если достоверен только один его исход — она нулевая.
Указанным требованиям удовлетворяет логарифмическая.мера информации: 1, = 1оя !1! Р(х,)] = — !оя Р(х,). (24.10) При равновероятной передаче одного из М сообщений алфавита Р(х,) = 1)М значение 1, = 1 = 1оя М. Прн двукратной передаче независимых равновероятных сообщений из того же алфавита, когда число комбинаций "букв" М2, передается информация 1оя М = 2(ь Усредняя 1, по возможным й вводят среднее количество передаваемой информации 1ои приходящейся на сообщение, иначе меру неопределенности (энтропию) ансамбля сообщений х; Н(х)=-~ Р(х,)1ояР(х). (24.11) Если достоверно передается только одно сообщение Р(х!) = 1, Р(х2) = ...
= Р(х»,) = О, то энтропия обращается в нуль. Если равновероятны М возможных исходов и все Р(х,) = 1!М, то Н(х) = 1од М С учетом особенностей цифровой техники предпочитают использовать логарифмы по основанию два. Тем самым за единицу количества информации принимают бит, т.е. ее количество, содержащееся в сообщении об одном из двух равновероятных исходах события; Р! = Р2 = 1!2, 1= Н(х) = 1оя2 2 = 1 бит . Усдовная и средняя условная энтропия. Эти понятия учитывазот возможную связь элементов сообщений, например, в виде последовательных букв текста на том илн ином языке, или же одного и того же сообщения, искаженного и неискаженного помехой.
Пусть передано сообщение х, и условная вероятность последующей передачи сообщения у (й 1 = 1, 2, ..., М) составляет Р(у ! х,). Условная энтропия для этого конкретного случая Н(у(х) = -'ЯР(у, (х)1ояР(у, !х). з Усредняя последнюю по всем хь можно найти среднюю условную энтропию: Н,(у) = Н(у ! х) = ',> Р(х,) Н(у ! х,), (24.12) ! которую часто называют условной энтропией, опуская слово средняя.
Энтропия Н„(у) < Н(у), поскольку предшествующая информация может снизить неопределенность последующей. Энтропия совмещения событий передачи двух взаимосвязанных в общем случае сообщений определяется выражениями Н(У, х) = Н(х) ь Нх(У) = Н(У) + Нз!х), так что, например, Н(х) = Н(у, х) — НЯу). (24.13) 24.3.2. Мера количества информации при передаче непрерывных сообщений Для ограниченной полосы частот непрерывные по времени сигналы сводятся к дискретным по времени (разд.
13.5). Специфика состоит в учете непрерывньгх распределений мгновенных значений сигнала в установленные моменты времени. Энтропия непрерывно распределенной скалярной случайной величины. Распределение величины х с плотностью вероятности р(х) можно аппроксимировать днскретизированным распределением. Отсчеты х, берут с интервалом дискретизации Ьх. Их характеризуют вероятностями Р, = р(х,) ах, сумма которых равна единице, а также логарифмами вероятностей 1оя Р, = 1од р(х,) + 1оя 2!х. Энтропия (24.10) дискретизированного по уровням распределения Н, (х) = -'~„р(х, ) 1оя р(х, )дх+ !оя(1 ! Лх) содержит наряду с выражением, характеризующим степень неопределенности конкретного распределения р(х), независящее от него дополнительное слагаемое.
Оно соответствует логарифму числа отсчетов М = 1/Лх, приходящихся на единицу интервала х, н неограниченно возрастает при Ат ь О. Имея в виду сопоставление мер неопределенности непрерывных распределений между собой либо разностей этих мер вида (24.13), энтропию непрерывного распределения вводят как предел при Лх -+ 0 разности дискретизированных распределений — заданного р(х) н прямоугольногор(х) =! на единичном интервалех. Таким образом, по определению, энтропия непрерывного распределения, называемая иногда «дифференциальной энтропией» (4.43), Н(х) = — ~р(х) !оя р(х) йх . (24.14) Влияние характера непрерывного распределения на его энтропию. Чем протяженнее распределение х, тем больше его энтропия.
Так, для прямоугольных распределений длины ! ненулевые значения р(х) = И, откуда Н(х) = 1оя 1. Смешение распределения по оси х в пределах <о < х < со на энтропию не сказывается. Если распределения не обязательно прямоугольные, нх протяженность можно характеризовать дисперсией 2 о; энтропия возрастает с ее увеличением. Так, для нормального (гауссовского) распределения его энтропия Н = = !оя( /2лео), для прямоугольного распределения Н = 399 = !о8(2/!2 а), для экспоненциального Н = 1о8(ео).
Поскольку 2/2ке > )12, наиболее энтропийным из трех рассмотренных при фиксированном значении а является нормальное (гауссовское) распределение. Обоснование наибольшей энтропнйности нормального распределения. Нормальное распределение наиболее энтропийно не только среди трех рассмотренных, но и среди всех возможных распределений с за- 2 данной дисперсией о . К этому можно прийти, подбирая вероятности Р, дискретнзированного распределения случайных значений х, из условия максимума энтропии: Н=-2 Р,)о8Р, = — й';т'Р,!пр,, глек=!йп2 ! ! придвух ограничениях: я! = ',э Р, -1 =О, яз = 2 х, Р, -о' = 0: 2 2 ! Составляя и дифференцируя согласно (15.11)— (15.13) функцию Лагранжа, можно найти д!.!дР! = д(Н+ Л)3! + )ч32))дР! = 0 — lс-к1п Р,-ь Лс+ Лэх, =О.