Горяинов В.Т., Журавлев А.Г., Тихонов В.И. Статистическая радиотехника - примеры и задачи. Под ред. В.И.Тихонова (2-е издание, 1980) (1092036), страница 74
Текст из файла (страница 74)
случайной величины $. Найти правдоподобное значение дисперсии Р. Будет ли полученная оценка несмещенной? ! О °: Р.= — ~Д,— )с; с=! оценка несмещенная. 16.5. В тех же условиях, что и в задаче !6,4 неизвестны и подлежат оценке математическое ожидание т и дисперсия О. Смещенными или несмещенными будут оценки максимального правдоподобияр л о ! - ! Ответ ! т = — '~' $с, Р = — У (вс — т)'. л л хс с-! с-! Оценка математического ожидания несмещенная, так как М(т— — т) == О, а оценка дисперсии смещенная, так как М(Р) = = О (п — !)/п. 49! !6.6.
Найти дисперсию оценки амплитуды а гауссова импульса я(/, а) = а ехр — *, (! — т,)', 0(те(Т, 2,8 'й принимаемого на фоне гауссовского стационарного шума с экспоненциальной корреляционной функцией (16.15). Ответ: о,' = — = 2,67 ~~, (""' Ж) 16.7. На фоне одного и того же белого шума и (!) раздельно принимаются прямоугольный и гауссов радиоимпульсы я, (/, а) = а соз (ы! + ф,), 0 < ! < !+ т, < Т, яя (/, а) = ае т!! те!'соя [а (! — т0) + сро[, 0 < та < Т. Найти предельную точность измерения амплитуды а таких радио- импульсов, считая, что они практически полностью расположены внутри интервала (О, Т).
Сравнить результаты при равенстве энергий радиоимпульсов, т. е. при условии ') я~! (!, а) М = ~ яг (!, а) М. о — 40 Ответ: о„,= —, оь =Л'4 эт —, оь =оя„ при т„.= -Г 2т 16.8. Вычислить дисперсию оценки параметра т радиосигнала я (! т) а4 (1 + т соя И) соя (ы! ш !!)0) 0(!( Т ыТ» ! прн нимаемого на фоне белого шума п (!). 2)Ч, Г Мп 2ат ) Ответ: о' = — ' ~1+- а! Т 1 2Г!Т 16.9. Прямоугольный радиоимпульс (16.23) принимается на фоне узкополосного и!ума (16.16). Найти дисперсию оценки ампли туды а. Рассмотреть частный случай, когда гв = гв, = '„' ы[ —, а .
т/ аш з Зав' в', 2<Р Ответ! о,' = ' <тй = — прн в!=в!о. (~Ф вЂ” м!) +4сд о~ а !6.10. На фоне белого шума и (!) принимается радиосигнал я (!, г)э) = (/ (!) соя [гв! 4!- ф (!) + !?[, 492 где (/ (!) иф (!) — законы амплитудной и фазовой модуляции. Опре- делить дисперсию оценки неизвестной начальной фазы !р. Ответ: о,',=, Š—.— — ~ 1/Я(/)е[/, мТ>)1, (2Е///0) 2 о 16.!1. Вычислить дисперсию оценки временного положения тв гауссовского импульса 2,8 я(/, т,) =а ехр — — '(! — тв)' 'й при оптимальном приеме на фоне белого шума. Предполагается, что весь импульс практически находится внутри интервала наблюдения (О, Т): Ответ: ой,= ", Е= " Я'(/,то)"!=~// — а'ти=0,75авт„ 2,8 (2Е//у0) 00 16.!2.
Решить задачу 16.11 для случая, когда прием гауссовв импульса производится на фоне экспоненциально-коррелированного шума (16.15). При каком условии ответы к задачам 16.11 н 16.12 совпадают? Ответ: о,', = 4а'т„'/5,6аЕ, л/, = 4о'/а, 16.13. На фоне белого шума и (!) принимается прямоугольный радиоимпульс Я (!, (?) = а соз [(а + !)) ! + й а), О ( / < т„. Найти предельную точность измерения смещения частоты !?. О!ивет: ой=, Е=~ я'(.',0)Ж= — а'т„, гвТ>>1.
3 с .! :( °,) ' о 16.14. Решить задачу 16.13 для гауссова радиоимпульса я(!,0)=аехр ~ — — '(! — т,)'~ соя [(!в+1!)(! — т,)[-!р,), 0(т,(Т. Сравнить результаты для прямоугольного и гауссова радионмпуль- сов при равенстве их энергий. Ответ: о~Р= ', .=3,75 'и ' Е(2Е/До) ' вх ' ~ т ) ' Раздел ТЕОРИЯ ИНФОРМАЦИИ (17.2) ! (хй = — 1ое р (х!). (17.3) 7 (х; ! у!) = — )ой р (х! 1 у!); р(хо)у!) р(х! у!) р(х!) р (х!) р(у!) (!7.4) (17.5) ! (хо, у!) — 1ой р (хо, уо)! 496 16.16.
Решить задачу 16.13 для случая, когда прямоугольный радиоимпульс принимается на фоне экспоненциально-коррелированного шума (16.! 5), считая возможные значения (о много меньше в. О!ивет: пой = 2втй Е (1+(в/в)з! 16.16. Вычислить дисперсию оценки параметра р радиосигнала з(! Р) = асов(в!+ ])соз()1+ гр„), ()( !( 7' принимаемого на фоне белого шума. Предполагается, что возможные значения 6 много меньше в и вТ >) 1. Ответ: г 03 = — ~Г]+ ! —, Š— Раз(! 1) о(! азт 2 Г МпЖ'Т !"! 2 2Е/!то ~ 2()Т 1 2Е!Хо ~ 2 16.17.
Определить дисперсию оценки небольшого смещения частоты П прямоугольного радиоимпульса в (1, ()) = а соз [(в + ()) ! + оро], О < ! (~ гоэ принимаемого на фоне флуктуационного шума с корреляционной. функцией (16.!6), в которой в, = в, )) а. Предполагается, что допустимые значения Й значительно меньше в. Ответ: тв з 12воз l во то ! 1 Е= з (! (о) с(1 = — а т„, вт„»1, тз Е !,вз — вй~ 0 17. ДИСКРЕТНЫЕ СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Дяскретные (цнфровые) системы связи — системы, в которых как реалнзацяя сообщеняя, так я реалнзапяя сигнала представляют собой последовательностя символов алфавита, содержащего конечное число элементарных символов !1].
Пусть хо, ! 1, 2, ..., л, — совокупность возможных различных незавнснмых элементарных символов алфавита на входе снстемы, а ун ! = 1, 2, ..., ..., и — совокупность символов на ее выходе; р (х!) — априорная вероятность символа хи р (у!) — вероятность появления символа у! на выходе системы; р (хо, у!) — совместная вероятность появления на выходе системы снмвола ур есля на входе был символ х;; р (х! ! у!) — апостеряорная вероятность сямволэ хи р(у!!х!) — условная вероятность появления на выходе снстемы уп прн условии, что на входе был символ х!.
Для этих вероятностей выполняются соотношения в л л ло р (х!) = ~я~', р (хо, у!), р (у!) = ~~ р (хо, у!), ~~~ р (х!) = ~', р (у!) = 1. (17.1) / ! ! ! ! 1=! Тогда собственная янформацня символа х! (колячество янформацня, доставляемое самим символом х! яля любым другим однозначно с ннм связанным) определяется формулой Другие понятия ннформацнн определяются следующямя соотношениями: — условная собственная информация символа х! урн известном у! — взаимная янформацня двух случайных символов относятельно друг друга (количество информации относнтельно символа хь доставляемое у! — собственная янформацяя совместного события (хо, у!) 1=1/=1 (17.19) (17.20) 1=1 !=1 =/(х1)+! (У!) ! (х/ У!) (17.11) (17.!2) (17.13) (17.14) (17.
15) (! 7.16) — среднее количество информации, доставляемое принятым символом у! втнвсительно множества всех передаваемых симввлов Х=(х1!. 1=-1,2...,, л, з л /(Х; У!).=- ~~1 !(х/! у!) Р(х1)У!) = 5. Р(х; ! у!)!ой '; (17.6) 1=! Р !х1) — среднее количество взаимной информации по множеству символов У (уф / = 1, 2, ..., т, при фиксированном х/ ! (хб 1 ) ~~'.1 /(х11 у!) Р(у!1х1) х р(у ! х1)!ой 1; (17.6а) / 1 ,(зи) — полное среднее количество взаимной информации в множестве символов У относительно множества символов Х л та ж /(Х; У) =~~у ~~~~ р(х;, у!) 1ой = ~ ~р(у ) /(Х; у!). (!7 7) Р(х! ! У>) Р (х1) При решении большинства задач, связанных с построением сястем передачи н преобразования информации, наибольший интерес представляет величина ! (Х; У).
Если символ х; статистически связан не только с символом у!, но и с третьим символом хь, й 1, 2, ..., !, то при известных вероятностях р (хы у! зз) условная взаимная информация равна 1 (х,.' /Н(хз) =1 й ' = 1ой ", (П.Е) Р(.,!У/ .,) Р(.б У!!") р (х1 ! гь) р(х/! гь) р(ут! гь) где / (х11 у! (хь) — количество информация, доставляемое у о хы когда предварительно известен символ хь. Единица количества информации определяется выбором основания логарифмов. Когда используются логарифмы прн основании дза, то количество информации ! измеряется в двоичных единицах (дв, ед., или бнт). Переход от одной. системы логарифмов к другой равносилен простому изменению единицы измерения информация.
Этот переход осуществляется по формуле 1ойь й = !ойь а ' !ояа й' Для количества ияформацин справедливы следующие соотношения; ! (х;; у!) = / (у!! х ), / (х;; у!) < ! (х ), / (х11 у!) < ! (у ), (! 7 9) / (х11 у» гь) =! (хб у!)+l (хб гз ! у!) =/ (х11 хь)+1 (хб у! ! хз), (17.!0) ! (х/; у!) = ! (х;) — / (х; ! у!) =/ (у!) — / (ут(х;) -= / (хб У!) =- ! (х/) + / (У!) — / (хг; У1), / (Х; у!) > О, ! (х/1 !') > О, ! (Х; !') / (У; Х) > О, / (Х; У, г) - / (Х; У) + /(Х; г ! У), /(!',2; Х) /(У; Х)+!(2! Х(У).
чйй По аналогии со средней взаимной информацией, средняя собственная нифврмация определяется формулой л я /(Х) = ~~», р(х1) / (х;) = — ~', р(х/) 1ояр (х1) =-Н(Х), (17.17) 1 1 1 где Н (Х) — энтропия дискретной случайной величины Х, определяющая количественную меру неопределенности о сообщении до его приема. Для энтропии справедливы следующие выражения: л е и (У ! х) —.- — ~ч", ~~~ р(хы у1) (ойр(ут)хг) =- с 1!=1 л Л3 — ч~» Р(х;) ~', Р(У1!х)!ойР(У!!х1)=-/(У)Х), (17.18) 1 ! 1 И (Х ! У) = — ~ ~, (х;, у/) 1 ж (х; ! у/) =- — ~~~' р (у!) ~~~' р (х! ! у!) (ой р (х; ! у!) = ! (Х ! У), ! 1 1=1 л з» И(Х, У)=- — ~~~~ ~~ р(х/, у!)!ойр(х/, у!), Н(Х, У]= Н(Х)+ Н(У)Х) = Н(У)+ Н(Х(У), (17.21) где Н (У! Х) — условная энтропия множества событий У при данном множестве событий Х; Н (Х(У) — условная энтропия множества событий Х прн данном множестве У; Н (Х, У) — энтропия множества совместных событий Х, У. Когда множества Х и У независимы, то Н (У! Х) = Н (У), Н (Х ! У) = = Н (Х).