Главная » Просмотр файлов » Радиоэлектронные системы Основы построения и теория. Справочник . Под ред. Я.Д. Ширмана (2007)

Радиоэлектронные системы Основы построения и теория. Справочник . Под ред. Я.Д. Ширмана (2007) (1151789), страница 178

Файл №1151789 Радиоэлектронные системы Основы построения и теория. Справочник . Под ред. Я.Д. Ширмана (2007) (Радиоэлектронные системы. Основы построения и теория. Справочник. Под ред. Я.Д.Ширмана (2007)) 178 страницаРадиоэлектронные системы Основы построения и теория. Справочник . Под ред. Я.Д. Ширмана (2007) (1151789) страница 1782019-07-06СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 178)

Особенности многоальтернативной классификации детерминированных ортогональных сигналое с одинаковой энергией Точное выражение вероятностей ошибок для когерентных детерминированных сигналов. Нормированный сигнал с номером 1 =! (этот номер не существен) различается при условии (9 е и1) — и, > 0 (1 = 2, ..., М) . Здесь и, = г, /21Э)УΠ— 9 (1 = 1, 2,...,М> 2) — случайное число с нулевым математическим ожиданием, единичной дисперсией и гауссовской плотностью веро- 112 212 ятности р(и,) = (2я) е "', см. разд.16.2.

Условная вероятность Р (1 [9+ и)) ошибочного превышения достаточной статистикой 1-го канала достаточной статистики 1-го канала д + и4 составляет Рош (1 / 41+и)) = ]гр(и4) а)и! (1 =2 3 М). (24 7) д4-и1 Условная вероятность того, что ошибки не будет, составит 1- Р (1 [9+ и)) . Безусловная вероятность отсутствия ошибки определяется интегралом от произведения вероятностей вида 1-Р (1[9 ьи))для всех М вЂ” 1 каналов от 2-го до М-го по всем возможным значениям и~ с весом, определяемом плотностями вероятностей Р( и~), 1-Р, = ]]й[1-Р, (1[9+и))1 Р(,) ь) (24.8) о 0=2 откуда следует вероятность ошибки Р [4.2].

Аснмптотический случай большого числа когерентных сигналов. При условии М » 1 сколько- нибудь приемлемые вероятности Рои4 достигаются при д» 1. Разлагая интеграл (24.7) по частям в ряд, можно: ° ограничиться первым членом ряда и, 12) (ч+и1) 12 + (24 9) 2п „, и, 4/2як(9 ьи)) ° пренебречь в (24.9) нормальной случайной величиной и1 с единичной дисперсией по сравнению с 9; ° прологарифмировав выражение (24.9), представить его в виде е, где и =9 12+ 1л(/2я41) =9 12=Э/%О. 398 Обозначая е" = п и используя известное предельное выражение !пп(1-1/и)" =е ', получим при больших и-444 М- 1 = М=ехр(!пМ), что 1-Р - '"и( ') = '"О('" ') (249а) 1 — ощ =е Это означает, что в рассматриваемом асимптотиче- ском случае больших значений М эависииасть Р от 2 отношения ч = д 12=Э))УО оказывается ступенчатой Рош = (24.9 б) 0 при!и М < Э1)УО, ! при 1лМ > Э1)ч'О, что характерно лля теории информации (разд. 24.3).

Приближенное выражение вероятности ошибок при конечном числе когерентных сигналов, но дос- таточной их интенсивности. Значение суммы сигнала и шума также д + и~ = 9. Выражение (24.8) поэтому су- щественно упрошлется: Р т 1 — (1 — Рз) ... (! — Ры), (24.9в) где Рз,..., Ры — вероятности двухальтернативного пере- путывания произвольно выбранного первого сигнала с каждым из остальных. Двукратные ошибки превышения первого сигнала не рассматриваются нз-за предпола- гаемой большой интенсивности сигнала.

Случай четырехальтернативного различения коге- рентных сигналов с квадратурной фазовой манипуля- цией (КФМ, иначе двукратной ФМ). Этот случай соот- ветствует подстановке в выражение (24.9а) значения М = 4 и частных формул для вероятностей перепутываиия Рз = Р =0,5 — 0,5 4)4 [9 яп(я14)], Рз =0,5 — 0,5 4)4 [9 яп (п12)], вытекающих из общей формулы разд. 24.2 различения двух произвольно сдвинутых по фазе сигналов с одина- ковой энергией. При малых Р, = Р, и Рз значение Р, =2Р,+Рз Случай четырехальтернативного различения коге- рентных сигналов с относительной квадратурной фа- зовой манипуляцией (КОФМ, иначе ДОФМ).

Ошибка возникает при совмещении событий искажения одной из двух смежных посылок и неискажения другой. Вероятность Рз в выражении (24.9в) заменяется на 2Р, (1 — Рз). Аналогично заменяются Р, и Р4. Все это приводит к выражению Ров = 1 [1-2Рз(! — Рз)][1 — 2Рз (1-Рз)] [1-2Р4 (! — Р4)] в котором Р„Р,, Р4 определяются приведенными уже формулами. При малых Рз = Р4 и Р, значение Р 2(2 Рз+ Рз), что позволило построить кривую (рис. ! 0.9) для относительной квадратурной фазовой манипуляции. 24.3. Элементы теории информации и ее связь с теорией классификации сигналов Теория информации, разработанная в трудах Шеннона, явилась толчком в развитии методов кодирования и других методов улучшения классификации сигналов в системах связи, локации и управления [! .5, ! .13!.

24.3.1. Мера количества информации при передаче дискретных сообщений Вводится в предположении, что сигналы х, некоторого алфавита (! = 1, 2, ..., М) могут независимо передаваться без помех с априорными вероятностями Рь составляющими в сумме единицу. Меру вводят, исходя нз следующих требований: ° она должна обладать свойством аддитивности, иначе, количества информации в независимых сообщениях должны суммироваться; ° она определяется лишь степенью неопределенности события, и если достоверен только один его исход — она нулевая.

Указанным требованиям удовлетворяет логарифмическая.мера информации: 1, = 1оя !1! Р(х,)] = — !оя Р(х,). (24.10) При равновероятной передаче одного из М сообщений алфавита Р(х,) = 1)М значение 1, = 1 = 1оя М. Прн двукратной передаче независимых равновероятных сообщений из того же алфавита, когда число комбинаций "букв" М2, передается информация 1оя М = 2(ь Усредняя 1, по возможным й вводят среднее количество передаваемой информации 1ои приходящейся на сообщение, иначе меру неопределенности (энтропию) ансамбля сообщений х; Н(х)=-~ Р(х,)1ояР(х). (24.11) Если достоверно передается только одно сообщение Р(х!) = 1, Р(х2) = ...

= Р(х»,) = О, то энтропия обращается в нуль. Если равновероятны М возможных исходов и все Р(х,) = 1!М, то Н(х) = 1од М С учетом особенностей цифровой техники предпочитают использовать логарифмы по основанию два. Тем самым за единицу количества информации принимают бит, т.е. ее количество, содержащееся в сообщении об одном из двух равновероятных исходах события; Р! = Р2 = 1!2, 1= Н(х) = 1оя2 2 = 1 бит . Усдовная и средняя условная энтропия. Эти понятия учитывазот возможную связь элементов сообщений, например, в виде последовательных букв текста на том илн ином языке, или же одного и того же сообщения, искаженного и неискаженного помехой.

Пусть передано сообщение х, и условная вероятность последующей передачи сообщения у (й 1 = 1, 2, ..., М) составляет Р(у ! х,). Условная энтропия для этого конкретного случая Н(у(х) = -'ЯР(у, (х)1ояР(у, !х). з Усредняя последнюю по всем хь можно найти среднюю условную энтропию: Н,(у) = Н(у ! х) = ',> Р(х,) Н(у ! х,), (24.12) ! которую часто называют условной энтропией, опуская слово средняя.

Энтропия Н„(у) < Н(у), поскольку предшествующая информация может снизить неопределенность последующей. Энтропия совмещения событий передачи двух взаимосвязанных в общем случае сообщений определяется выражениями Н(У, х) = Н(х) ь Нх(У) = Н(У) + Нз!х), так что, например, Н(х) = Н(у, х) — НЯу). (24.13) 24.3.2. Мера количества информации при передаче непрерывных сообщений Для ограниченной полосы частот непрерывные по времени сигналы сводятся к дискретным по времени (разд.

13.5). Специфика состоит в учете непрерывньгх распределений мгновенных значений сигнала в установленные моменты времени. Энтропия непрерывно распределенной скалярной случайной величины. Распределение величины х с плотностью вероятности р(х) можно аппроксимировать днскретизированным распределением. Отсчеты х, берут с интервалом дискретизации Ьх. Их характеризуют вероятностями Р, = р(х,) ах, сумма которых равна единице, а также логарифмами вероятностей 1оя Р, = 1од р(х,) + 1оя 2!х. Энтропия (24.10) дискретизированного по уровням распределения Н, (х) = -'~„р(х, ) 1оя р(х, )дх+ !оя(1 ! Лх) содержит наряду с выражением, характеризующим степень неопределенности конкретного распределения р(х), независящее от него дополнительное слагаемое.

Оно соответствует логарифму числа отсчетов М = 1/Лх, приходящихся на единицу интервала х, н неограниченно возрастает при Ат ь О. Имея в виду сопоставление мер неопределенности непрерывных распределений между собой либо разностей этих мер вида (24.13), энтропию непрерывного распределения вводят как предел при Лх -+ 0 разности дискретизированных распределений — заданного р(х) н прямоугольногор(х) =! на единичном интервалех. Таким образом, по определению, энтропия непрерывного распределения, называемая иногда «дифференциальной энтропией» (4.43), Н(х) = — ~р(х) !оя р(х) йх . (24.14) Влияние характера непрерывного распределения на его энтропию. Чем протяженнее распределение х, тем больше его энтропия.

Так, для прямоугольных распределений длины ! ненулевые значения р(х) = И, откуда Н(х) = 1оя 1. Смешение распределения по оси х в пределах <о < х < со на энтропию не сказывается. Если распределения не обязательно прямоугольные, нх протяженность можно характеризовать дисперсией 2 о; энтропия возрастает с ее увеличением. Так, для нормального (гауссовского) распределения его энтропия Н = = !оя( /2лео), для прямоугольного распределения Н = 399 = !о8(2/!2 а), для экспоненциального Н = 1о8(ео).

Поскольку 2/2ке > )12, наиболее энтропийным из трех рассмотренных при фиксированном значении а является нормальное (гауссовское) распределение. Обоснование наибольшей энтропнйности нормального распределения. Нормальное распределение наиболее энтропийно не только среди трех рассмотренных, но и среди всех возможных распределений с за- 2 данной дисперсией о . К этому можно прийти, подбирая вероятности Р, дискретнзированного распределения случайных значений х, из условия максимума энтропии: Н=-2 Р,)о8Р, = — й';т'Р,!пр,, глек=!йп2 ! ! придвух ограничениях: я! = ',э Р, -1 =О, яз = 2 х, Р, -о' = 0: 2 2 ! Составляя и дифференцируя согласно (15.11)— (15.13) функцию Лагранжа, можно найти д!.!дР! = д(Н+ Л)3! + )ч32))дР! = 0 — lс-к1п Р,-ь Лс+ Лэх, =О.

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Зачем заказывать выполнение своего задания, если оно уже было выполнено много много раз? Его можно просто купить или даже скачать бесплатно на СтудИзбе. Найдите нужный учебный материал у нас!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6486
Авторов
на СтудИзбе
303
Средний доход
с одного платного файла
Обучение Подробнее