Финк М. Теория передачи дискретных сообщений (1970) (1151862), страница 37
Текст из файла (страница 37)
Однако смысл ее несколько иной, К. Шеннон рассматривал канал, пропускающий сигналы только с ограниченным спектром в полосе шириной Р. Здесь же в (3.84) под Р понимается условная полоса частот, определяемая количеством коэффициентов ряда Фурье, тождественно не равных нулю. Таким образом. полученное выражение относится к сигналу, спектр которого, строго говоря, не ограничен.
Впрочем, при достаточно больших значениях В (т. е. при большом Т, если Г задано) различие между этими сигналами может быть сделано сколь угодно малым. Отбросим теперь условие ограняченности базы сигнала и вычислим, какова пропускная способность канала с аддитивным белым шумом, имеющим спектральную плотность ч', если мощность сигнала равна Р,. Для решения этого вопроса можно исходить из полученного выражения (3.84) и искать его максимум при изменении В (точнее говоря, при изменении Г, так как С не зависит от Т).
Для этого запишем (3.84) в следу1ощем виде: (3.84а) 199 * Это вытекает из известной теоремы о среднеи арифметиче«ком и среднем геометрическом. 198 Ра ) ~игур ед тат ~ сам (3.86) (3.85а) С =-!6~Т. у= 2н г. (3.87) (3.88) или о ! 2 Щ или Р,) и'Н'. Легко убедиться, что с увеличением Р пропускная способность возрастает и при Р— ьоо стремится к величине С (3.85) со те сек Пользуясь введенным ранее обозначением й' = РсТ(ча„ можно записать полученный результат и так: Па рис. 3.14 показано, как растет пропускная способность С при увеличении условной полосы частот Р согласно формуле (3.84а), Уже при Р=Р,/чв пропускная способность достигает 70о7о от предельного значения Рис 3.14.
Зависимость пропускной способности от вели- чины условной полосы частот сигнала. С и с дальнейшим увеличением Р возрастает очень медленно. Здесь полезно вспомнить о теореме кодирования 8 1.8), поясняющей реальный смысл понятия епропускная способность», и дать другую формулировку доказан. ным соотношениям (3.84) и (3.85). Пусть в рассматриваемом канале можно передавать любые сигналы, име!ощие условную полосу частот Р и среднюю мощность (на входе приемника), ие прерывающую Р,. Будем задаваться различными значениями длительности сигнала Т и для каждого из них строить по каким-та (пока неопределенным) правилам конечное множество„ содержащее т(Т) сигналов, удовлетворяющее наложен- 200 ным условиям.
При этом т(Т)=2н', где Н'-- некоторая заданная величина. Если некоторый источник с фиксированной скоростью имеет производительность Н' натур, единиц в секунду, то число различных сообщений длительностью Т, которые источник может выдать с суммарной вероятностью, сколь угодно близкой к единице, при достаточно большом Т равно Тогда, учитывая (3.86), можно каждому сообщению источника для передачи по каналу сопоставить один из т сигналов. Теорема Шеннона утверждает, что при надлежащем выборе сигналов вероятность ошибочного приема такого сигнала может быть мсньше л1обого заданного в>0, если значение Т достаточно велика и Н'<С.
С учетом формулы (3.84а) последнее условие можно записать так: Н".-.Р1 1+ — ''!" '," '" »Ч' ! сек ,Р(сн 1л (3.89) Для случая, когда полоса частот Р неограничена, это условие переходит в Н' < Рс(ч (3.90) Остановимся на том, как следует выбирать сигналы прн заданном Т. 11з приведенного выше доказательства видно, что их можно определить, произведя 2тРТ независимых случайных выборов коэффициентов ряда Фурье в соответствии с нормальным законом распределения с нулевым математическим ожиданием и дисперсией, 2Р» Ре равной — '= — '. Прп этом, правда, можно только В ТТ' утверждать, что математическое ожидание мощности спг- 201 нала будет равно Р„что >ке касается мощности каждой реализации, и даже средней мощности по конечному числу и выбранных сигналов, то она может отличаться от Р, в любую сторону.
Представляют интерес следующие вопросы. Можно ли указать регулярный (не связанный со случайным выбором) метод построения т(Т) сигналов, обладающий тем свойством, что при выполнении условия (3.89) или (3.90) вероятность ошибочного приема будет стремиться к нулю с увеличением Т? Можно ли этп сигналы строить так, чтобы мощность каждого из них не превышала Р,? В общем случае эти вопросы остаются открытыми, но для неограниченной полосы частот Р на них можно ответить утвердительно. Более того, можно указать несколько способов регулярного построения таких сигналов, в частности, они могут образовывать симплексную. биортогональную или ортогональную системы.
В качестве примера докажем, что для системы из т= е' ортогональных сигналов с одинаковой мощностью Р„ вероятность ошибки при достаточно большом Т меньше любого заданного положительного числа е, если выполнено условие (3.90). Вероятность правильного приема для ортогональной системы определяется формулой (3.67). Произведя замену переменной у=и — ~2 Ь, получим ОР м = — (1+Ф(]~'2 Ь+р)] ~ е 0д. (3.91) При заданном е определим число а так, что — а у' — ] е г(у- 1 12,.) 2 (3.92) Как легко видеть, ( — ]1+Ф(~2 Ь+у)] Г «1 и ] 2 является неубывающей функцией у.
Учитывая также, что подынтегральная функция в (3.91) не отрицательна, получим д~ = ~е ' > — ]1+Ф(]Т2Ь+у)]~ Иу~ -а — ~е а 1 — ]1+Ф(Р'2Ь вЂ” а)] ) дд= 1'2 — а = 1 — ]1+Ф(„/2Ь вЂ” а)]] = ~е ~(Р~ ( 2 ) 1'2п ]1+Ф( /2Ь вЂ” а)]1 ] — ~е в>У— 2 ) 'г$'2л — — '~- ( — ]1+Ф(ь/2Ь вЂ” а)]~ — 2 . (3.93) Из условия (3.90) следует, что существует такое достаточно малое положителыюе число б, при котором Р, > ч* (Н'+ й) илн (3.94) Ф (т>>2 Ь вЂ” а) =Ф( ' — а ) =Ф~д/2Т(РР+6)+ + ь/2Т,— и]. Пусть Т, = ~, Тогда, учитывая, что функция Крампа неубывающая, при Т > Т, Ф(>?г2 Ь вЂ” а) > Ф1>' 2Т (Н'+б)].
(3.95) Из известного аснмптотического разложения интеграла вероятности при достаточно больших х Ф(х))1 — $~ — —. (3.96) 2ОЗ ~ ~с ) ь/г>~+$ Обозначим — ' — кТН + б = и, 'где согласно (3.94) У ~>0. Учитывая, что по определению Ь = ~/Р,Т(т, имеем Объединяя (3.93), (3.95) и (3.96), попучнм — гш'+Н м — ~ 2 )(пТ (Н' -~- Ь) — цн'ьи 2 кЪ'-.~Т (Н'-) 3) е — Пн'+м Ра 1 — т Нет(Н +З) З ' нг Подставим сюда гл ==- е . Тогда е ьг е — ~г е п>1 — — — —,,->1 — с 2 )гнТ (Н'+ З) Последнее неравенство следует из того, что мТИ'.= = .1пт) 1 при и ~ 2.
1 2 Положив Т, = — 1п —, получим, что при Т е .д шах(Т„Т,)г)) 1 — а или Р= 1 — д(а, что и требовалось доказать. Более тщательный анализ выражения (3.91) (10) показывает, что вероятность ошибки с увеличением Т стремится к нулю экспонснциально, причем коэффициент при показателе убывает с ростом отношения ТТ'/С и при Н'=С становится равным нулю. Полученный результат показывает, что при выполнсншг условия (3.90) можно всегда построить систему связи с ортогональнымп сигналами, выбрав такие значения пг и Т, чтобы вести передачу с заданной сколь угодно высокой верностью. Непосредственно прнлгенить этот результат на практике, к сожалению, не удается,поскольку с увеличением т, во-первых, резко усложняется решающая схема и, во-вторых, расширяется условная полоса частот":. Б подавляющем большинстве существующис системы связи являются двоичными, хотя воз- можность повысить достоверность (при заданной О') путем увеличения т давно известна.
Применение двоичной системы позволяет использовать наиболее простую первую решающую схему, а задачу повышения ворностн возложить на вторую решающую схему (декодер), применив корректирующий код. Пдн этом исходят из того, что даже сложный декодер, поскольку он основан на дискретной технике, оказывается более простым и надежным, чем система согласованных фильтров или перемножителей с интеграторами при большом т Поскольку пропускная способность дискретного капала не превышает пропускную способность заключенного в нем непрерывного канала, можно ожидать, что прп таком серьезном ограничении, как использование двоичного кода, пропускная способность существенно уменьшится. Найдем пропускную способность канала, в котором присутствует нормальный белый шум со спектральной плотностью у', полагая, что задана мощность сигнала Ре, а сигнал должен состоять из последовательности элементов, соответствующих сообщению, закодированному наилучшим образом двоичным корректируюгцим кодом.
На полосу частот, а следовательно, и на длительность элемента сигнала никаких ограничений накладывать нс будем. '!'ак как двоичный канал при аддитивном белом шумс является симметричным, то можно воспользоваться выражениегн (2.28), нз которого следует, что скорость передачи информации возрастает с уменьшением вероятности ошибок. Минимум вероятности ошибок при заданном Р, обеспечивается выбором противоположных сигналов, для которых Р о (! — Ф(р/2й)1 Подставляя это значение в (2.28), получаем (3.97) 205 * Действительно, максвмадьное число ортоговадьных снгналов ддвтедьносгью Т с условной полосой частот Г )мвно бане снстсмы гд = нг = В =УТТ. Если прв эгом т = еп Г, то Г = аТ е, оэ куда внд- но, что с увеличением Т, усаовнан паеоса честна также беспредельно воарасгаег.
204 Р(г',г) =.— (1+ — (! — Ф(„/2 Ь)) Х Х 1оэ ~ (! — Ф (у' 2 й)) + ~ [1+ Ф (р' 2 й)] Х Х!оэ 2 )1+Ф() 2 Й)!. Анализируя это выражение, легко убедится [12], что при уменьшении длительности элемента сигнала Т скорость передачи информации монотонно возрастает, несмотря на уменьшение величины Ь. Поэтому пропускной способностью канапа при указанных ограничениях следует считать предел выражения (3.97), когда Т, а следовательно, и Ь стремятся к нулю. Этот предел легко найти, воспользовавшись тем, что при малом х Ф(х)= й( — х, l 2 х' 1п(1+ х)= -х —— 2 Переходя в (3.97) к натуральным единицам, найдем С(„,1 =.1пп ~ (1п2+ 2 1п 2 [1+Ф(рг 2Ь)+ +1 — Ф(уг2 й)]+ — Ф(у/2 й) [1+Ф(у~2 й)— — 1+ Ф(э~2 й)] — —,Ф (,/2 й) [1+Ф(,/2 й)+ + 1 — Ф ()/2 й)] ) = 1пп — Ф' ( 1/ 2 (г) = 1пп— го 27 т- о Учитывая (3.86) и (3.46).
получаем (3.98) Таким образом, столь сильное ограничение, наложенное на величину основания кода, уменьшает пропускную способность всего лишь в и/2 раз по сравнению со случаем, когда нет никаких ограничений способа кодирования. Представляет интерес также пропускная способность двоичного канала с заданной мощностью сигнала Р, и спектральной плотностью аддитивного белого шума когда сигна.пы являются не противоположными, а ортогональнымц.