Финк М. Теория передачи дискретных сообщений (1970) (1151862), страница 36
Текст из файла (страница 36)
Во всех приведенных рассуждениях имеется одна недоговоренность. Полученные выводы безусловно справедливы, пока идет речь о приеме одного изолированного элемента сигнала. Пусть принимается последовательность элементов г,"(() (1=1, 2, ... ), каждый из которых имеет длительность Т и которые поэтому не перекрываются во времени. В случае белого шума все рассмотренные варианты решающей схемы допускают раздельную обработку каждого элемента сигнала, без взаимных (межэлементных) помех. В частности, как было отмечено, реакция согласованного фильтра на предыдущие элементы полностью затухает к моменту отсчета для текущего элемента. Иначе обстоит дело при помехе с неравномерным спектром.
Если элементы сигнала а~' (г) взаимно не перекры- !3 †24 123 ваются, то после прохождения фильтра Ф, (рис. 3.12) преобразованные им элементы сигнала яц!((), какправило, растягиваются и в той или иной степени взаимно перекрываются. Другими словами, в момент отсчета напряжение на выходе фильтра с передаточной функцией (3.?2) будет определяться нс только последним принимаемым элементом сигнала, но и рядом предыдущих элементов, т. е. возникнут ме>кэлсмснтные помехи, увеличивающие (иногда очень существенно) вероятность ошибки. Если при проектировании системы связи спектральная плотность,помехн 6(ь>) заранее известна, то можно сформировать такие сигналы я„((), чтобы преобразованные сигналы я,(1) взаимно не перекрывались.
Это можно, например, сделать при помощи «предыскажения» следующим образом. Передатчик формирует выбранные сигналы я„(() длительностью Т. Перед вводом нх в канал они пропускаются через специальный фильтр с передаточной функцией 1) ()ь>), выбранной так, что ((0(!ь>) Р=6(в>). Полученные на выходе сигналы г„(1) посылаются в канал. Очевидно, что, пройдя через обеляющий фильтр Ф, приемника, они снова превратятся в иеперекрывающиеся сигналы г,(!), принимаемые на фоне белого шума.
Следует подчеркнуть одно существенное отличие передачи сообщений в канале с неравномерным спектром помехи по сравнению со случаем белого шума, При белом шуме вероятность ошибки зависит от отношения й энергии сигнала к спектральной плотности шума и от взаимного соотношения сигналов, выражаемого в двоичном случае коэффициентом у в формуле (3.61), но не зависит от «тонкой структуры» сигнала.
Так, при противоположных сигналах вероятность ошибки выражается формулой (3.45) и прп известной мощности сигнала не зависит ог его формы, спектра и т. д. Это свойство не сохраняется при неравномерном спектре помехи. В этом случае сигналам с одинаковой мощ- 7 постыл —.- ~ (5.(1»>)!'г»> могут соответствовать различ- 194 ные значения й. Из (3.73) видно, что наибольшее Ь обеспечивают такие сигналы, у которых модуль спектральной плотности отличен от нуля только в той области частот, !дс спектральная плотность шума 6(ь>) достаточно мала. Этот вывод, впрочем, достаточно тривиален.
Более детальная теория позволяет определить форму оптимального сигнала в зависимости от 6(ь>), если он существует (8), В некоторых случаях такого оптимального сигнала пет. Так, если 6(ы) монотонно убывает с ростом частоты (довольно частый случай), то очевидно, что чем выше область частот, в которой сосредоточена основная часть энергии сигнала, тем меньше будет вероятность ошибок. Обычно, однако, на область используемых частот наложены дополнительные ограничения, не позволяющие сколь угодно повысить помехоустойчивость таким методом. 3.7. Пропускная способность канала с постоянными параметрами и аддитианым шумом Вычислим пропускную способность рассмотренного канала.
Для определения пропускной способности нужно прежде всего условиться о том, какие ограничивающие условия наложены на сигнал. Наиболее естественным является ограничение средней мощности приходящего сигнала и его базы. Вычислим, поэтому, сначала пропускную способность канала, в котором могут передаваться сигналы с мощностью Р», длительностью элемента Т, при заданной базе В=2РТ, если вместе с сигналом принимается белый шум со спектральной плотностью т». На величину т (основание кода) никаких ограничений не накладываем. Всякий такой сигнал на протяжении времени Т может быть представлен конечным рядом Фурье (3.2), в ко~ором 2ГТ коэффициентов пе равны тождественно нулю.
Информация, переносимая сигналом, заключена в значениях этих коэффициентов. Каждый из них переносит определенную долю информации. Если значения отдельных коэффициентов статистически независимы, то полное количество информации в сигнале явлиется суммой частичных количеств информации, переносимых каждым из коэффициентов. Наличие статистической зависимости между этими коэффициентами может только уменьшить общее количество информации. 13» !% ~~г~ (а' +а, )=2Ра (3.74) ч 6 Но откуда легко показать, что Для нахождения пропускной способности нужно определить структуру сигналов, обсспсчнвагощую максимум передаваемой информации.
Поэтому нужно считать все коэффициенты ряда Фурье статистически независимыми случайными величинами. Мощность сигнала должна быть каким-то образом распределена между этими коэффициентами. Предположим, что это распределение произведено так, что на до;по коэффициентов аги Ьа приходятся соотвстственно мощностиа а, а аа' Са Число членов в этой сумме равно 2(йя — 6,+1) =В. Найдем максимальное количество информации, передаваемое за время Т, например, с помощью коэффи- 2 циента аа при мощности а,„, а затем определим, как лучше распределить мощность сигнала между этими коэффициентами, чтосы получить наибольшую суммарную скорость передачи информации, которая, очевидно, и будет равна пропускной способности канала прн заданных условиях.
Количество информации, содержащееся в случайной величине Аа (коэффициенте ряда Фурье принятого сигнала) относительно случайной величины аа (коэффициента переданного сигнала) можно выразить через дифференциальную энтропию по формуле (1.50): 1, (Аа, ая) = 6 (Ля) — 6 (Аа ( ак). (3.75) 6(Аа(аа) =6(сч,). (3.76) Действительно, условные вероятности принятой величины Ам когда известна переданная величина ая, есть * Так как а„, Ь„наляются случайными яелияинами (определяемыми амбаром сигнала а ггередаююем устройстве), то могяности ааа, я аа ' ааа предстааляют собой математические ожидания каадратеи этих коэффияиеитоа аа, Ьа . а шб что инос, как вероятность аддитнвной помехи па, а так как энтропия однозначно определяется распределением вероятностей, то отсюда вытекает (3,76).
Таким образом, для выпопнения первого пункта намеченной программы нужно найти максимальное .возможное значение величины 1. (Аю аа) = —.6(Ак) — 6(ая). (3.77) Величина 6(иа) определяется помехой н не зависит от сигнала. Поэтому задача сводится к нахождению максимума дифференциальной энтропии принимаемого сигнала 6(Ад). При решении этой задачи дифференциальную энтропию удобно измерять в натуральных единицах.
Могцвость Аг„очевидно, равна сумме мощности ад и ом так как эти величины статистически независимы. В теории информации доказывается (например, [10)), что прн заданной дисперсии случайной величины наибольшая дифференциальная энтропия обеспечивается пря нормальном распределении ее вероятностей. Следовательно, 1г(Ад, аа) имеет наибольшую величину, если Аа=ал +ая явпяется случайной величиной с нормальным распределением вероятностей. Так как па имеет нормальное распределение, то для этого необходимо н достаточно, чтобы аа также имело нормальное распределснис. До сих,пор мы рассматривали только дискретные наборы сигналов, и ах является, вообще говоря, дискретной случайной величиной, число значений которой не превосходит основания кода пг. Полученный сейчас результат означает, что для осуществления максимума 1(Ад, ад) нужно беспредельно увеличивать основание кода т, чтобы аа ястремилось» к непрерывной случайной величине.
Итак, максимальная величина 1т(Ая, аа) может быть вычислена из (3.77), если положить, что Ая имеет нормальное распределение с нулевым средним значением и дисперсией а + а , а ак †так же распределение с диаа 0' сперсией а . Дифференциальная энтропия для величины ч с нормальным распределением и дисперсией а' равна 12) 6 $) = — 1п (2ж~'). (3.78) Подставляя сюда значения аа для А„и ам находим г(Ан, пи) =ша1сй(Аь) — й(нн) = =- — 1и (2не (о,„+.оо )) 9 1п (2тсоо 1 = 1 а ь+ао 2 2 9 ав = — 1п ' натур.
ед. (3.79) Полное количество информации, переносимое при этих условиях всем сигналом, выразится суммой 'о Теперь для выполнения второго пункта намеченной программы нужно так распределить мощность Р, (3.74) между коэффициентами ряда Фурье, чтобы обеспечить максимум выражения (3.80). С этой целью обозначим 2 с н 2 н о +о =т1аи и о, +а =т)ьн. Тогда (3,80) можно переписать так: ь, 7 (з', г)= — 1пПт„нтьь — — В1по,, (3.81) 1 и-и 1 н а Ьа т' (т„ь+ тьи) —. 2Р, + Во, '= сопз1.
(3. 82) Известно", что максимум произведения величин, сум- и так как второй член не зависит от выбора сигналов и от распределения мощности между коэффициентами, то задача ь„ сводится к отысканию максимума произведения Пт1,нт1ьн ь. С другой стороны, из (3.74) следует мн которых задана, достигается тогда, когда все зти величины равны менсду собой.
Поэтому условием максимума (3.81) является т1 «=т1ьь=сопз(, откуда 9Ра =о =сопз1 = — '. аа аа Я Подставляя этот результат в (3.80) и1учитывая, что о,',=тн'1Т и В=-2ГТ, получаем опахнут (г', з).=- 9 В1п ~1+ ~', )= ГТ!и~1+ — '). (3.83) Здесь Р,=т'Р— мощность шума в полосе частот Г. Пропускная способность канала Полученная формула полностью совпадает с известным выражением К. Шеннона (2) для пропускной способности канала при белом шуме.