КП - Условие - 2013 (1266526), страница 3
Текст из файла (страница 3)
Так, в известном кодеМорзе самой частой букве «е» соответствует самая короткая комбинация, состоящая из единственной точки, а сравнительно редкая в русскоязычных текстах буква «ш» кодируется четырьмя тире, разделенными паузами. Некоторые коды, называемые примитивными, не учитывают статистических свойств источника; таков, например, известный код Бодо, все комбинации которого имеют равную длину. Такиекоды называют равномерными. Очевидно, эффективный код обязательно должен быть неравномерным.13В курсовой работе предполагается использование двоичного кода.В зависимости от подварианта применяется процедура построения кода Шеннона–Фано или Хаффмена. Первым шагом обеих процедур является расположение всех символов алфавита источника по вертикалив порядке убывания априорных вероятностей.
Далее символы источника будут называться буквами, чтобы не путать их с символами кода.Дальнейшие шаги направлены на то, чтобы наименее вероятным буквам поставить в соответствие наиболее длинные кодовые комбинации.Кодирование источника по методу Шеннона–Фано1. Все буквы, расположенные по вертикали в порядке убывания априорных вероятностей, разделяются на две группы – верхнюю и нижнюю, так что сумма вероятностей внутри групп оказывается одинаковой или примерно одинаковой. В качестве первого символа кодовогослова каждой букве верхней группы присваивается один кодовый символ (пусть это будет 0), а каждой букве нижней группы – другой кодовый символ (это будет 1).2.
Верхняя и нижняя группы разделяются на подгруппы в соответствии с тем же принципом равной вероятности, затем в качестве второго символа кодового слова каждой букве первой подгруппы присваивается кодовый символ 0, а каждой букве второй подгруппы – кодовый символ 1. Это делается независимо для верхней и нижней группсимволов алфавита.3. Каждая подгруппа вновь разделяется на две части с соблюдением принципа равной (или близкой) вероятности, и к кодовым комбинациям справа дописываются символы 0 или 1 в зависимости от того, вверхней или нижней части находится буква. Эта процедура продолжается до тех пор, пока алфавит источника не будет исчерпан, т.е.
пока вкаждой подгруппе не останется по единственной букве.Кодирование источника по методу Хаффмена1. В вертикальной записи букв в порядке убывания априорных вероятностей две нижние буквы соединяются скобкой, из них верхнейприписывается символ 0, нижней 1 (или наоборот). Эти символы становятся последними символами кодовых комбинаций, соответствующих данным буквам.2. Вычисляется сумма вероятностей, соответствующих этим буквам.143. Все буквы снова записываются в порядке убывания вероятностей, при этом только что рассмотренные буквы «склеиваются», т.е.учитываются как единая буква с суммарной вероятностью.4.
Повторяются шаги 1, 2 и 3 до тех пор, пока не останется ни одной буквы, не охваченной скобкой.Скобки после завершения процедуры образуют граф – дерево, корню которого соответствует вероятность 1, а листьями являются буквы.Чтобы получить кодовую комбинацию для некоторой буквы, нужнопройти по дереву от корня до соответствующего листа, записывая встроку последовательно все символы 0 или 1, встречающиеся на этомпути.Необходимо обратить внимание на следующее свойство кодовШеннона–Фано и Хаффмена: ни одна кодовая комбинация не являетсяначалом какой-либо другой кодовой комбинации (это так называемоепрефиксное свойство).
Префиксные коды называют мгновенными, потому что они обеспечивают однозначное декодирование каждой кодовой комбинации сразу по достижении её конца.Одной из важнейших характеристик эффективного кода являетсясредняя длина кодового слова (кодовой комбинации)K p (i )i ,i 1где i – длина кодового слова, соответствующего символу i исходного алфавита. Чем меньше средняя длина, тем выше скорость передачи информации при помощи данного кода, тем сильнее этот код сжимает сообщения.Очевидно, что закодированное сообщение можно рассматриватькак последовательность кодовых символов (нулей и единиц), порождаемую неким новым источником, для которого снова можно вычислить энтропию и избыточность.
Избыточность этого нового источника(избыточность кода) должна быть меньше, чем избыточность исходного источника. При идеальном кодировании избыточность кода равнанулю. При этом его энтропия должна быть максимальной, а значит,кодовые символы должны быть равновероятны. Если код двоичный, томаксимальная информационная «нагрузка» на символ равна 1 биту.Таким образом, оценить степень близости построенного кода к оптимальному можно по избыточности кода и по близости друг к другу15вероятностей кодовых символов, которые рассчитываются согласноформуламK р(i )n1 (i )p(1) i 1K р(i )n0 (i ), p (0) i 1,где n1 (i ) и n0 (i ) – количество единиц и нулей в кодовой комбинации, соответствующей символу i исходного алфавита.Скорость передачи информации I ' по каналу без помех определяется только временем передачи одного кодового символа (равным длительности посылки ), средней длиной кодового слова и среднимколичеством информации, заключенной в кодовом слове, равным энтропии H ( ) исходного источника.
Нетрудно видеть, чтоI ' H ( ) / () .Когерентный прием сигналов на фоне шумаВ курсовой работе рассматривается цифровая демодуляция – восстановление кодовых символов 0 или 1 на основе наблюдения реализации случайного процесса на выходе линии связи. При этом предполагается, что наблюдаемый процесс представляет собой сумму сигналаs (t ) с шумом, если передается символ 1, и только шум – если передается 0.
Сигнал в самом простом случае является точно известным, анеопределенность, связанная с передачей информации, заключается всамом факте его наличия или отсутствия в наблюдаемом процессе. Ошуме также известно все, что может быть известно о случайном процессе, а именно: шум считается гауссовским с нулевым средним, известной дисперсией и спектральной плотностью мощности N 0 / 2 , постоянной в полосе частот, в которой сосредоточено 99 % энергии сигнала, и равной нулю вне этой полосы.Самый простой (но не самый эффективный) способ приема заключается во взятии отсчёта (измерении мгновенного значения) наблюдаемого процесса z (t ) в некоторый момент времени t0 и сравненииего с порогом yп .
На основании этого однократного отсчетаy z (t0 ) и принимается решение о том, есть сигнал в наблюдаемом16колебании или оно представляет собой реализацию только шума (иными словами, выполнена гипотеза H1 или H 0 ). Очевидно, точно знаясигнал, следует выбрать в качестве t0 такой момент, когда сигнал s (t )принимает максимальное значение. Но шум в это время может принятьотрицательное значение, так что сумма сигнала с шумом может оказаться ниже порога. Тогда демодулятором будет принято решение оботсутствии сигнала в наблюдаемой реализации, то есть произойдетошибка, называемая ошибкой второго рода, или пропуском сигнала.Аналогично при отсутствии сигнала шумовая реализация может в момент t0 превысить порог – тогда произойдет ошибка первого рода, илиложная тревога. Чтобы найти наилучшее значение порога и рассчитатьвероятности ошибок, нужно рассмотреть условные плотности распределения вероятностей шума w( y | H 0 ) и суммы сигнала и шумаw( y | H1 ) в момент времени t0 , рис.
1. Буквой a обозначено амплитудное значение прямоугольного радиоимпульса s (t ) .w( y | H 0 )p10w( y | H1 )yп аp01yРис. 1. Выбор порога при когерентном приемеИз рисунка легко видеть, что вероятности ошибок первого p01 ивторого p10 рода определяются как площади фигур, ограниченныхосью y , вертикальной прямой, проходящей через точку yп на осиабсцисс, и графиком плотности w( y | H 0 ) и w( y | H1 ) соответственно.Если в качестве критерия оптимальности выбран критерий минимумасуммарной условной вероятности ошибки, то следует выбрать порог,равный абсциссе точки пересечения плотностей (очевидно, что при17этом сумма площадей заштрихованных фигур минимальна).
Тогда решение на основании отсчета y будет приниматься в пользу той гипотезы, для которой больше значение w( y | H 0(1) ) , то есть которая приданном наблюдаемом отсчете представляется более правдоподобной.Это правило можно записать в видеw( y | H1 ) 1,w( y | H 0 )где – отношение правдоподобия. Критерий минимума суммарнойусловной вероятности ошибки обычно называют для краткости критерием максимального правдоподобия. Этот критерий является частнымслучаем критерия минимума среднего риска (байесовского критерия)при одинаковых стоимостях ошибок и равных априорных вероятностях гипотез.В курсовой работе следует применять критерий идеального наблюдателя (Котельникова), согласно которому порог выбирается так, чтобы обеспечить минимум средней вероятности ошибкиpош p0 p01 p1 p10 ,где p0 – априорная вероятность гипотезы H 0 («сигнала нет»), p1 –априорная вероятность гипотезы H1 («сигнал есть»).
Выбор порога,оптимального по этому критерию, можно пояснить графически припомощи рисунка, аналогичного рис. 1, если вместо условных плотностей w( y | H 0 ) и w( y | H1 ) изобразить графики функций p0 w( y | H 0 ) иp1w( y | H1 ) . Правило принятия решения, оптимальное по критериюКотельникова, можно записать через отношение правдоподобия в видеw( y | H1 )p 0.p1w( y | H 0 )Априорные вероятности гипотез, необходимые для выбора порога,вычисляются при выполнении пункта 2.2 задания, как вероятностиприсутствия в кодовой последовательности символов 0 и 1 соответственно.18Некогерентный прием сигналов на фоне шумаСлучай точно известного сигнала на практике является скорее исключением. Обычно некоторые параметры сигнала на приемной стороне канала связи неизвестны.
В курсовой работе рассматриваетсяприем сигнала, имеющего форму прямоугольного радиоимпульса сизвестной амплитудой и случайной начальной фазой, имеющей равномерное распределение в интервале 0, 2 . Строгое рассмотрение этого случая приведено, например, в учебнике [1]. Физический смысл некогерентного приема методом однократного отсчета сводится к следующему: поскольку начальная фаза несущего колебания неизвестна(случайна), теперь нельзя выбрать момент t0 измерения мгновенногозначения так, чтобы значение сигнала s (t0 ) было максимальным.