Прокис Дж. - Цифровая связь (1266501), страница 23
Текст из файла (страница 23)
Минимальная скорость кодирования, необходимая для представления ':;. '~=:" выхода дискретного во времени, непрерывного по амплитуде гауссовского источника без :-.::::::: памяти, при использовании в качестве меры искажения среднеквадратической ошибки на символ (односимвольная мера искажения) ф!оя,(а, /В) (0<В<гг, ), Я (В) 2 ™ 2 (3.4.б) О (В>а, ), где а, — дисперсия выхода. гауссовского источника. отсчет) источника является достаточной для восстановления исходного сигнала со средним искажением, которое является произвольно близким к Р. Это очевидно, потому что функция скорость-искажение Я(Р) для любого источника представляет нижнюю границу скорости источника, которая является возможной для данного уровня искажения.
Вернемся к результату в (3.4.6) для функции скорость-искажение гауссовского источника без памяти. Если мы поменяем функциональную зависимость между. Р и Л, мы можем выразить Ря через )г как Р„(Я) =2 '"о„. (3.4.7) Эта функция называется функцией искажение-скорость для дискретного во времени гауссовского источника без памяти Если искажение в (3.4.7) выразить в децибелах, мы получаем 101ой„Рх(Н) = -бл+101ой„о, . (3.4.8) Заметим, что среднеквадратическое искажение уменьшается со скоростью 6 дБ!бит. Явных выражений для функции скорость-искажение для негауссовских источников без памяти не существует. Однако имеются полезные верхние и нижние границы функции скорость-искажение для произвольного дискретного по времени, непрерывного по амплитуде источника без памяти.
Верхняя граница дается следующей теоремой. (3.4.13) Теорем»: Верхнаи граница для Я(Р) . Функция скорость-искажение непрерывного по 2 амплитуде источника без памяти с нулевым средним и конечной дисперсией а, при использовании среднеквадратичной меры искажений ограничена сверху величиной л(Р)<ф1оя,— ' (0<Р<а„). (3.4.9) Р Доказательство этой теоремы дано Бергером (1971). Подразумевается, что гауссовский источник требует максимальную скорость кодирования среди всех других источников при заданном уровне среднеквадратичес кой ошибки.
Следовательно, функция скорость- искажение )г(Р) для произвольного непрерывного источника без памяти с нулевым средним и конечной дисперсией с~, удовлетворяет условию Н(Р) < Р,,(Р). Аналогично функция искажение-скорость того же источника удовлетворяет условию Р(Я)<Р,,(Я)=2 з"о,~. (3.4.10) Существует также нижняя граница функции скорость-искажение.
Ее называют нижней границей Шеннона для среднеквадратической ошибки искажения, и она определяется так: Л*(Р) = л(Х) — —,' 1оа, 2 Р, (3.4.11) где Ь(Х) — дифференциальная энтропия источника без памяти с непрерывной амплитудой. Функция искажение-скорость, соответствующая (3.4;11), равна Р р) 2-ля-мхл (3.4.1 2) 2ле Следовательно, функция скорость-искажение для произвольного источника без памяти ::: :;. с непрерывной амплитудой ограничена сверху и снизу: ~'(Р) < 71(Р) ~ Яя(Р), и соответствующая функция искажение-скорость ограничена: Р ()г) < Р(1г) ь Р, ()г) . (3.4.14) Дифференциальная энтропия гауссовского источника без памяти 6„(Х) = з~ 1ой, 2яео,, (3.4.1 5) ::::," так что нижняя граница Я (/3) в (3.431) уменьшается до Я„(/?).
Теперь, если выразить /3 (Я) в децибелах и нормировать к о, =1 [или деля /3'(Я) на о„з1, мы получаем из (3.4.12) 10 1ок30 /7'(л) = -бя -6А(Х) — Ь(Х)) (3.4.1 6) Таблица 3.4.1. Дифференциальная энтропия и сравнение скорости и искажениИ четырех распространенных ФПВ для моделей сигнала // (П)-К (и) ΄٠— /9 Щ й(Х) бит/отсчбт (дБ) р(х) ФПВ -," 1ой, г ~; 1о8, 12о„' 41ой, 2е'о, (4 0,433 Й /3) ~~',~ Ъ, 2 /за, — -/1~х1/а„ ",/з Р ~ 1 -Гз~»~/ы„ а Гауссовское Равномерное Лапласа 0,255 1,53 0,62 0,104 4,25 0,709 Гамма Следовательно, эквивалентный дискретный во времени гауссовский источник является источником без памяти. Функция скорость-искажение для каждого отсчета дается (3.4.6) Поэтому функция скорость-искажение для белого гауссовского источника с ограниченной полосой частот в бит/отсчйт равна 9 — 56 97 или, что эквивалентно, 101ойд —" — =616к(Х)-Ь(Х)1 дБ= 6(Я„(/3) — /1~(/3)1 дБ.
(3,4.17) к( 4О /3~,(й) к Соотношения в (3.4.16) и (3.4,17) позволяют сравнивать нижнюю границу искажений с верхней границей, которая определяет искажения для гауссовского источника. Обратим внимание, что /9*(Я) также уменыпается со скоростью — бдБ/бит, Мы должны также отметить, что дифференциальная энтропия Ь(Х) ограничена сверху величиной л (Х), как показано Шенноном (1948Ь). .В табл. 3.4.1 даны четыре типа ФПВ, которые являются моделями распределения, обычно используемыми для источника сигнала.
В таблице даны значения дифференциальной энтропии, различия в скорости (бит на отсчет) и различия в искажении между верхней и нижней границами. Заметим, что гамма-распределение показывает самое большое отклонение от гауссовского. Распределение Лапласа наиболее близко к гауссовскому. а равномерное распределение занимает второе место по близости среди ФПВ, показанных в таблице. Эти результаты дают некоторое представление о различии между верхними и нижними границами искажений и скорости. Перед завершением этого раздела рассмотрим гауссовский источник с ограниченной полосой частот со спектральной плотностью (3.4.1 8) 10 (~ /')> И'). Если выход этого источника дискретизирован с частотой Найквиста, его отсчЕты ::;: некоррелированны и, так как источник гауссовский, они также статистически независимы.
(3.4.20) А„(П)=И'1ой —" (0<О<ст, ). (3.4.19) Соответствующая функция искажение-скорость Вх(Я) =2 о, . Выражая в децибелах и нормируя к о„, получаем 101оййя(Я)/о„= — ЗЯ/И'. (3.4.21) Большое количество случаев, в которых гауссовский процесс не является ни белым, ни с ограниченной полосой, бьпю рассмотрено Галлагсром (1968) и Гобликом и Холсингером (1967). 3.4.2. Скалярное квантование При кодировании источника квантователь может быть оптимизирован, если известна ФПВ уровней сигнала на входе квантователя.
Например, предположим, что последовательность (х„1 на входе квантователя имеет ФПВ р(х) и А=.2 — желаемое число Й уровней квантования. Необходимо рассчитагь оптимальный скалярный квантователь, который минимизирует некоторую функцию ошибки квантования 9 = х — х, где х— квантованное значение х. Для дальнейшей разработки предположим, что 1 (х — х) определяет желательную функцию ошибки. Тогда искажение, возникающее за счет квантования сигнальных уровней, равно .$: О = ) у (х — х) р(х)пх. (3.4.22) В общем, оптимальный кваптователь минимизирует'О путем оптимального выбора;:,'.-":, выходных уровней и входного диапазона для каждого выходного уровня. Эту, -,'; оптимизационную проблему рассматривали Ллойд (1982) и.Макс (1960), и полученный::.';." оптимальный квантователь назван квантователсм Ллойда †Мак.
У равномерного квантователя выходные уровни определяются как х, = !(21г -1)и для ';!';: амплитуды входного сигнала в диапазоне (к-1)э < х < хо, где и — размер шага ',, квантования. Если квантоватсль симметричен (отиосительно нуля) с конечным числом .,",;~:;-' уровней, среднее искажение (3.4.22) может быть выражено в виде Л 2-! 0=2 ) ~ уЯ(21г-.1)!.'!-х)р(х)сЬ+2~ Я-(21г — 1)Л вЂ” х)р(х)от..
- (3.4.23) й=! В этом случае минимизация О выполняется с учетом параметра размера шага !з. Путем дифференцирования 13 по Л получаем ! о-! Ь ,'> (27г-1)) ~(ф(2Й вЂ” !)Л-х)р(х)!Й+(Х-1)) у'Я(А — 1)!!-х)р(х)сй=0, (3.424) -,',, ° й ! где у'(х) означает производную ~(х). При выборе критериальной функции ошибки Ях) ': можно получить численное решение (3.4.24) для оптимального размера шага па::.' компьютере для произвольной заданной ФПВ р(х).
Для среднеквадратичного критерия.-' -. ошибки, кодаЯх)=х~, Макс(1960) рассчитал оптимальный размер шага Ь,„, и минимальное „' значение среднеквадратической ошибки, когда ФПВ р(х) является гауссовской с нулевым,::, средним и единичной дисперсией. Некоторые из этих результатов даны в табл.
3.4.2. Таблица 3.4,2. Оптимальные размеры шага при равномерном квантовании гауссовских случайных величин Минимум СКО 10!8 73„„„(дБ) Мй,. Оптимальный размер шага Л,„„ Число выходных уровней -4,4 — 9,25 — 14,27 — 19,38 — 24„57 0„3634 0,1188 0,3744 0,01154 0,00349 1,596 0,9957 0,5860 0,.3352 0,1881 2 4 8 16 32 снова минимизируется путем оптимального выбора (х, ~ и (х, ~.
Необходимые условия для минимальных искажений можно получить дифференцированием 0 по (х,~ и (х„~. Результат такой оптимизации выражается двумя уравнениями: Ях — х,)=~'(х„„-х ), /с=1,2,...,Л-1, (3.4.26) у'(х — х)р(х)с(х= О, к =1, 2, ...,Е (3.4.27) ,.-е:,:-' Как частный случай мы снова рассмотрим минимизацию среднеквадратических ::=, ' значений искажений. В этом случае, Дх) = х', и, следователыю, из (3.4.26) следует х~ = — '(х,, +х~н). й =1, 2„...,А — 1, (3.4.28) ".;,::;":. что является среднеарифметическим х, и х„,, Соответствующие уравнения, ,'к„' определяющие (х, ~, ~ (х,-х)р(х)сй=О, /с=1,2, ...,Х. (3,4.29) и р(х) между х„, и х,.