Прокис Дж. - Цифровая связь (1266501), страница 17
Текст из файла (страница 17)
В порядке обобщения двухмерного преобразования Л "~Х1 шуссовских случайных величин из а) определите, какие свойства должны быть у матрицы (преобразование) А лля того„чтобы ФПВ Х и 1', где У = АХ, Х = (Х, Хз Х„) и т' = (У, Уз...У„), баши бы одинаковыми 2.6, Случайная величию 1' определяется как У = 2, Х,, где Х,, ~-"1, 2, ... и — стзтжтически независимые случайные величины, причем 1 с вероятностью р, О с вероятностью 1- р. з) Определите характеристическую функцию У.
Ь) Прн помощи характеристической функции определите момент Е(У) и Е(Уз) 2,7, Четыре случайные величины Хь Х, Х,, Хе явлаагся совместно гауссовскими с нулевыми средними, с тпвзрюцией )го = Е(Х,Х,) и характеристической функцией Е~()о,.уо„уоз,уо~) . Покажите, чта Е(ЖЛ з ХэХк ) =!ко Рза+й1 з )гы+П пап 2.8. При помаши характеристической функции для центрального и нсцентрального хн-квадрат- ';::;-, распределения случайных величин, определяемых соответственно по формулам (2.1.109) и 12.!.117), -':, определите соответствующие первые и вторые моменты (формулы (2.1.1! 2) и (2.1.125)).
29. Случайная величию Х распределею по Коши с ФПВ и/ 1г р(х)=,— сючх< и. х +а а) Определите среднее и дисперсию Х. л„Ь) Определите характеристическую функцию Х 2,1й. Случайназ величина У определена как и У = — 2, Х,, где Х, . /=1, 2, ..., и — стазмстически нцягвиснх ые и одинаково распределенные случайныс и,м еезнчнны, каждая из которых имеет распределение Коши нз задачн 2.9. а) Определите характеристическую функцию У Ь) Определите ФПВ для Г с) Рассмотрите ФПВ У в пределе при и — мо. Работает ли центральная предельная теорема? Обоснуйте ваш 2,П. Предположим, что случайные процессы Х(г) и У(г) аытяются совместно и па отдельности ,;;,!: стдционарными а) Определите функцшо автокорреляцин 2(г)=Х(г)+У(г) Ь) Определите автокорреляционную функцию 2(г) для случае, когда Х(г) и У(1) не каррелнрованы.
с) Определите анпжорреляцианную функцию для случая, когда Х(г) и У(г) явлшатся некоррелировзнными " алмеют нулевые средние 2 12. Функция автокоррелеции случайного процесса Л(Г) определяется так: ф „( г) = "„-Фьб(т) . Такой процесс нззьвшется бялым шумом. Пусть Х(г) является входом дш идеального полосового фильтра вчестотиой характеристикой, показанной на рис. 2.12. Определите суммарную мощность шума из выходе . ": фгиьт)ьз Рис.
Р2.12 М11 б М1з О рм О рм О 2.13. Дена кавариационная матрица случайных величин Хп Х и Хк. Осуществлено линейное преобразование У=АХ, где ( ( 01. Определите ковариационную матрицу для У 2.1б. Входным воздействием цепи, показапнаи на рис. 2.16, является случайный процесс Х(г) с Е(Л (1)) = О. и ф и = а Ь(т), т.е. Х(!) яыяется белым шумам. а) Определите спектрюцную плотность мощности вььхвда Ф,И. Ы Определите ф (т) н Е((У (1)1.
2.17. Докамапс справедливость (2,2.33). 2 18. Докажите, используя границу Чернова, что О(х) л е'" /т, глс О(х) определяется (2.1.97). 2.19. Определите среднее, автокорреллционную последавкгельность и спектральную платность мощности для сигнкьта на выходе системы (цифрового фильтра) с импульсной характеристикой (п '= О) и(и = -2 (и = 1) 1 (п=2) О (для других и), сели входной слу ийный процесс Х(п) является белым шумом с дисперсией о ... 2.20. Автокорреляциоиная последовательность дискрепюго ва времени случайного ироцесса равна ф(й) = (Л)"' Определите его спектральную плотность мощности.
2.21. случайный процесс с дискретным временем х(п) и х(пт) получен периодическим страбироваинем стационарного процесса Х(г) с непрерывным временем и нулевыкк средним, где 7'- период стробирования, т.е. /; = 1/Т является скоростью выборки отсчетов. а)Определите соотношения между функцией ввтакорреляцни сигнаал Х(г) и авгакоррсляционнай последовательностью его отсчетов Х(я). й) Выразите спектральную плотность мощности процесса Л(и) через спектральную цлотнасть мощности 72 2. 14. Пусть Л(г) явлжтся вещественным стационарным гауссовским процессом с ну левым средним. Пусть новыи процесс определен как У(г) = Х (г).
Определите автокорреляционную фуикцшо у(1) через явтокарреляаионнуко функцию Х(г). Подсказка: ислолиуйге результат для гауссовских случайных вели ши из 'идачн 2. 7, 2.15. Дяя ФПВ Накагами (формула 2.1.147) олределике нормированную случайную величину Х = й/йк1. Найдите ФПВ дляХ процесса Х(1). с) Определите условия, прн которыч спектральная плотность мощности Л(») равна спектральной плотности мощности Х(г), 2.22. Рассмотрим частотно-ограниченный стационарный слу ейный процесс Х(г) с нулевым средним и спеьт1мльией плопюсп ю мощности (квазибелый случайный процесс) ~1, [Я~й, [б, [/[>И~.
Дла образования пропала с дискретным временем Х(»)=Х(»7) берутся отсчеты Х(г) со скоростью /„= 1/Т. а) Определите выражение для авгокорреляццонней последовательностиХ(»). Ь) Определите минимальное значение Т, необяодимое дчя получения «белой» песледощтельностн (сяект(жчьно ровной). с с) Повторите Ц для случая, когда спектральная плотность для Х(г) определена как ) Г1-[/[/й', И я й', — О, [Я>!Г. 2.23. Покажите, 'по функции ьтп[2я)г'(» - — й уп .~~, а=о,*1*2... млякпсяортогональиымина интервале [ ю,«], т. е.
[:л()а) = ~,', Следовательно, формулу из теоремы отсчетов можно рассматривать как преаставление частотно. опжииченного сигнала з(г) обобшйниым рядом Фурье„где веса разложения — это отсчеты сигнала з(г), а [/; (1)1 — ансамбль ортогональныл функций, используемыл в ортогональном разложении 2,2а. Эквивалентная шумовка полоса исгот системы опреяелена как В "-.().Цгт'(/')~ 4, гле „.',, ':.,: О=ам~)НЩ . Используя этоопределение,найдите эквивалентнуюшумовую полосу илжзльнего полосового :;;...::. ' фжзьтра. помазанного на рисунке Р2.12, и низкочастотного фильтра, показанного на рисунке Р2. 1б. КОДИРОВАНИЕ ИСТОЧНИКА Системы связи предназначены для передачи информации, создаваемой.
источником, до некоторого места назначения. Источники информации могут принимать множество различных форм. Например, в радиовещании источник выдает звуковой сигнал (речь или музыку). В телевизионном вещании выходом источника является, кроме звука, подвижное изображение. Выходы этих источников являются аналоговыми сигналами, и поэтому они называются анадогоеыми источниками. В противоположность этому компьютеры и устройства хранения информации, такие как магнитные илн оптические диски, имеют "): .
! Й дискретный выход (обычно двоичные или АЯСП символы), и поэтому их называют дискретннылки источниками. В то время как источники являются аналоговыми илн дискретными, цифровая система связи предназначается для передачи информации в цифровой форме. Следовательно, выход источника должен быть преобразован в формат. который может быть передан как цифровой.
Это преобразование выхода источника в цифровой формат обычно осуществляется кодером источника, выход которого может быть представлен последовательностью двоичных цифр. В этой главе мы рассмотрим кодирование источника, основанное на математических моделях источников информации и количественном измерении информации„выдаваемой источником. Сначала мы рассмотрим кодирование дискретных источников и затем обсудим кодирования аналоговых источников. Мы начнем с рассмотрения математических моделей для источников информации. 3.1. МАТЕМАТИЧЕСКИЕ МОДЕЛИ ДЛЯ ИСТОЧНИКОВ ИНФОРМАЦИИ Произвольный источник информации создает выход, который является случайным, т.е. выход источника характеризуется статистически.
Действительно, если выход источника известен точно, то нет нужды его передавать. В этом разделе мы рассмотрим дискретные н аналоговые источники информации и сформулируем математические модели для каждого ".1.: типа источника. Простейший тип дискретного ' источника — это такой, который выдает последовательность букв (символов), выбираемых из определенного алфавита. Например, даончный иппочник выдает двоичную последовательность .вида 100101110..., причем алфавит состоит из двух символов (О, 1). В более общем случае источник дискретной информации с алфавитом из ь символов, скажем (хь х2, ..., хД, выдает последовательность букв, выбираемых из этого алфавита.
Чтобы конструировать математическую модель для дискретного источника, ",:: предположим, что каждый символ алфавита (хь х2, ..., хД имеет заданную вероятность выбора р,, т.е. ра=Р(Х=х1), 1 < к < А, ' АБСН вЂ” американский стандартный код дая информационного обмена (прп) ()- т, '~ л 1з1п12лО~(1 зк)1 ~2й) г ИР-, ) (3.1.1) где Х((л/2И')) — отсчеты процесса Х(г)„взятые со скоростью Найквнста /„=25' 1/с, Используя теорему отсчетов, мы можем преобразовать аналоговый источник в эквивалентный источник с дискретным временем.
После этого выход источника характеризуется совместной ФПВ р(кн хь ..., х„„) для всех т~1„где Х, = Х(л/2Ж), 1 < и < т, — случайные величины, соответствующие отсчетам Х(1). Заметим, что выходные отсчеты Х ((л/21г')) стационарного источника обычно непрерывны, и, следовательно, их нельзя представить в цифровой форме без потери точности представления. Например, мы можем квантовать каждый отсчбт рядом дискретных значений, но процесс квантования вносит потери в точность представления, и, следовательно, исходный сигнал не может быть восстановлен точно по квантованным отсчетам. Позже мы рассмотрим искажения, возникающие при квантовании уровней отсчетов аналогового источника, 3.2.
ЛОГАРИФМИЧЕСКАЯ МЕРА ИНФОРМАЦИИ Чтобы разработать подходящую меру для информации, рассмотрим две дискретные случайные величины Х и У с возможными значениями хь 1=1, 2, ..., л, и у, у'=1, 2, ..., т, аоответственно. Допустим„мы наблюдаем некоторый выход У=у» и мы желаем .;::::: -:количественно определить величину информации, которую обеспечивает выборка события ь г'=,у относительно события Х=хь 1=1, 2, ..., л.
Заметим, что если Х и У статистически не зависят друг от друга, выбор У'=у не дает информации о выборе события Х х,. С другой := стороны, если Х и У полностью зависимы, так что выбор )'=у однозначно определяет выбор ::.-' Х.гь информационное содержание этого выбора точно такое же, как при выборе события 75 где Х„, =1. lс ! Мы рассмотрим две математические модели для дискретных источников. В первой мы предположим, что символы выходной последовательности источника статистически независимы, т.е, выбираемый текущий символ статистически независим от всех предьщущих и последующих. Источник, выход которого удовлетворяет условиям статистической независимости символов в выбранной последовательности, называется источником без памяти. Такой источник называется дискретным источником без памяти (ДИБП).
Если отдельные выходные символы дискретного источника статистически взаимозависимы, как, например, в английском тексте, мы можем сконструировать математическую модель, основанную на статической стационарности. По определению ' дискретный источник называется стациоларпым, если совместные вероятности двух последовательностей длины л, допустим аь аъ ...,а, и а~+„„ аз+,„, ...„ и,„,„, одинаковые для всех о > 1 и при всех сдвигах т, Другими словами, совместные вероятности для последовательностей источника произвольной длины инвариантны по отношению к произвольному сдвигу во времени. Аналоговый источник вьщает сигнал х(Г), который является реализацией случайного .,::.' ': процесса Х(г).