49506 (Энтропия сигналов), страница 2
Описание файла
Документ из архива "Энтропия сигналов", который расположен в категории "". Всё это находится в предмете "информатика" из 1 семестр, которые можно найти в файловом архиве . Не смотря на прямую связь этого архива с , его также можно найти и в других разделах. Архив можно найти в разделе "контрольные работы и аттестации", в предмете "информатика, программирование" в общих файлах.
Онлайн просмотр документа "49506"
Текст 2 страницы из документа "49506"
; .
При этом,
Решив уравнения, получим симметричный нормальный закон распределения
. (11)
Если среднюю мощность не ограничивать
то получим равномерный закон распределения.
Определим дифференциальную энтропию для нормального распределения, т. е. сигнала с ограниченной средней мощностью. Полученное в результате решения вариационной задачи нормальное распределение является симметричным. Если в интеграле для дифференциальной энтропии произвести замену x = y-mx, то интеграл не изменится, а значит, энтропия не зависит от математического ожидания и равна энтропии центрированной случайной величины.
Определим максимальное значение для энтропии:
Дифференциальная энтропия для нормального распределения равна:
(12)
Полная энтропия для нормального распределения равна:
. (13)
Если учесть что h(x)- это математическое ожидание функции [-log2 f(x)] от случайной величины x с плотностью f(x), то можно записать.
В соответствии с центральной предельной теоремой нормальным законам распределения подчиняются широкий класс, так называемых гауссовых случайных процессов или реальных сигналов.
Белый шум - помеха с наиболее ''зловредными" свойствами , т. е. передает максимальное количество вредящих сведений при заданной средней мощности и позволяет упростить расчеты для наихудшего случая.
Для того чтобы сигнал с ограниченной пиковой мощностью имел максимальную информативность необходимо, чтобы он имел равномерное распределение (рис. 9). Определим дифференциальную энтропию для равномерного распределения, т. е. сигнала с ограниченной пиковой мощностью. Если P-пиковая мощность, то - максимальная амплитуда. Уравнение для дифференциальной энтропии с учетом ограничений имеет вид:
Дифференциальная энтропия для равномерного распределения равна:
(14)
x(t) f(x)
c
A
0 2A t
-A -x -A 0 A x
Рис. 9. Сигнал с ограниченной пиковой мощностью и его распределение
Полная энтропия сигнала с равномерным распределением равна:
, (15)
где m-число уровней квантования.
Определим дифференциальную энтропию для экспоненциального распределения. Это распределение широко используется для определения интенсивности отказов в радиоэлектронной аппаратуре
Полная энтропия для экспоненциального распределения равна:
. (16)
Список Литературы
-
Коганов А. В. Векторные меры сложности, энтропии, информации. “Математика. Компьютер. Образование”. Вып. 7, ч. 2, “Прогресс-Традиция”, М., 2000, с. 540 — 546
-
Яглом А. М., Яглом И. М. Вероятность и информация. М., 1957.
-
Шеннон К. Работы по теории информации и кибернетике. — М.: Изд. иностр. лит., 1963. — 830 с.
-
Волькенштейн М. В. Энтропия и информация. — М.: Наука, 1986. — 192 с.
-
Цымбал В. П. Теория информации и кодирование. — М.: Выща Школа, 1977. — 288 с.
-
Вероятностные методы в вычислительной технике. /Под ред. А.Н. Лебедева, Е.А.Чернявского. –М.: Высш. шк., 1986.
-
Седов Е.А. Взаимосвязь информации, энергии и физической энтропии в процессах управления и самоорганизации. Информация и управление. М., Наука, 1986.