Лекции
Описание файла
Документ из архива "Лекции", который расположен в категории "". Всё это находится в предмете "теория информации" из 7 семестр, которые можно найти в файловом архиве РТУ МИРЭА. Не смотря на прямую связь этого архива с РТУ МИРЭА, его также можно найти и в других разделах. Архив можно найти в разделе "лекции и семинары", в предмете "теория информации" в общих файлах.
Онлайн просмотр документа "Лекции"
Текст из документа "Лекции"
МОСКОВСКАЯ ГОСУДАРСТВЕННАЯ АКАДЕМИЯ
ПРИБОРОСТРОЕНИЯ И ИНФОРМАТИКИ
КАФЕДРА АВТОМАТИЗИРОВАННЫХ СИСТЕМ ОБРАБОТКИ
ИНФОРМАЦИИ И УПРАВЛЕНИЯ (ИТ-7)
ДИСЦИПЛИНА "Теория информации"
Методические указания к курсу лекций.
Специальность 22.02.03 "Автоматизированные системы обработки
информации и управления"
Москва, 2002
УТВЕРЖДАЮ
Проректор по учебной работе
____________Проф. Соколов В.В.
" " 2002
АННОТАЦИЯ
Методические указания соответствуют программе курса “Теория информации” для студентов специальности 22.02.03. Рассматриваются следующие понятия: информация, сигал дискретный и непрерывный, канал, пропускная способность канала, спектр одиночного и периодического сигнала. Приводится теорема Котельникова. Понятия иллюстрируются многочисленными примерами, схемами, графиками. Целью методических указаний является помощь студентам при выполнении лабораторных и контрольных работ.
Авторы: Морозова Т.Ю.
Научный редактор: проф. Петров О.М.
Рецензент:____________________________________
Рассмотрено и одобрено на заседании кафедры ИТ-7
"__"____________2002 г. Зав. кафедрой __________О.М. Петров
Ответственный от кафедры за выпуск учебно-методических материалов
Неравенство Рао - Крамера
Пусть из результатов эксперимента необходимо найти некоторый параметр.
x – результат;
α - параметр
Неравенство Рао – Крамера отвечает на вопрос:
Какова предельная точность оценки параметра?
Полное описание эксперимента P(x, α )-это вероятность получить данный результат x эксперимента при конкретном значении искомого параметра α.
Пример: Студент предлагает измерять высоту небоскреба H0, карабкаясь по стене и последовательно прикладывая к ней барометр, длина которого L.
Предполагается , что L ~ N (L0, σ2), n- число раз , которое барометр уложится на высоте. Тогда n*L- результат измерения, H0- искомый параметр.
Второй предлагаемый способ: бросить барометр с крыши и засечь время между моментом броска и звуком удара. Цена деления секундомера - 1 с.
Если пренебречь другими источниками погрешности,
(g - ускорение свободного падения, V- скорость звука).
Выражения 1) и 2) это примеры полного описания эксперимента при различных физических принципах измерения и различных типах погрешностей.
Доказательство неравенства Рао-Крамера
Пусть - оценка искомого параметра . Матожидание оценки M , находим его , используя известную функцию P(x,α)
1= ( по определению) В дальнейшем опускаем пределы интегрирования, они везде -бесконечности.
0= ( Функцию под интегралом можно умножить и поделить на Р , от этого ничего не изменится , но выражения преобразуются.
Обозначим:
DX*Dz, и т.к.
g α α - это количество информации по Фишеру.
Путем непосредственных вычислений можно показать , что эту величину можно преобразовать и к другому виду
Если величина α однократно измерена прибором, погрешность которого распределена нормально со средним 0 и дисперсией 2 и получен отсчет х, то
Если имеем два независимых измерения, то:
т. е. информация в независимых экспериментах складывается.
Если в эксперименте определяется несколько величин α ( и соответственно результатов х должно быть не меньше), то такому эксперименту соответствует таблица величин
Gij-элементы информационной матрицы Фишера.
Если задача решается методом наименьших квадратов ,то
Gij=(ATWA)ij, где А- матрица планирования, W- обратная ковариационная матрица погрешностей эксперимента. Если эксперименты независимы и оценка дисперсии одного отсчета S2y , то матрица G - диагональна
Неравенство Рао-Крамера становися равенством , т.е. решение методом наименьших квадратов даёт наименьшую погрешность в оценке результата измерений.
Понятие информации по Шенону .
Рассмотрим некоторую систему: если эта система может находится
в состояниях: А1 А2 А3 ……………… Аm
с вероятностями: р1 р2 р3 ………………. рm,
то мы можем сказать что эта система обладает энтропией
Если же состояние этой системы определено, то можно сказать о том, что мы получили количество информации, равное энтропии системы
Единицей информации может служить один бит – информация о системе из двух равновероятных состояний:
- ½ ln ½ - ½ ln ½ = 1
Если система находится в одном из N равновероятных состояний, то количество информации равно:
Информация в независимых экспериментах складывается:
А1 А2…………… Аm B1 B2 ……………. Bn
P1 P2 …………… Pm P'1 P'2 …………… P'n
Пусть имеем K независимых систем. Каждая система имеет m состояний. При каком числе m энтропия будет максимальной , если Km=a ( постоянно)
lnm=1, т.е. наивыгоднейшее m= e=2.7. Технически удобно m=2, однако известны и "троичные" машины , элементы которых имеют по 3 устойчивых состояния.
Можно также показать, что система , имеющая N состояний обладает максимальной энтропией если её состояния равновероятны.
Получение информации о системе A в опыте B
- называется средней условной энтропией системы А при условии В.
Рассмотрим систему, состоящую из A : A1…Am и B: B1…Bn , причем все Ai , i=1..m, не совместны друг с другом и Bj , j=1..n, не совместны друг с другом, но Ai и Bj , для любого i и j, связаны между собой.
Система может находится в любом из состояний .
Из курса «Теория вероятности» известно, что
и
Отсюда непосредственно следует, что
Рассмотрим энтропию такой системы:
Из (*) и (**) получим, что
Таким образом
, т.к. А и В можно поменять местами.
Отсюда, в частности следует , что
Выведем формулу для количества информации, которую мы можем получить о системе A из опыта B.
Отсюда вытекает очень важное свойство, а именно:
Пример: по конвейеру идут детали A1-хорошие и A2 – бракованные: вероятность встретить хорошую деталь p(A1)=0.8 и бракованную – p(A2)=0.2. На конвейере установлен робот, который проверяет качество деталей: он может не забраковать (событие B1) или забраковать (событие B2) деталь. Вероятность не забраковать хорошую деталь p(B1/A1)=0.9, забраковать хорошую - p(B2/A1)=0.1 и забраковать бракованную - p(B2/A2)=1.
Из рисунка теперь видно, что
P(A1B1)=0.72
P(A1B2)=0.08
P(A2B1)=0
P(A2B2)=0.2
P(A1)=0.8
P(B1)=0.72
P(A2)= 0.2
P(B2)=0.28
Рассмотрим теперь случайную величину с непрерывной плотностью вероятности . Разобьем ось X на отрезки , таким образом вероятность попадания в интервал будет .
Если , то , где - дифференциальная энтропия.
Рассмотрим равномерное распределение.
Энтропия при равномерном распределении:
Из всех распределений с фиксированными концами равномерное имеет наибольшую энтропию.
Рассмотрим теперь нормальное распределение.
Из всех распределений с фиксированной дисперсией нормальное распределение имеет наибольшую энтропию.
Пример 1: Во сколько раз мощность равномерно распределенного сигнала (с параметром ) должна быть больше нормально распределенного (c параметрами и , чтобы они имели одинаковую энтропию?
Пусть , тогда , где - средняя мощность сигнала.
Для нормального распределения: .
Для равномерного : .
Отсюда видно, что
Пример 2:
x -истинное значение сигнала.
- измеряемое значение сигнала.
Величина называется «эпсилон энтропия».
Пример 3:
- измеряемое значение сигнала.
- при условии, что и независимы.
EMBED Equation.3 ,
то
. ( информация , содержащаяся в одном отсчете сигнала , среднее значение которого равно 0, если Рпол- мощность полезного сигнала, Ршум- мощность шума).
Информационные характеристики источников информации и каналов связи.
Последовательность знаков можно рассматривать как сообщение.
Если у нас источник вырабатывает определённый набор знаков, то это источник дискретных сообщений.
При этом, если появление каждого знака независимо от того что было до него, то это источник с независимыми знаками.
Если вероятность появления любого знака не зависит от времени, то источник носит название стационарного.