Лекции (1086291)
Текст из файла
МОСКОВСКАЯ ГОСУДАРСТВЕННАЯ АКАДЕМИЯ
ПРИБОРОСТРОЕНИЯ И ИНФОРМАТИКИ
КАФЕДРА АВТОМАТИЗИРОВАННЫХ СИСТЕМ ОБРАБОТКИ
ИНФОРМАЦИИ И УПРАВЛЕНИЯ (ИТ-7)
ДИСЦИПЛИНА "Теория информации"
Методические указания к курсу лекций.
Специальность 22.02.03 "Автоматизированные системы обработки
информации и управления"
Москва, 2002
УТВЕРЖДАЮ
Проректор по учебной работе
____________Проф. Соколов В.В.
" " 2002
АННОТАЦИЯ
Методические указания соответствуют программе курса “Теория информации” для студентов специальности 22.02.03. Рассматриваются следующие понятия: информация, сигал дискретный и непрерывный, канал, пропускная способность канала, спектр одиночного и периодического сигнала. Приводится теорема Котельникова. Понятия иллюстрируются многочисленными примерами, схемами, графиками. Целью методических указаний является помощь студентам при выполнении лабораторных и контрольных работ.
Авторы: Морозова Т.Ю.
Научный редактор: проф. Петров О.М.
Рецензент:____________________________________
Рассмотрено и одобрено на заседании кафедры ИТ-7
"__"____________2002 г. Зав. кафедрой __________О.М. Петров
Ответственный от кафедры за выпуск учебно-методических материалов
Неравенство Рао - Крамера
Пусть из результатов эксперимента необходимо найти некоторый параметр.
x – результат;
α - параметр
Неравенство Рао – Крамера отвечает на вопрос:
Какова предельная точность оценки параметра?
Полное описание эксперимента P(x, α )-это вероятность получить данный результат x эксперимента при конкретном значении искомого параметра α.
Пример: Студент предлагает измерять высоту небоскреба H0, карабкаясь по стене и последовательно прикладывая к ней барометр, длина которого L.
Предполагается , что L ~ N (L0, σ2), n- число раз , которое барометр уложится на высоте. Тогда n*L- результат измерения, H0- искомый параметр.
Второй предлагаемый способ: бросить барометр с крыши и засечь время между моментом броска и звуком удара. Цена деления секундомера - 1 с.
Если пренебречь другими источниками погрешности,
(g - ускорение свободного падения, V- скорость звука).
Выражения 1) и 2) это примеры полного описания эксперимента при различных физических принципах измерения и различных типах погрешностей.
Доказательство неравенства Рао-Крамера
Пусть - оценка искомого параметра . Матожидание оценки M
, находим его , используя известную функцию P(x,α)
1= ( по определению) В дальнейшем опускаем пределы интегрирования, они везде -бесконечности.
0=
( Функцию под интегралом можно умножить и поделить на Р , от этого ничего не изменится , но выражения преобразуются.
Обозначим:
DX*Dz, и т.к.
g α α - это количество информации по Фишеру.
Путем непосредственных вычислений можно показать , что эту величину можно преобразовать и к другому виду
Если величина α однократно измерена прибором, погрешность которого распределена нормально со средним 0 и дисперсией 2 и получен отсчет х, то
Если имеем два независимых измерения, то:
т. е. информация в независимых экспериментах складывается.
Если в эксперименте определяется несколько величин α ( и соответственно результатов х должно быть не меньше), то такому эксперименту соответствует таблица величин
Gij-элементы информационной матрицы Фишера.
Если задача решается методом наименьших квадратов ,то
Gij=(ATWA)ij, где А- матрица планирования, W- обратная ковариационная матрица погрешностей эксперимента. Если эксперименты независимы и оценка дисперсии одного отсчета S2y , то матрица G - диагональна
Неравенство Рао-Крамера становися равенством , т.е. решение методом наименьших квадратов даёт наименьшую погрешность в оценке результата измерений.
Понятие информации по Шенону .
Рассмотрим некоторую систему: если эта система может находится
в состояниях: А1 А2 А3 ……………… Аm
с вероятностями: р1 р2 р3 ………………. рm,
то мы можем сказать что эта система обладает энтропией
Если же состояние этой системы определено, то можно сказать о том, что мы получили количество информации, равное энтропии системы
Единицей информации может служить один бит – информация о системе из двух равновероятных состояний:
- ½ ln ½ - ½ ln ½ = 1
Если система находится в одном из N равновероятных состояний, то количество информации равно:
Информация в независимых экспериментах складывается:
А1 А2…………… Аm B1 B2 ……………. Bn
P1 P2 …………… Pm P'1 P'2 …………… P'n
Пусть имеем K независимых систем. Каждая система имеет m состояний. При каком числе m энтропия будет максимальной , если Km=a ( постоянно)
lnm=1, т.е. наивыгоднейшее m= e=2.7. Технически удобно m=2, однако известны и "троичные" машины , элементы которых имеют по 3 устойчивых состояния.
Можно также показать, что система , имеющая N состояний обладает максимальной энтропией если её состояния равновероятны.
Получение информации о системе A в опыте B
- называется средней условной энтропией системы А при условии В.
Рассмотрим систему, состоящую из A : A1…Am и B: B1…Bn , причем все Ai , i=1..m, не совместны друг с другом и Bj , j=1..n, не совместны друг с другом, но Ai и Bj , для любого i и j, связаны между собой.
Система может находится в любом из состояний .
Из курса «Теория вероятности» известно, что
и
Отсюда непосредственно следует, что
Рассмотрим энтропию такой системы:
Из (*) и (**) получим, что
Таким образом
, т.к. А и В можно поменять местами.
Отсюда, в частности следует , что
Выведем формулу для количества информации, которую мы можем получить о системе A из опыта B.
Отсюда вытекает очень важное свойство, а именно:
Пример: по конвейеру идут детали A1-хорошие и A2 – бракованные: вероятность встретить хорошую деталь p(A1)=0.8 и бракованную – p(A2)=0.2. На конвейере установлен робот, который проверяет качество деталей: он может не забраковать (событие B1) или забраковать (событие B2) деталь. Вероятность не забраковать хорошую деталь p(B1/A1)=0.9, забраковать хорошую - p(B2/A1)=0.1 и забраковать бракованную - p(B2/A2)=1.
Из рисунка теперь видно, что
P(A1B1)=0.72
P(A1B2)=0.08
P(A2B1)=0
P(A2B2)=0.2
P(A1)=0.8
P(B1)=0.72
P(A2)= 0.2
P(B2)=0.28
Рассмотрим теперь случайную величину с непрерывной плотностью вероятности
. Разобьем ось X на отрезки
, таким образом вероятность попадания
в интервал
будет
.
Если , то
, где
- дифференциальная энтропия.
Рассмотрим равномерное распределение.
Энтропия при равномерном распределении:
Из всех распределений с фиксированными концами равномерное имеет наибольшую энтропию.
Рассмотрим теперь нормальное распределение.
Из всех распределений с фиксированной дисперсией нормальное распределение имеет наибольшую энтропию.
Пример 1: Во сколько раз мощность равномерно распределенного сигнала (с параметром ) должна быть больше нормально распределенного (c параметрами
и
, чтобы они имели одинаковую энтропию?
Пусть , тогда
, где
- средняя мощность сигнала.
Для нормального распределения: .
Для равномерного : .
Отсюда видно, что
Пример 2:
x -истинное значение сигнала.
- измеряемое значение сигнала.
Величина называется «эпсилон энтропия».
Пример 3:
- измеряемое значение сигнала.
- при условии, что
и
независимы.
EMBED Equation.3 ,
то
. ( информация , содержащаяся в одном отсчете сигнала , среднее значение которого равно 0, если Рпол- мощность полезного сигнала, Ршум- мощность шума).
Информационные характеристики источников информации и каналов связи.
Последовательность знаков можно рассматривать как сообщение.
Если у нас источник вырабатывает определённый набор знаков, то это источник дискретных сообщений.
При этом, если появление каждого знака независимо от того что было до него, то это источник с независимыми знаками.
Если вероятность появления любого знака не зависит от времени, то источник носит название стационарного.
Характеристики
Тип файла документ
Документы такого типа открываются такими программами, как Microsoft Office Word на компьютерах Windows, Apple Pages на компьютерах Mac, Open Office - бесплатная альтернатива на различных платформах, в том числе Linux. Наиболее простым и современным решением будут Google документы, так как открываются онлайн без скачивания прямо в браузере на любой платформе. Существуют российские качественные аналоги, например от Яндекса.
Будьте внимательны на мобильных устройствах, так как там используются упрощённый функционал даже в официальном приложении от Microsoft, поэтому для просмотра скачивайте PDF-версию. А если нужно редактировать файл, то используйте оригинальный файл.
Файлы такого типа обычно разбиты на страницы, а текст может быть форматированным (жирный, курсив, выбор шрифта, таблицы и т.п.), а также в него можно добавлять изображения. Формат идеально подходит для рефератов, докладов и РПЗ курсовых проектов, которые необходимо распечатать. Кстати перед печатью также сохраняйте файл в PDF, так как принтер может начудить со шрифтами.