vopros-otvet (519806), страница 2

Файл №519806 vopros-otvet (Экзаменационные вопросы и ответы) 2 страницаvopros-otvet (519806) страница 22013-09-12СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 2)

pi(t) = pi(t + Δt) = pi(t + n · Δt) = const = p(i).

Таким образом дискретный источник характеризуется тремя факторами:

  • алфавитом {xi}, где 1 ≤ iM;

  • количеством состояний S( j); j = 1; k;

  • столбцами вероятностей ||pi(Sj)||; i = 1; M появления i-той буквы в j-том состоянии.

В 1928 году Хартли предложил меру для измерения информации дискретных сообщений:

I = log N,

где I – количество полученной информации, а N – количество возможных исходов или различных сообщений, которое может быть получено от источника дискретных сообщений с алфавитом в M букв при длине сообщения в n букв.

Рассмотрим эту меру подробнее.

Если получили одно элементарное сообщение – xi, а оно выбрано из алфавита в M букв, то получено I = log M единиц информации. Поскольку в данной мере не учитывается ни в каком состоянии находился источник, ни какова вероятность появления каждой буквы, то считается, что имеет место элементарный источник с одинаковой вероятностью употребления различных букв алфавита pi = 1M = pj, когда ij. Это очень сильные ограничения, которые значительно завышают истинное значение информации в сообщении.

С другой стороны у этой меры есть положительные моменты:

  • она пропорциональна длине сообщения, так как если составлено сообщение длиной в n букв, то общее число различных сообщений из n букв будет равно N = M n и следовательно In = n log M;

  • предложенная мера аддитивна, то есть если имеет место сообщение, полученное путем одновременного наступления нескольких событий от разных источников, то количество полученной при этом информации будет равно сумме информаций, полученных от каждого из них независимо друг от друга. Например, есть два источника Q1 и Q2 со своими алфавитами {xi}, где 1 ≤ iM1 и {yj}, где 1 ≤ jM2. Наступило событие: (xi; yj). Какое при этом получено количество информации? Так как общее число возможных исходов N в этом случае равно (M1·M2), то I = log N = log(M1·M2) = log M1 + log M2.

Основание логарифма можно принять различным. Это не принципиально, так как полученные меры будут отличаться только числовым коэффициентом. Но этим мерам даны различные названия:

loga M = lg 10 = 1[дит];

loga M = ln e = 1[нит(нат)];

loga M = log2 2 = 1[бит];

1[дит] = 1 ⁄ lg 2 = 1 ⁄ 0.301 = 3.322[бит].

4. Измерение информации по Шеннону.

Необходимо было устранить основной недостаток меры Хартли – учесть вероятности появления букв в каждый момент времени в каждом состоянии.

Определим количество полученной информации от факта появления какой-либо буквы xi источника, находящегося в состоянии Sj, как

Ii (Sj ) = –log pi(Sj),

где pi(Sj) – вероятность появления i-той буквы, если источник находится в состоянии Sj.

При таком определении количества полученной информации от факта получения i-той буквы видно, что количество информации, создаваемое каждой буквой, различно. Принято источник в целом по всему алфавиту в одном из состояний характеризовать средним значением количества информации, приходящемся на одну букву:

.

А количество информации, приходящееся на одну букву, вырабатываемую источником, по всем его состояниям определим путем усреднения:

,

где P(Sj) – вероятность нахождения источника в состоянии Sj.

Информация связана со снятием неопределенности. Пока мы предполагали, что в результате опыта наступает вполне определенное событие, то есть однозначно выбирается та или иная буква или знак. Но это не всегда так. В результате опыта или получения дополнительных сведений неопределенность ситуации изменяется, но не становится однозначной, то есть сохраняется апостериорная неопределенность. В этом случае количество полученной информации можно определить как разницу неопределенностей до и после эксперимента, то есть:

Iэкспер = HапрHапост,

где – априорная неопределенность источника; когда неизвестно, что будет передаваться;

Hапост – апостериорная неопределенность источника, то есть неопределенность, которая остается на приемной стороне, когда известно, что передавалось.

Формула для подсчета Hапост та же, что и для Hапр, только вероятности pi(Sj) другие и определяются ошибками в передаче букв или знаков по каналу связи.

Если после эксперимента неопределенность исчезает (передача информации по линии связи идет без ошибок), то есть однозначно известна переданная буква сообщения, то Hапост = 0 и I = Hапр, то есть полученная информация равна устранению априорной неопределенности.

Единицы измерения информации по Шеннону те же, что и по Хартли.

Рассмотрим примеры подсчета информации и неопределенности (энтропии) ситуаций по Шеннону.

Пример 1

Рассчитаем энтропию двоичного источника при различных вероятностях появления его символов. Источник элементарный, то есть j = 1.

а)

Таблица 2.1

xi

0

1

p(xi)

0.5

0.5

.

б)

Таблица 2.2

xi

0

1

p(xi)

0.01

0.99

H(x) = –0.01log 0.01 – 0.99log 0.99 = –0.01·(–6.644) – 0.99 · (–0.0145) = 0.0808.

в)

Таблица 2.3

xi

0

1

p(xi)

0

1

.

Так как –log p(0) при p(0) ® 0 стремится к ∞, то имеет место неопределенность типа (0 · ∞), которая раскрывается как неопределенность дроби:

Из расчетов видно, что максимальная энтропия у источника с равными вероятностями выдачи символов p(0) = p(1) = 0.5. Неопределенность равна нулю, если вероятность одного из символов равна 1, а всех остальных – нулю.

5. Свойства информации по Шеннону.

1. Энтропия дискретного источника всегда положительна. Это определяется способом ее подсчета.

,

где 0 ≤ p(xi) ≤ 1 – положительное число;

0 ≤ [–log p(xi)] ≤ ∞ – положительное число;

0 ≤ –p(xi)log p(xi) ≤ 0.531 – положительное число;

H(x) – сумма положительных чисел.

Рис. 2.2

Энтропия равна нулю только в том случае, когда вероятность появления одной из букв источника равна 1, а всех остальных – нулю.

2. Можно доказать, что максимум энтропии достигается при равных вероятностях появления букв алфавита, то есть

.

Покажем это на примере источника из двух букв.

Таблица 2.5

Буквы

x1

x2

Вероятности их появления

p

q = 1 – p

H(x) = –plog pqlog q = –plog p – (1 – p)log(1 – p),

где H(x), будет максимально, когда H '(x), то есть

,

откуда следует, что –log p + log(1 – p) = 0; и p = 0.5 = q.

Максимум H(x) равен в данном случае 1 или Hmax(x) = log M.

3. Если в системе событие xk состоит из двух событий x'k и x"k с вероятностями q1 и q2 (q1 + q2 = pk), то общая энтропия системы будет равна сумме энтропий исходной системы и энтропии разветвленной части с весом pk и условными вероятностями ветвления q1pk и q2pk , то есть H{x1; x2; ... xk-1; x'k; x"k} = H{x1; x2; ... xk-1; xk} + pkH(x'k; x"k).

Покажем это на примере.

Пусть имеется система с двумя состояниями.

Таблица 2.6

xi

x1

x2

p(xi)

0.5

0.5

H(x1; x2) = (–0.5log 0.5) · 2 = 1 бит.

Пусть состояние x2 разбилось на два.

Таблица 2.7

xi

x'2

x"2

p(xi)

0.4

0.1

бита.

Энтропию новой системы можно подсчитать двумя способами:

1.

Таблица 2.8

xi

x1

x'2

x"2

p(xi)

0.5

0.4

0.1

Hсист = –0.5log 0.5 – 0.4log 0.4 – 0.1log 0.1 = 0.5 + 0.529 + 0.332 = 1.361 бита.

2. Hсист = H(x1; x2) + p(x2) · H(x'1; x"2) = 1 + 0.5 · 0.722 = 1.361 бита.

Как видим, ответ получился один и тот же, но при втором способе расчета не нужно пересчитывать всю систему, а только к старой энтропии добавить энтропию разветвления.

Характеристики

Тип файла
Документ
Размер
1,51 Mb
Высшее учебное заведение

Список файлов ответов (шпаргалок)

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6367
Авторов
на СтудИзбе
310
Средний доход
с одного платного файла
Обучение Подробнее