vopros-otvet (519806), страница 3

Файл №519806 vopros-otvet (Экзаменационные вопросы и ответы) 3 страницаvopros-otvet (519806) страница 32013-09-12СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 3)

Рассмотрим примеры на расчет энтропии по Шеннону и сравним ее с информацией по Хартли.

Пример 1

Какое количество информации (по Шеннону) получено, если стало известно точно на какое поле шахматной доски, какого цвета и какая фигура поставлена?

Черный король на поле h7.

Воспользуемся формулой: I = –log pчкрh7, где

pчкph7 – вероятность оказаться черному королю на поле h7. Эта вероятность получается от одновременного наступления трех событий: выбрали черные фигуры ( pч=12 ), короля ( pкр=116 ) и поле h7 ( ph7=164 ).

Так как события независимые, то pчкрh7 = pч · pкр · ph7 и, следовательно,

бит.

Аналогично рассуждая можно подсчитать количество информации для любой фигуры, учитывая, что вероятность выбора пешки – 1\2; слона, ладьи и коня –1\8; а ферзя и короля –1\16.

Подсчитайте самостоятельно количество информации для разных фигур и среднее количество информации на одну фигуру.

Ответ должен получиться – 2,125[бит].

6. Энтропия нескольких источников информации.

Пусть имеются два источника X и Y , которые выдают события {x1; x2;...xi;...xn} и {y1; y2;...yj;...ym}. Рассмотрим одновременное наступление двух событий xi и xj. Вероятность его появления обозначим p(xi; yj), а вероятности появления любых пар (xi; yj) составят матрицу ||p(xi; yj)||, где 1 ≤ in, а 1 ≤ jm.

Количество информации, которое будет получено от факта наступления события (xi; yj) будет равно I = –log p(xi; yj).

Среднее количество информации на одну пару, или энтропия объединения двух событий подсчитывается по формуле:

Для независимых случайных событий X и Y вероятность совместного наступления объединения двух событий xi и yj определяется как произведение вероятностей появления каждого из этих событий, то есть p(xi; yj) = p(xi) · p(yj). Учитывая это энтропию объединения можно подсчитать по следующей формуле:

то есть энтропия объединения двух независимых источников X и Y равна сумме энтропий этих источников. То же можно утверждать об энтропии объединения многих независимых случайных источников, то есть

.

Вероятность совместного наступления объединения двух взаимозависимых событий p(xi; yj) подсчитывается как произведение вероятности появления одного из них на условную вероятность появления второго при условии, что имеет место факт появления первого события, то есть

.

Учитывая это, энтропию объединения двух взаимозависимых источников следует считать по иному:

Где – условная энтропия источника Y относительно события xi;

H(YX) – условная энтропия источника Y относительно источника X, так как при расчете учитываются все состояния, которые может принимать источник X.

Для объединения из трех взаимозависимых источников X; Y; Z можно записать:

H(X; Y; Z) = H(X) + H(YX) + H(ZX;Y).

Для объединения двух взаимозависимых событий можно записать пределы, в которых может меняться его энтропия:

max[H(X); H(Y)] ≤ H(X; Y) ≤ H(X) + H(Y), то есть

энтропия объединения всегда больше энтропии одного из источников, но меньше суммы их энтропий. Первое утверждение верно, когда имеет место линейная зависимость одного из источников от другого, а второе – когда источники независимы.

Рассмотрим пример расчета энтропии объединения двух источников. Пусть нам задана матрица ||p(xi; yj)|| следующего вида:

На матрицу наложены следующие ограничения:

.

Требуется определить H(X; Y) тремя способами:

Надо определить источники X и Y взаимозависимы или нет.

Матрицу ||p(xi; yj)|| можно задать самим при условии, что m и n не более четырех, а можно запросить у ЭВМ, которая ее (матрицу) сгенерирует.

При расчетах следует учитывать, что

;

7. Энтропия непрерывного источника. Относительная энтропия.

При попытке оценить неопределенность непрерывной случайной величины (с непрерывным множеством возможных состояний) – появляются особенности.

  1. «Непрерывность» имеет смысл только для количеств, то есть объект с непрерывным множеством возможных состояний – это количественная случайная величина.

  2. Распределение вероятности по состояниям характеризуется в этом случае плотностью вероятности p(x). Плотность вероятности величина размерная. Размерность обратная размерности случайной величины X, так как вероятность p(xdx безразмерна.

Переход к безразмерной случайной величине X, проведем путем деления размерной случайной величины X* на единицу ее измерения X0. Тогда и плотность вероятности будет безразмерной. Разобьем всю область (–Ґ; +Ґ) возможных значений случайной величины X на интервалы, разделенные отстоящими на равных расстояниях Δx друг от друга интервалами (x-1; x0;...xk;...).

Всякий раз, когда реализуется значение x О (xk; xk + Δx) будем считать, что реализовалось значение xk величины X.

Рис. 2.3

Таким образом перешли к дискретной случайной величине, которая характеризуется распределением вероятностей. Вероятность наступления какого-либо состояния равна

.

Очевидно, что при Δx ® 0 квантованная величина Xд будет все более и более полно отражать все свойства непрерывной величины X. С другой стороны, к величине Xд (дискретной) можно применить понятие энтропии

.

Устремим Δx ® 0. При достаточно малых Δx примем . Поэтому

Таким образом предел энтропии H(Xд) за счет второго члена (–log Δx) стремится к бесконечности при Δx ® 0. Убедившись в том, что непрерывные случайные величины не допускают введения конечной абсолютной меры неопределенности, введем относительную меру. В качестве стандарта для сравнения можно брать неопределенность какого-либо простого распределения, например – равномерного в интервале шириной e. Разделим интервал e также на участки Δx и подсчитаем

.

Будем характеризовать неопределенность непрерывной случайной величины X числом, к которому стремится разность энтропий квантованных величин Xд (случайной величины X любого распределения) и Xд;равн(случайной величины, распределенной по равномерному закону на интервале e):

.

Эта разность конечна.

Если взять за стандарт неопределенность случайной величины, равномерно распределенной в единичном интервале, то есть принять (e = 1), то

.

Число He=1(X) обычно и называют относительной энтропией непрерывной случайной величины. По численному значению относительной энтропии различные источники сообщения можно сравнить между собой.

Относительная энтропия характеризуется теми же свойствами, что и энтропия дискретного источника:

1. Не зависит от конкретного содержания случайной величины.

2. Энтропия объединения двух независимых источников выражается формулой:

.

3. Энтропия объединения двух статистически зависимых источников:

,

где

.

4. He(X; Y) ≤ He(X) + He(Y).

5. Всякое сглаживание функций распределения p(X) ведет к росту He(X).

Рис. 2.4

Hε1(X) < Hε2(X).

Исключение составляет лишь то, что He(X) может принимать отрицательные значения, так как He(X) – это разность энтропий, а случайная величина X может быть распределена на небольшом интервале меньшем, чем (e = 1).

Примеры.

Подсчитайте относительную энтропию непрерывного источника, имеющего следующий закон распределения плотности вероятности случайной величины X:

1.

Рис. 2.5

He(x) = 0.

2.

Рис. 2.6

He(x) = –1;

.

3.

Рис. 2.7

He(x) = 1;

.















8. Избыточность источника сообщений.

Из энтропийных оценок источников сообщений, ясно, что она зависит от статических характеристик самих сообщений. Энтропия максимальна при равномерном появлении букв на любом месте сообщения. Для характеристики источника сообщений с различным алфавитом представляет интерес сравнение фактической энтропии источника с максимально возможной. В этом смысле введено понятие избыточности источника сообщений или избыточности алфавита.

,

где Hmax = log M;

M – количество различных букв в алфавите;

H(X) – средняя энтропия на одну букву.

Избыточность источника R показывает на сколько хорошо используются буквы в данном источнике. Чем меньше R, тем большее количество информации вырабатывается источником на одну букву. Однако, не всегда необходимо стремиться к R = 0. С повышением избыточности повышается помехоустойчивость (надежность) источника. Выяснение количества избыточности важно потому, что мы должны вводить ее разумно, чтобы получить максимальный эффект помехозащищенности, а не полагаться на стихию. Например, избыточность любого языка оказывается порядка 50-70%, то есть если бы все буквы имели одинаковую вероятность использования и можно было бы использовать любые комбинации букв, то среднюю длину слова можно было бы значительно уменьшить. Однако разбираться в этой записи было бы значительно труднее, особенно при наличии ошибок (лектора или студента).

Современные системы связи построены без учета ограничений, существующих в языке, а поэтому не достаточно эффективны, так как они приспособлены для передачи равновероятных букв алфавита, которые могут следовать друг за другом в любых комбинациях.

Колоссальная избыточность присуща телевизионным изображениям: естественно передавать не весь кадр, а только информацию соответствующую тому, чем отличается один кадр от другого. Этим можно существенно сократить требуемую (в среднем) полосу частот.

Характеристики

Тип файла
Документ
Размер
1,51 Mb
Высшее учебное заведение

Список файлов ответов (шпаргалок)

Свежие статьи
Популярно сейчас
Зачем заказывать выполнение своего задания, если оно уже было выполнено много много раз? Его можно просто купить или даже скачать бесплатно на СтудИзбе. Найдите нужный учебный материал у нас!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6353
Авторов
на СтудИзбе
311
Средний доход
с одного платного файла
Обучение Подробнее