Энтропия и информация в системном анализе. Энтропия дискретного множества. Понятие неопределенности, страница 2
Описание файла
Документ из архива "Энтропия и информация в системном анализе. Энтропия дискретного множества. Понятие неопределенности", который расположен в категории "". Всё это находится в предмете "системный анализ и принятие решений" из 8 семестр, которые можно найти в файловом архиве МПУ. Не смотря на прямую связь этого архива с МПУ, его также можно найти и в других разделах. Архив можно найти в разделе "рефераты, доклады и презентации", в предмете "системный анализ" в общих файлах.
Онлайн просмотр документа "Энтропия и информация в системном анализе. Энтропия дискретного множества. Понятие неопределенности"
Текст 2 страницы из документа "Энтропия и информация в системном анализе. Энтропия дискретного множества. Понятие неопределенности"
Таким образом видно, что энтропия оценивает разнообразие элементов в
системе по некоторому определенному признаку, который может нас интересовать в той или иной задаче.
Энтропия как мера количества информации.
В основе всей теории информации лежит открытие, что информация допускает количественную оценку.
Процесс получения информации можно интерпретировать как изменение неопределенности в результате опыта или сообщения.
Вернемся к простейшим опытам с монетой или костью. Перед проведением опыта существует некоторая неопределенность, связанная с незнанием результата опыта. После проведения опыта, т.е. после получения результата, эта неопределенность устраняется. В практике чаще всего встречаются случаи, когда после проведения опыта еще остается некоторая неопределенность.
Если неопределенность до опыта составляла H, а после опыта H1, то
устраненная в ходе опыта неопределенность составляет:
Разность априорной (до опыта) энтропии H и апостериорной (после опыта) энтропии H1 носит название количества информации. Таким образом, количество информации замеряется количеством снятой неопределенности. В частном случае, когда неопределенность в результате
опыта снимается полностью, т.е. H1 = 0, получаем I=H. Хотя количество информации численно равно энтропии, следует иметь ввиду различный смысл количества информации и энтропии. Количество информации, как и энтропия измеряется в битах. Один бит информации — это количество информации, сообщающее о том, какое из двух равновероятных событий имело место, т.е. такое количество информации, которое уменьшает вдвое число возможных исходов (см. п. «Энтропия как мера разнообразия, неупорядоченности, хаоса» ).
Энтропия непрерывного множества
На практике мы сталкиваемся с ситуацией, когда число исходов опыта может
быть сколь угодно велико, т.е. k ∞ . При этом вероятность каждого исхода стремится к нулю (p0), а искомый корень может принимать все возможные значения в заданном интервале (k ). Из теории вероятности известно, что в данном случае необходимо использовать плотность распределения вероятности Р(х).
Эта функция обладает тем свойством, что величина Р(х)dх есть вероятность того, что переменная x (значения корня в рассматриваемом примере) примет значения, заключенные в интервале от х до (х + dх).
Для оценки неопределенности опыта необходимо использовать энтропию непрерывного множества, которое по аналогии с энтропией дискретного множества (6) имеет вид:
При этом всегда
(аналогично случаю дискретного множества Σpi=1 ). Интегрирование осуществляется в интервале переменной х. Энтропия непрерывного множества (12) обладает большинством свойств энтропии дискретного множества.
Распределение Р(х), которое соответствует максимальному значению энтропии, имеет вид:
где x0, x1 - пределы интегрирования.
При этом, если обозначить l=x1-x0, то вероятность обнаружить корень уравнения на отрезке длиной l внутри интервала dх равна p=dx/l
По определению вероятности:
Перепишем формулу (12) с учетом (13)
Итак, энтропия непрерывного множества запишется
Это выражение аналогично для энтропии дискретного множества (4).
Таким образом, если для дискретного множества энтропия измеряет неопределенность (неупорядоченность) абсолютным образом и энтропия дискретного множества всегда положительна, то в случае непрерывного множества под логарифмом формулы (14) может стоять величина меньше единицы и энтропия примет отрицательное значение.
Количество информации как критерий оценки степени организованности системы.
Как показано выше, энтропия является не только мерой неопределенности (7), но и мерой разнообразия, неупорядоченности, хаоса (9). Тогда вместо определения «устраненная неопределенность» можно употребить термин «блокированное разнообразие».
Термин «устраненная неопределенность» относится к энтропии, записанной через вероятность (7). Это определение ближе к теории информации (см. п. «Энтропия как мера количества информации»):
Если энтропия является мерой разнообразия (9), то употребляется термин «блокированное разнообразие». Это определение ближе к физике, термодинамике:
где I - блокированное разнообразие;
Нвх - энтропия, оценивающая неупорядоченность на входе системы; Нвых - энтропия, оценивающая неупорядоченность на выходе системы.
В кибернетике биологом Эшби был сформулирован закон «необходимого разнообразия». Согласно закону Эшби: каждая система, блокирующая разнообразие, должна иметь собственное разнообразие не менее блокированного, т.е. «только разнообразие может уменьшить другое разнообразие».
Критерии степени оценки организованности системы в общем виде записывается как отношение
где η - критерий оценки степени организованности системы.
С помощью критерия η может оцениваться как разделительная способность колонны, так и многоколонной установки в целом.
С точки зрения характера воздействия на организованность системы варьируемые параметры можно разбить на две группы: интенсивные и экстенсивные.
Интенсивные параметры в состоянии повысить организованность системы (качество разделения) при неизменных затратах работоспособной энергии и фиксированных энергетических затратах. Изменение этих параметров обязательно приводит к экстремальному значению критерия, качества разделения.
Экстенсивные параметры могут повысить организованность системы только за счет энергетических или неэнергетических затрат.
Двойственный характер энтропии и количества информации.
Энтропия является количественной мерой неопределенности случайного объекта. Неопределенность статистического типа можно измерить (7)
Количество информации определяется как мера снятой неопределенности (11)
В рассмотренном выше случае энтропия носит функциональный характер и применяется в теории информации.
Энтропия допускает и другое толкование (пример с шарами). В данном случае энтропия выступает как мера разнообразия, неупорядоченности, хаоса (9).
Энтропия как мера разнообразия ближе к физике, термодинамике и используется для оценки степени организованности системы. В данном случае энтропия носит атрибутивный характер.
Двойственный (функциональный и атрибутивный) характер энтропии и
информации.
Характер энтропии и информации | Энтропия | Информация | Область применения |
Функциональный | Мера неопределенности | Мера количества информации | Теория информации |
Атрибутивный* | Мера разнообразия, неупорядоченности, хаоса | Мера степени организованности системы | Физика и техника |
* Атрибутивное - неотъемлемое, существенное свойство материи.