Реферат Энтропия (Энтропия), страница 2
Описание файла
Документ из архива "Энтропия", который расположен в категории "". Всё это находится в предмете "химия" из , которые можно найти в файловом архиве . Не смотря на прямую связь этого архива с , его также можно найти и в других разделах. Архив можно найти в разделе "рефераты, доклады и презентации", в предмете "химия" в общих файлах.
Онлайн просмотр документа "Реферат Энтропия"
Текст 2 страницы из документа "Реферат Энтропия"
где K — константа (и в действительности нужна только для выбора единиц измерения) [3].
Шеннон определил, что измерение энтропии (H = − p1 log2 p1 − … − pn log2 pn), применяемое к источнику информации, может определить требования к минимальной пропускной способности канала, требуемой для надежной передачи информации в виде закодированных двоичных чисел.
-
Термодинамическая мера.
Информационно-термодинамический подход
связывает величину энтропии системы с недостатком информации о внутренней структуре системы (не восполняемым принципиально, а не просто нерегистрируемым). При этом число состояний определяет, по существу, степень неполноты наших сведений о системе.
Поставим некоторый вопрос о состоянии термодинамической системы.
Пример. Предположим, что имеется термодинамическая система - газ в объеме V , который расширяется до объема 2V.
Н
Рисунок 3. Газ объема V (a) расширяемый до 2V (б)
Термодинамическая мера (энтропия) применима к системам, находящимся в тепловом равновесии. Для систем, далеких от теплового равновесия, например, живых биологических систем, мера-энтропия - менее подходящая [6].
-
Энергоинформационная (квантово-механическая) мера.
Энергия (ресурс) и информация(структура) - две фундаментальные характеристики систем реального мира,связывающие их вещественные, пространственные, временные характеристики. Сейчас актуально говорить о биоэнергоинформационных мерах, отражающих механизм взаимосвязей биофизикоинформационных и вещественно-энергетических процессов в системе, в ноосфере [7].
-
Теорема Шеннона о кодировании при наличии помех.
Теорема Шеннона — Хартли в теории информации — применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом. Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочных цифровых данных (то есть, информации), которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуется известной мощностью или мощностью спектральной плотности. Закон назван в честь Клода Шеннона и Ральфа Хартли.
Определение количества переданной информации при двоичном кодировании сводится к простому подсчету числа импульсов (единиц) и пауз (нулей).
Таблица 1.
Варианты сочетаний длительности элементарных сигналов | Кодировка первичных символов (слов) | Ситуация |
одинаковые | равномерная | (1) |
одинаковые | неравномерная | (2) |
разные | равномерная | (3) |
разные | неравномерная | (4) |
В случае использования неравномерного кодирования или сигналов разной длительности(ситуации (2), (3) и (4)) для отделения кода одного знака от другого между ними необходимо передавать специальный сигнал – временной разделитель (признак конца знака) или применять такие коды, которые оказываются уникальными, т.е. несовпадающими с частями других кодов. При равномерном кодировании одинаковыми по длительности сигналами (ситуация (1)) передачи специального разделителя не требуется,поскольку отделение одного кода от другого производится по общей длительности,которая для всех кодов оказывается одинаковой (или одинаковому числу бит при хранении).
4. Пример использования энтропии в прогнозировании.
4.1. Ее значение для прогнозирования.
Прогнозирование является частным видом моделирования(основа познания и управления). Нельзя отрицать, что прогнозирование играет значимую роль в управлении страной, отраслью, регионом, предприятием. Необходимо учитывать СТЗП.
Приведем пример прогнозирования энтропии органических соединений при повышенной температуре.
Пример: Рассчитать окиси этилена при 400, 500 и 600 К. Энтропия окиси этилена составляет 242,4 Дж/(мольК), значения теплоемкостей C0p,T при 400, 500 и 600 К приведены в табл. 2.
Р
Рисунок 4. Зависимость идеально-газовой энтропии окиси этилена от температуры.
Результаты расчета приведены
ниже и в табл. 2. сопоставлены с рекомендуемыми значениями [1].
= 242,74+(48,53+62,55)/2·(ln400 – ln300) = 258,72 Дж/(мольК);
= 258,72+(62,55+75,44)/2·(ln500 – ln400) = 274,12 Дж/(мольК);
= 274,12 +(75,44+86,27)/2·(ln600 – ln500) = 288,86 Дж/(мольК).
Температурная зависимость иллюстрируется рисунком 4.
Таблица 2.
Т, К | [1], Дж/(моль·К) | [1], Дж/(моль·К) | (расчет), Дж/(моль·К) | Погрешность, % отн. |
298 | 242,42 | 48,28 | ||
300 | 242,76 | 48,53 | 242,74 | 0,00 |
400 | 258,65 | 62,55 | 258,72 | 0,03 |
500 | 274,01 | 75,44 | 274,12 | 0,04 |
600 | 288,78 | 86,27 | 288,86 | 0,03 |
-
Применение к рискам.
Проведение классификации рисков, поставка задачи, оценивание конкретного риска, проведение структуризации риска – важные пункты при рассмотрении некоторых задач . Риски необходимо учитывать при прогнозировании экономических последствий принимаемых решений, поведения потребителей и конкурентного окружения, внешнеэкономических условий и макроэкономического развития России, экологического состояния окружающей среды, безопасности технологий, экологической опасности промышленных и иных объектов. Большое число рисков связано с природными явлениями. Риски, которые связанны с недостаточными знаниями о природе, экологических бедствиях, играют большую роль (например,неизвестен точный объем полезных ископаемых в том или ином месторождении, а потому нельзя точно предсказать развитие добывающей промышленности и объем налоговых поступлений от ее предприятий). Метод энтропии часто используют для описания неопределенностей во время компьютерного и математического. Некоторые виды неопределенностей связаны с безразличными к организации силами —природными (погодные условия) или общественными (смена правительства). Разнообразные формальные методы оценки рисков и управления ими во многих случаях (реально во всех нетривиальных ситуациях) не могут дать однозначных рекомендаций. Поэтому процедуры энтропии естественно применять не только на конечном, но и на всех остальных этапах анализа рассматриваемого организацией проекта, используя при этом весь арсенал теории и практики энтропии.
ЗАКЛЮЧЕНИЕ
Физическая переменная энтропия первично возникла из задач описания тепловых процессов и затем широко использовалась во всех областях науки. Информация - знание, используемое для развития и совершенствования взаимодействия системы с окружающей средой. За развитием системы следом развивается информация. Существование новых форм, принципов, подсистем вызывает изменения в содержании информации, формах получения, переработки, передачи и использования. Система, осуществляемая целесообразное взаимодействие с окружающей средой, управляет или управляема из-за потоков информации.
Стабилизирование, адаптирование и восстановление системы может обеспечить оперативная информация, при нарушениях структуры и/или подсистем. На устойчивость и развитие системы влияет: на сколько информирована система ,процесс ее взаимодействие со средой. В наше время прогнозирование играет большую роль. Любое предприятие в процессе организации сталкивается с различными рисками, влияющими на ее состояние.
Существует достаточно примеров ситуаций, которые связаны с рисками: социальными, технологическими, экономическими, политическими, экологическими и другими, что подтверждает необходимость прогнозирования. Известны различные виды критериев, используемых в теории принятия решений в условиях неопределенности (риска). Возникает много противоречий по результатам критериев, следовательно необходимо применять энтропию в данной ситуации.
БИБЛИОГРАФИЯ
-
http://works.doklad.ru/view/lOnCLjZ4N1A/1.html
-
http://docwap.ucoz.ru/fizika/part2/7/7.html
-
http://www.wikiznanie.ru
-
http://gendocs.ru
-
http://ochu.com.ua/18132-Informaciya_ponyatiya_vidy_poluchenie_izmerenie_i_problema_obucheniya.html
-
http://dit.isuct.ru/ivt/books/IS/IS5/glava3.htm
-
http://www.life-prog.ru/1_5550_lektsiya-meri-informatsii-v-sisteme.html
-
Колмогоров А.Н. Теория информации и теория алгоритмов.
-
Хартли Р. Передача информации// Теория информации и ее приложения.
-
Дмитриев В.Н.Прикладная теория информации.
17