Введение (Учебник - информационные системы), страница 5
Описание файла
Файл "Введение" внутри архива находится в папке "Учебник - информационные системы". Документ из архива "Учебник - информационные системы", который расположен в категории "". Всё это находится в предмете "информационные устройства и системы" из 9 семестр (1 семестр магистратуры), которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "книги и методические указания", в предмете "информационные устройства и системы" в общих файлах.
Онлайн просмотр документа "Введение"
Текст 5 страницы из документа "Введение"
где P - вероятность события. Из этой формулы следует, что если сообщение очевидно (или событие точно произойдет), то P = 1 и I = 0. Интересно, что это выражение оказалось с точностью до константы тождественным знаменитому соотношению Л. Больцмана для энтропии термодинамической системы Ş, под которой понимается величина равная логарифму числа состояний n, которые может принимать система: Ş = k ln n. Константу k позднее ввел М. Планк, назвав ее именем Больцмана, k = 1,38 10-23 Дж/0С. В интерпретации Больцмана, энтропия равна нулю в случае полностью упорядоченной структуры. Заметим, что информация и энтропия имеют разные знаки: рост информации приводит к уменьшению энтропии системы.
Если сообщения (или события) неравновероятны, то формула К. Шеннона принимает вид:
Здесь Pi - вероятность того, что система находится в i-ом состоянии (i = 1, 2 ... N). Основание логарифма определяет единицу измерения величины I.
Таким образом, информация является вероятностной (статистической) характеристикой процесса, а ее количественной мерой служит величина устраненной неопределенности в результате совершения системой некоторых действий в этом процессе (например, при получении сообщения). Тогда, под полной информацией будем понимать то ее количество, которое приобретается одной системой (назовем ее приемником) при абсолютном выяснении состояния другой системы (назовем ее источником). Этот процесс может интерпретироваться как дешифрация полученного сообщения. Полная информация численно равна энтропии второй системы. Полезная информация - это количество информации, содержащееся в отдельном сообщении и уменьшающее неопределенность сведений о системе-источнике. В этом смысле, отрицательное значение полезной информации есть дезинформация.
Количественная оценка эффективности передачи информации от одной системы к другой представляет собой трудную задачу. Более простое решение основано на применении негэнтропийного принципа Л. Бриллюэна, согласно которому носителем информации в измерительной системе является энергия [ ]. Получение данных о каком-либо событии или процессе связано с затратой энергии. Для иллюстрации этого подхода вернемся к обобщенной информационной системе, представленной на рис. В.8 и состоящей из двух преобразователей R и Q. Каждый из преобразователей описывается функциональным оператором Ф(R) и Ф(Q) соответственно, переводящими их из одного состояния в другое. Для однозначной системы операторы могут быть заменены функциями преобразования F (R). Применительно к данному примеру имеем: F (x, ri, t, T0) и F (y, qi, t, T0) - функции преобразования информационных элементов R и Q; t и T0 - влияющие факторы (время и температура), x, y, z - сигналы. При этом, каждый из преобразователей системы, удовлетворяя единой целевой функции, может оптимизироваться по собственному частному критерию качества, учитывающему назначение и структуру отдельного преобразователя.
Процесс измерения, выполненный некоторым устройством, представляет собой соответствующее преобразование информации, содержащейся в сигналах x, y, z. Это преобразование сопровождается определенной потерей информации DI, которая, например, для устройства R равна:
DIR = Iвых R – Iвх R
Потеря информации в устройстве соответствует его «энтропийному вкладу» в процесс измерения. Л. Бриллюэн предложил оценивать эффективность преобразования информации с помощью информационного КПД hI. По Бриллюэну количество информации на выходе устройства Iвых R, зависит от характеристик последнего, а также внешних влияющих факторов (наводок, помех и т.д.). Следовательно, потеря информации в преобразователе R характеризуется его собственной погрешностью e0, и дополнительной «флюктуационной погрешностью» в измерение eф, которую вносят влияющие факторы.
Информационный КПД hI = 1/ke, где параметр ke, называемый коэффициентом потери точности, показывает насколько собственный вклад в потерю точности, превышает дополнительный:
ke = eо/eф = ÖWå/W0,
где W0 и Wå - полезная (использованная) и полная (потребляемая) энергия, соответственно.
С другой стороны, информационный КПД однозначно определяется величиной потерь информации DI:
lg hI2 = -2 DI
Поскольку энергетический КПД устройства hW = W0/Wå , то справедливо
hW = 1/ke2 = hI2
и, следовательно
hW = 1/102DI.
Данное выражение указывает на связь информационных и энергетических процессов в измерительном устройстве. Рассмотренный подход, описывающий систему с точки зрения информационно-энергетических процессов, получил название информационного. В последние годы жизни этот подход развивал и Шеннон, введя в обиход основополагающую формулу, связывающую информационную пропускную способность C с полосой частот f, используемых при передаче информации:
где Pс и Pш - мощности сигнала переносящего информацию и шумов, соответственно.
Вопросы для самостоятельной подготовки
-
Являются ли датчиком электронные часы?
-
Как изменяется энтропия воды при фазовых превращениях?
-
Почему единицей информации выбран бит?
-
Чему равно информационное сообщение при выпадении сообщения «6» на игральной кости?
-
Зависит ли выходной сигнал датчика от его импеданса?
34