А.И. Куприянов - Основы защиты информации (1022813), страница 6
Текст из файла (страница 6)
В зависимости от зоны обслуживания говорят о международных, междугородных, региональных, местных и внутренних (локальных) сетях. Классификационным признаком может быть принадлежность информационных сетей: общего пользования, ведомственных, корпоративных учрежденческих и т.п.
В зависимости от физической среды функционирования информационных каналов, поддерживающих сеть, говорят о проводных, радиоспутниковых, кабельных, оптоволоконных сетях. Разумеется, всякая классификация условна и подчеркивает не столько различие, сколько общность сетей, наделенных разными признаками. 22 и та же сеть, например, может быть и региональной, и ве'ственной, и оптоволоконной, и ориентированной на переда- данных.
Но каждый из признаков классификации определяет цифичность угрозы информационной безопасности сети. Контрольные вопросы '"" 1. В чем вы видите основные технические проблемы защиты инфори? ::: 2. Естественно-научные исследования проблемы защиты информапредусматривают анализ физических причин и материальных пред'," ылок нарушения информационной безопасности. Перечислите эти ины и предпосылки. '"'::,.: 3. Приведите примеры каналов утечки информации, возникающих * и работе технических систем. ':,:,: 4.
Сформулируйте определения и приведите описание понятий, име. емых терминами «система» и «информационная система». ,,". 5. Как вы понимаете термины «канал передачи информации» и «каутечки информации»? Согласны ли вы считать информационные алы системами? Почему? Глава 2 ИНФОРМАЦИЯ 2.1. Количество информации Разные области и отрасли требуют разных способов измерения такого сложного феномена, как информация.
Информационная емкость библиотек измеряется количеством томов, полиграфисты измеряют информацию печатными листами. На радио и телевидении информацию измеряют минутами эфирного времени. Наиболее конструктивна и традиционна мера, используемая в теории и технике передачи информации, — это количество информации по Шеннону. Эта мера связана с условием выбора конкретного сообщения з из ансамбля л~ 5". (2.1) где Р,(з) — апостериорная вероятность того, что принятый сигнал содержит именно сообщение л; Р (з) — априорная вероятность сообщения л. Если сообщение при передаче не искажено, РР,Я вЂ” = 1 и!= — 1ояР,Я.
Если логарифм берется по основанию 2, информация и энтропия измеряются в двоичных единицах, или битах (В1пагу Й81Т). Один бит — это количество информации, содержащееся в неискаженном при передаче сообщении, которое априори может при- 1 нимать два равновероятных значения Р„, (л0) = Р, (я,) = †. Действи- 2 1 тельно, из (2.1) следует: 1 = — 1оя, — . Кратные одному биту ве- 2 личины количества информации — байт = 2' = 8 бит, 1 Кбайт = = 2'0 байт = 2'з бит и т.д. Источник информации может формировать разные сообщения, у которых могут отличаться априорные вероятности. Поэтому кроме величины количества информации 1 (2.1) в сообщении рассматривается еще и среднее количество информации на одно сообщение, которое может быть сформировано источником: ',.
К вЂ” обьем полного ансамбля сообщений л„, М 1: К, которые формировать источник. .; ®ак видно из формулы (2.2), энтропия — это математическое ание величины 1ояР,(х), Чем больше энтропия источника, ' больше, в среднем, степень априорной неопределенности форуемого им сообщения. '::;.'После приема сообщения неопределенность уменьшается (во ом случае, не увеличивается). Поэтому количество информа- (2.1) можно трактовать как меру уменьшения неопределен', ти. ',,:Энтропия, как видно из (2.2), неотрицательна и равна нулю ько для вырожденного ансамбля, содержащего только одно соение, что Р,(и,) = 1, Р, (ф = 0; ю', уе 1: К ;;: Энтропия аддитивна: для совокупности источников информа"- и или для ансамбля из нескольких сигналов энтропия равна ме энтропий каждого: Н„= ~ Н„= -~; ~", Р, (я„~ ) 1оя Р„(з„~ ). (2.3) -ифма совместного распределения Н(А,В) = -М(1щ(а~,Ь!)).
(2.4) ::: Из (2,2) также видно, что энтропия имеет ту же размерность, и количество информации и эта размерность зависит от выбо:а основания логарифма в (2.1) и (2.2). Так, например, для такого ' точника информации, как запоминающее устройство (ЗУ), ': ем (энтропия) в 1 Мбайт означает, что ЗУ может формиро'" ть сообщения общим суммарным объемом до 2".2З бит, или, " о то же самое, может запоминать и сохранять информацион' ге массивы общим объемом до 2~ 2' бит.
Разумеется, это вер". ее, потенциальное значение. Если ЗУ не заполнено (или за'олнено данными, не содержащими информации) энтропия .' кого источника будет меньше. Другая важная для оценки информативности сообщений вели: на — взаимная информация. Это информация„которую содеродин ансамбль данных относительно другого. Например, ан"мбль принятых сообщений относительно ансамбля сообщений ереданных или ансамбль шифровок относительно породившего ансамбля открытых сообщений.
Пусть имеется два ансамбля А ': В дискретных сообщений а„~ А и Ь,~ В. Совместная вероятность '' общений а~ и Ь, — это Р(а~, Ь,). Совместная энтропия ансамблей ":.и В будет, по определению, математическим ожиданием лога- (2.2) 25 Н = — Я Р, (Р~ ) 1оя Р (к~ ), Для условного распределения аналогичным образом можно опделить условную энтропию: Н (А ! В) = -М ~1о8(а~ ! Ь,)) = ~~ 'Я Р(а„! Ь~) 1оя(а~ ! Ь,). (2.5) Используя теорему Байеса Р(а Ь) = Р(а) Р(Ь ! а) = Р(Ь) Р(а ! Ь) (2.6) для (2.5) можно установить, что Н(А, В) = Н(А) + Н(В ! А) = Н(В)+ Н(А ! В). (2.7) Нетрудно также установить, что для условной энтропии справедливо двойное неравенство Н (А) - Н (А ! В) = 1'(А, В) (2.9) называется количеством взаимной информации в ансамбле В относительно А, Используя определения энтропии (2.4), (2.5) и (2.9), можно установить, что взаимная информация может быль определена (измерена) как 1(А,В)=-М(1о8[Р(а„ф+М~1о8~Р(а~ !Ь,Ц= =М 1о8 (2.10) Если Р(а„! Ь,) условная вероятность того, что был передан сигнал а~ при условии, что принят сигнал Ь,, а Р(а~) априорная вероятность события а„~ А, то 1(А, В) показывает, сколько в среднем информации об А воспроизводится на выходе информационной системы, воспроизводящей сообщение из ансамбля В.
Иначе говоря, 1(А,В) показывает, сколько в среднем получается бит информации о сообщении из ансамбля А при наблюдении реализации сообщения из ансамбля В. При этом совершенно неважно, формируется ли это сообщение абонентом системы (сети) пере2б 0 < Н(А ! В) < Н(А). (2.8) Равенство Р(А ! В) = О выполняется тогда, когда ансамбль В содержит всю информацию об ансамбле А. В другом случае Н(А ! В) = = Н(А) означает, что ансамбли А и В содержат независимые сообщения, т.е.
В не содержит информации об А. Поскольку, как видно из (2.8), условная энтропия Н(А ! В) никогда не бывает больше Н(А), можно утверждать, что знание В уменьшает (в среднем) априорную неопределенность относительно А. Поэтому разность »', ':, и информации, радионавигационным маяком или возникает в анстве вследствие взаимодействия специальным образом изованного электромагнитного поля с радиолокационной це- ,,:- Соотношения (2.1) ... (2.10) позволяют сформулировать следуе свойства меры количества информации и энтропии. ';:::,~ Информация — неотрицательная величина 4А,В) > О, приравенство соответствует независимым ансамблям сообщений, '''е. случаю, когда информация в В об А полностью разрушена. '" ° 1(А,В) <Н(А) и 1(А,В) < Н(В), причем равенство соответствует означной связи (тождественности) элементов массивов А и В. ':.
° Поскольку очевидно, что Н(А!А) = О, из (2.9) следует, что А,А) = Н(А), т.е. энтропия источника информации есть ни что : . ое, как его собственная информация (информация о самом себе). '::' Перечисленные свойства информации и энтропии подсказы; ют вывод, важный для объяснения деструктивных свойств по"'ех, сопровождающих работу информационных систем: если А— - самбль исходных сообщений, а  — ансамбль сообщений, вос'-' оизводимых информационной системой, то 1(А, В) = Н(А) в том " только в том случае, когда преобразование А» В однозначно и ' ратимо. Иначе 1(А,В) < Н(А) и разность Н(А)-1(А,В) = Н(А!В) 2. 1 ( 1) потеря информации об А при воспроизведении В. Обозначив величиной Тсреднее время передачи одного сообения, можно оценить скорость передачи Я(А,В) информации АкВ: Я(А,В) = (2.12) е А(А,В) — это тоже удельное количество информации, но не одно сообщение, а на единицу времени.