А.И. Куприянов - Основы защиты информации (1022813), страница 8
Текст из файла (страница 8)
Ниже этой кривой ин." ормационные системы рабо- Ре тать не могут. Обычно информационные 4 - системы проектируются с рас- 3 :,:. четом на работу при сравнитель- ", й11 Хороших соотношениях сиг- ~!!:,"~!':~а к шуму — = ч > 1. Но при 0 1 2 3 4 Рв Р, Р,ц для (2.24) справедливо ближение 1оа д с: и~1оК, д. (2.30) и/с Такая простая зависимость скорости передачи информации от трех переменных ю, Ти О позволяет поставить в соответствие сигналу некоторый объем в трехмерном пространстве рис, 2.7. Если рассматриваются спектт, рально-временные свойства конкретного сигнала, то величина Рис.
2.7. Информационный объем и~Т1оК9 называетсЯ его (сигнала) сигнала и информационная ем- информационнымобьемом. Если кость канала связи в (2.30) фигурируют полоса пропускания и, время наблюдения Ти логарифм соотношения сигнала к шуму в канале передачи информации, то говорят, что с— это информационная емкость канала связи. 2.2. Качество инФормации Р, =1 —,'~ Р(,х.)Р(х ~х;) =1-Р ~=1 (2.31) Если х — непрерывная случайная величина, принимающая значения на сегменте х~ (Х;„, Х,„)„мерой точности могут служить некоторые неслучайные функции от ошибки ее воспроизведения х' на выходе информационной системы Л=х — х*, (2.32) 34 Качество функционирования информационных систем связано, прежде всего, с точностью передачи и(или) воспроизведения сообщений.
Почти все иные показатели качества некоторым образом связаны с точностью. Так, дальность или зона действия — это расстояние, в пределах которого системы обеспечивают точность. Помехоустойчивость и помехозащищенность — способность сохранять точность в присутствии помех. Надежность — способность обеспечивать точность при сбоях и отказах аппаратуры и т.д. Если сообщение — дискретная случайная величина, характеристикой точности служит вероятность ошибки его воспроизведения, т.е.
вероятность трансформации истинного значения сообщения х; в некоторое другое х., 1 ~ у. Это условная вероятность Р,, = = Р(х; ~ х;). Но полная вероятйость ошибки зависит еще и от того, сколько разных сообщений может формироваться и передаваться, а также каково априорное распределение вероятностей на ансамбле возможных сообщений: ' х* — оценка сообщения х, т.е. результат воспроизведения соения х информационной системой. ',:!'Для разных систем в разных ситуациях х может быль функцией .
мени х(~), или пространственных координат х(Я), или и тех и переменных х(~, Я). Соответствующую конструкцию будет и ошибка Л (2.32). ,:::.:Полной характеристикой случайной ошибки может служить :юность распределения ее вероятностей Р(х). Как правило, от .'формационных систем требуется высокая точность. Это значит, : плотность распределения ошибок сравнительно узкая, т.е. су- етвенно отличается от нуля в пределах интервала значений х, ого меньшего интервала априорных значений. В пределах малой '" рины закона распределения ошибок он может быть аппроксиован квадратичной экспонентой. Иначе говоря, закон распре- ения вероятностей ошибок можно считать нормальным.
При :. и для характеристики ошибки достаточно двух величин: ,: математического ожидания М(Л», иначе называемого ошибкой ;: щения; ', дисдерсидд,' = М~~д- м1ь)Ц. ':: Когда ошибка зависит от времени и пространственных коорт, для характеристики ошибки может понадобиться ее авто- '- реляционная функция или эквивалентная величина спектральплотности, ':;:-Системы, осуществляющие несанкционированный доступ к . ому информационному ресурсу, т.е.
использующие канал утеинформации, работают в таких условиях, когда модель только ,: рмальных или только аномальных ошибок оказывается недо- точной или неполной. Действительно, работе таких систем путствует множество факторов, вызывающих как нормальные, и аномальные ошибки. Можно считать, что нормальные ошиб- : вызываются, в основном, естественными причинами (шума- ). Аномальные ошибки имеют антропогенную природу: их по- :ждают специально организованные помехи, имеющие целью " информировать средства несанкционированного доступа к ин- рмации.
Разумеется, такое разделение, весьма условно: приные, не управляемые людьми факторы могут вызывать сбои отказы аппаратуры и, как следствие, аномальные ошибки. Спе, ально организованное противодействие может использовать не "зинформирующие, а шумовые помехи, которые не обманывапротивника в информационном конфликте, а просто затрудт его работу, несанкционированный доступ к информации. ':: Энтропия и количество информации дают возможность сравть информационные системы разного функционального на' чения и структуры по производительности и информативнос: по скорости передачи информации.
35 Показатель точности хорошо и достаточно описывает качество работы систем передачи и извлечения информации. Но для исследования характеристик информационной безопасности указанные характеристики не очень подходят, поскольку не отражают меры ценности информации. 2.3. Ценность информации (2.33) А ='Яг(х!,)Р(х!,,и„). Естественно выбрать такую стратегию защиты (такое распределение ресурса средств защиты), которая минимизирует средний риск. Для асимптотического непрерывного случая можно принять Я;„= п!!п~г(х)дР(х,и).
(2.34) ц При заданных функции потерь г(х~) и распределении вероятных рисков Р(х~,и) вариационная задача (2.34) отыскания такого 36' Ценность информации следует определить как максимальную пользу, которую может принести данное количество информации, или как те максимальные потери, к которым приведет утрата данного количества информации. Из этого определения следует, что, во-первых, ценность информации должна быть неубывающей функцией количества информации и, во-вторых, ценность информации может различаться для того субъекта, который эту информацию добывает (желает извлечь пользу из полученных данных), и для того субъекта, кто ее защищает (желает предотвратить потери от утраты или искажения данных), Пусть имеются некоторые данные х„~ Х, Ы 1: К. Например, Х— массив записей на любом Физическом носителе.
В соответствии со спецификой и назначением этих данных может быть назначена функция риска г(х~) потери от утраты или искажения конкретного элемента данных х!,, Кроме того, на множестве Х может быть задано распределение вероятностей угроз данным Р(х,), т.е. вероятность утраты или разрушения этих данных. Организуя защиту информации, нужно влиять на распределение Р(х!,), используя для этого управляющую переменную и~ — — и(х~), от которой распределение зависит. Для управления защитой информации нужно вьщелять некоторые ресурсы и„~ У. Поскольку эти ресурсы всегда ограничены, улучшение защиты одних данных будет проведено в ущерб безопасности других.
Усредненный по всему множеству риск равен ! С =,'~', с(х~)Д(х~,и~), (2.35) 1=! 4де с(х~) — Функция выигрыша; О(х!) — распределение вероятостей получения несанкционированного доступа к информационному массиву Х; ц! — управляющая переменная. Из приведенных рассуждений следует, что сторона, осуществ;:ляющая незаконное обращение с чужими массивами данных, должна предпринимать такие действия, которые максимизируют сто:имость среднего выигрыша ! С = так~,'с(х„)Ях„ц,), (2.36) ияя на распределение Д(х„,и!) посредством выбора значения равляющей переменной и„. Решение задачи выбора оптимальной стратегии информаци;иной агрессии можно получить на основе применения методов, 'налогичных тем, что минимизируют средний риск системы заиты информации.
Несколько более сложная ситуация будет наблюдаться при ыборе оптимальной стратегии действий одной стороны в усло"иях неопределенности относительно действий противника„т.е. '': птимизации поведения в условиях информационного конфликта. ормально неопределенность относительно угроз означает не"звестность входящих в (2.33) и (2.36) распределений Р(х!,и~) и (хьюг).
37 авления и или такого распределения Р(х), которые миними-;$ируют средний риск, может быть решена методом множителей ' агранжа. Система, осуществляющая информационную агрессию про:-:гив массива Х, будет, по-видимому, так планировать свои дей-::'ствия, чтобы максимизировать приносимую ими пользу. Макси'мизация пользы может достигаться разными методами, завися::щими как от цели агрессивных действий, так и от способа их :~)существления, от задействованных ресурсов. Целью может быть ::несанкционированный доступ к данным для последующего их использования во вред собственнику и владельцу информации ',:(разведка), разрушение данных в массиве записей (информационная диверсия), подмена истинных данных некоторыми лож:;ными (дезинформация).
Любые агрессивные действия против чу':;жого информационного ресурса должны преследовать достиже::ние некоторой пользы для одной из сторон информационного '',''конфликта, приобретение этой стороной некоторого качества, :::усредненная стоимость которого ' Удовлетворительной моделью для описания такого конфликта может служить игра двух систем: А — защищающей информацию и  — осуществляющей информационную агрессию.
Поскольку в информационном конфликте несовпадающие интересы противников не точно противоположны, игра относится к классу биматричных неантагонистических бескоалиционных игр с ненулевой суммой 1181. В рассматриваемом частном случае двухстороннего конфликта наблюдается бескоалиционная биматричная итра.
Модель бескоалиционной игры представляется в форме 1181: Г=(1,(~с~;) ~~ 1,Я) !'~ 1), (2.37) (Н;) = ~ Н,(и, и,,...ш~) с1р(ю,)с1р(ы2)...с1р(ы~), (2.38) где % — множество ситуаций в чистых стратегиях, т.е. % = П ю;. М1 Теория бескоалиционных игр изучает поведение разумных игроков. Таким игрокам не выгодно отступать от стратегий, обеспечивающих равновесие в игре. Для ситуации равновесия игры Г(.) %* = (и~~;и~ ~2, ... ю~ ) (2.39) 38 где 1 — множество игроков (в частном случае двухстороннего конфликта 1= 2); Н; — функция выигрыша ~-го игрока, заданная на прямом произведении % = П ю; чистых стратегий игроков. ы Поскольку в рассматриваемом случае 1= 2, такая игра описывается парой матриц размером (2х2): Н„= (а„-) и Нв = (Ь~), или, что эквивалентно, матрицей Н„Нв, каждый элемент которой представляет упорядоченную пару аф„-.