ПОД конспект (1184369), страница 2
Текст из файла (страница 2)
........................................................................ 5877. Точность плавающей арифметики. Машинный эпсилон. ............................................ 5978. Перечислить алгоритмы оптимизации объектных программ, которые могутповлиять на точность вычислений. ............................................................................................ 60§9. Средства автоматического распараллеливания программ ................................................ 6021. Информация. Меры Хартли, Шеннона.Различные формулировки понятия ―информация‖: В законодательном плане: сведения о лицах, предметах, фактах, событиях, явлениях и процессахнезависимо от формы их представления (ФЕДЕРАЛЬНЫЙ ЗАКОН Об информации, информатизации изащите информации); В концептуальном плане: универсальная субстанция, пронизывающая все сферы человеческойдеятельности, служащая проводником знаний и мнений, инструментом общения, взаимопонимания исотрудничества, утверждения стереотипов мышления и поведения (ЮНЕСКО); бесконечныйзаконопроцесс триединства энергии, движения и массы в пространстве и во времени с различнымиплотностями кодовых структур бесконечно-беспредельной Вселенной.
Информация внутри нас,информация вне нас. Есть законы существования этой информации внутри и вне нас (МеждународнаяАкадемия Информатизации) В математике, системном анализе — любая сущность, которая вызывает изменения в некоторойинформационно-логической (инфологической — состоящей из сообщений, данных, знаний. абстракцийи т. д.) модели, представляющей систему В термодинамике:1. отрицание энтропии, отражение меры хаоса в системе (Бриллюэн);2. передача разнообразия (Эшби);3. мера сложности структур (Моль);4.
величина обратно пропорциональная беспорядку в системе;5. отраженное разнообразие, то есть нарушение однообразия;6. сообщение о чем-либо, уменьшаемая неопределенность, отражение разнообразия в любых объектахи процессах; Некоторая совокупность сведений, знаний, которые актуализируемы (получаемы, передаваемы,преобразуемы, сжимаемы и/или регистрируемы) с помощью некоторых знаков (символьного, образного,жестового, звукового, сенсомоторного типа). Сведения об окружающем мире и протекающих в нѐм процессах, воспринимаемые человеком илиспециальным устройством и передаваемые другим людям устным, письменным или другим способом Содержание, полученное от внешнего мира в процессе приспособления к нему (Винер) Абстрактное содержание какого-либо высказывания, описания, сообщения или известия Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь, обмен сведениями.Существует одна из формулировок понятия знание, которая связывает знание с информацией: знание информация, о которой кто-либо осведомлен.
Знание противоположно незнанию - отсутствию достовернойинформации о чем-либо.Количество информации - числовая величина, адекватно характеризующая актуализируемую информациюпо разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состоянийотображаемой системы.Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, тоактуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мераинформации (события).Мера, как было сказано выше, - непрерывная действительная неотрицательная функция, определенная намножестве событий и являющаяся аддитивной (мера суммы равна сумме мер).Меры могут быть статические и динамические, в зависимости от того, какую информацию они позволяютоценивать: статическую (не актуализированную; на самом деле оцениваются сообщения без учета ресурсови формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсовдля актуализации информации).Мера Р.
Хартли. Пусть имеется N состояний системы S или N опытов с различными, равновозможными,последовательными состояниями системы. Если каждое состояние системы закодировать, например,двоичными кодами определенной длины d, то эту длину необходимо выбрать так, чтобы число всехразличных комбинаций было бы не меньше, чем N. Наименьшее число, при котором это возможно,называется мерой разнообразия множества состояний системы и задается формулой Р. Хартли: H=klogаN,где k - коэффициент пропорциональности (масштабирования, в зависимости от выбранной единицыизмерения меры), а - основание системы меры.Если измерение ведется в экспоненциальной системе, то k=1, H=lnN (нат); если измерение былопроизведено в двоичной системе, то k=1/ln2, H=log2N (бит); если измерение было произведено в десятичнойсистеме, то k=1/ln10, H=lgN (дит).3Пример.
Чтобы узнать положение точки в системе из двух клеток т.е. получить некоторую информацию,необходимо задать 1 вопрос ("Левая или правая клетка?"). Узнав положение точки, мы увеличиваемсуммарную информацию о системе на 1 бит (I=log2 2). Для системы из четырех клеток необходимо задать 2аналогичных вопроса, а информация равна 2 битам (I=log24). Если же система имеет n различных состояний,то максимальное количество информации будет определяться по формуле: I=log2n.Справедливо утверждение Хартли: если в некотором множестве X={x1, x2, ..., xn} необходимо выделитьпроизвольный элемент xi X, то для того, чтобы выделить (найти) его, необходимо получить не менее logan(единиц) информации.Если N - число возможных равновероятных исходов, то величина klnN представляет собой меру нашегонезнания о системе.По Хартли, для того, чтобы мера информации имела практическую ценность, она должна быть такова,чтобы отражать количество информации пропорционально числу выборов.Мера К.
Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла:где n - число состояний системы; рi - вероятность (или относительная частота) перехода системы в i-есостояние, причем сумма всех pi равна 1.Если все состояния равновероятны (т.е. рi=1/n), то I=log2n.К. Шенноном доказана теорема о единственности меры количества информации. Для случая равномерногозакона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли. Справедливость идостаточная универсальность формул Хартли и Шеннона подтверждается и данными нейропсихологии.Пример.
Время t реакции испытуемого на выбор предмета из имеющихся N предметов линейно зависит отlog2N: t=200+180log2N (мс). По аналогичному закону изменяется и время передачи информации в живоморганизме. Один из опытов по определению психофизиологических реакций человека состоял в том, чтоперед испытуемым большое количество раз зажигалась одна из n лампочек, на которую он должен былуказать в ходе эксперимента. Оказалось, что среднее время, необходимое для правильного ответаиспытуемого, пропорционально не числу n лампочек, а именно величине I, определяемой по формулеШеннона, где pi - вероятность зажечь лампочку номер iЛегко видеть, что в общем случаеЕсли выбор i-го варианта предопределен заранее (выбора, собственно говоря, нет, pi=1), то I=0.Сообщение о наступлении события с меньшей вероятностью несет в себе больше информации, чемсообщение о наступлении события с большей вероятностью.
Сообщение о наступлении достовернонаступающего события несет в себе нулевую информацию (и это вполне ясно: событие всѐ равнопроизойдет когда-либо).См. также вопрос 2.2. Знания и ЭВМ.Аналоговые и непрерывные – АВМЦифровые и дискретные – ЭЦВМ, ЭВМПонятие информации - одно из основных, ключевых понятий не только в системном анализе, но и винформатике, математике, физике и др. В то же время, это понятие - плохо формализуемое, из-за еговсеобщности, объемности, расплывчатости, и трактуется как:любая сущность, которая вызывает изменения в некоторой информационно-логической(инфологической - состоящей из сообщений, данных, знаний, абстракций, структурных схем и т.д.)модели, представляющей систему (математика, системный анализ);сообщения, полученные системой от внешнего мира в процессе адаптивного управления,приспособления (теория управления, кибернетика);отрицание энтропии, отражение меры хаоса в системе (термодинамика);связи и отношения, устраняющие неопределенность в системе (теория информации);вероятность выбора в системе (теория вероятностей);4отражение и передача разнообразия в системе (физиология, биокибернетика);отражение материи, атрибут сознания, "интеллектуальности" системы (философия).Мы будем рассматривать системное понимание этой категории, ничуть не отрицая приведенные вышепонятия и, более того, используя их по мере надобности.Процесс познания - это иерархическая система актуализации информации, в которой знания на каждомследующем уровне иерархии являются интегральным результатом актуализации знаний на предыдущемуровне.
Это процесс интеграции информационных ресурсов, от получаемых с помощью простогочувственного восприятия и до сложных аксиоматических и абстрактных теорий.Данные - синтаксические сигналы, образы, актуализируемые с помощью некоторого источника данных. Онирассматриваются безотносительно к семантическому их смыслу.Информация - это некоторая последовательность сведений, знаний, которые актуализируемы (получаемы,передаваемы, преобразуемы, сжимаемы, регистрируемы) с помощью некоторых знаков символьного,образного, жестового, звукового, сенсомоторного типа.Информация - это данные, рассматриваемые с учетом некоторой их семантической сущности.Знания - информация, обеспечивающая достижение некоторой цели и структуры.Информация с мировоззренческой точки зрения - отражение реального мира. Информация - приращение,развитие, актуализация знаний, возникающее в процессе целеполагающей интеллектуальной деятельностичеловека.Никакая информация, никакое знание не появляется сразу: появлению их предшествует этап накопления,систематизации опытных данных, мнений, взглядов, их осмысление и переосмысление.
Знание - продуктэтого этапа и такого системного процесса.Информация (в системе, о системе) по отношению к окружающей среде (окружению) бывает трех типов:входная, выходная и внутренняя.Входная информация - та, которую система воспринимает от окружающей среды. Такого рода информацияназывается входной информацией (по отношению к системе).Выходная информация (по отношению к окружающей среде) - та, которую система выдает в окружающуюсреду.Внутренняя, внутрисистемная информация (по отношению к данной системе) - та, которая хранится,перерабатывается, используется только внутри системы, актуализируется лишь подсистемами системы.Внутренние состояния системы и структура системы влияют определяющим образом на взаимоотношениясистемы с окружающей средой - внутрисистемная информация влияет на входную и выходнуюинформацию, а также на изменение самой внутрисистемной информации.Основные свойства информации (и сообщений):полнота (содержит все необходимое для понимания информации);актуальность (необходимость) и значимость (сведений);ясность (выразительность сообщений на языке интерпретатора);адекватность, точность, корректность интерпретации, приема и передачи;интерпретируемость и понятность интерпретатору информации;достоверность (отображаемого сообщениям);избирательность;адресность;конфиденциальность;информативность и значимость (отображаемых сообщений);массовость (применимость ко всем проявлениям);кодируемость и экономичность (кодирования, актуализации сообщений);сжимаемость и компактность;защищенность и помехоустойчивость;доступность (интерпретатору, приемнику);ценность (предполагает достаточный уровень потребителя).Охарактеризуем кратко эмпирико-теоретические методы.1.