Диссертация (1173147), страница 19
Текст из файла (страница 19)
201.95сомнительным это положение, когда за объем передачи информации может бытьпризнана буква алфавита.Именно этот подход в теории информации получил наибольшее развитие.Спустя четыре года Р. Хартли счел более удобным в качестве такой мерыприменять логарифм этой величины, т.е. log(1/n).Двадцать лет спустя, в 1948 г., К. Шеннон для этой же цели ввел величину Hi= -k logq pi, где Hi – количество информации, связанное с i-ой буквой алфавита, pi –частота встречаемости этой буквы в данном языке, q – основание логарифмов, а k– коэффициент пропорциональности, величина которого зависит от q и отизбранных единиц измерения количества информации.
Знак «минус» перед kпоставлен им для того, чтобы величина Hi всегда была положительной1. ФормулаШеннона получила всеобщее признание и легла в основу современной«классической теории информации».Вместе с тем сам Шеннон не претендовал на фундаментальные открытия вобласти теории информации, называя свои работы «математической теориейсвязи». Это своего рода предостережение быстро выпало из внимания егопоследователей. «Однако, – пишут российские ученые, – надо ясно представитьсебе, что, не давая определения понятию “информация” и, в то же время, называя«количеством информации» частотную характеристику букв кода, К.
Шеннон какбы создавал возможность для отождествления двух совершенно разных по своейприроде феноменов: информации как семантики сообщения и «информации» какчастоты осуществления какого-либо события. Это делало возможной подменутерминов, что и было быстро реализовано. Уже через несколько лет французскийфизик Л. Бриллюэн2 в качестве основного достоинства новой теории называлотождествление информации с величиной, обратной частоте осуществлениякакого-либо события. Термин “информация” в указанном выше смыслеСм.: Шеннон К. Статистическая теория передачи сигналов // Теория передачи электрическихсигналов при наличии помех. М., 1953.
Цит. по: Иншаков М.В. Обеспечение информационнойбезопасности России в условиях становления глобального информационного общества.Диссертация на соискание ученой степени кандидата политических наук. М., 2007. С. 167.2См.: Бриллюэн Л. Наука и теория информации. М., 1960; Бриллюэн Л. Научная неопределенностьи информация. М., 1966.196окончательно слился с термином “количество информации”»1. Вскоре эта теориябыла переименована другими учеными в «классическую теорию информации»,став ведущей в соответствующей отрасли знания и наиболее распространеннымсреди западных исследователей.Отечественные ученые разделились в этом отношении на два лагеря. Одни изних, представители так называемого «кибернетического» течения, полностьювосприняли этот подход к информации и стали развивать достижения К. Шеннонаи У.Р. Эшби (наиболее известные среди них А.И.
Берг, В.М. Глушков, А.П. Ершови др.)2. Но другая группа ученых признала этот подход некорректным. Отдаваядолжное работам К. Шеннона и его последователей, они стремились в то же времядать понятийное определение самой информации, которое они строили на основеболее общего философского понятия отражения3.В рамках этого подхода вскоре наметилось разделение ученых насторонниковразногоинформации.Так,толкованиясторонникипонятияодногоизи,соответственно,них,получившегофеноменаназвание«атрибутивного», определяют информацию как свойство, присущее всемотражательнымпроцессамвприроде.Сторонникижедругого,«функционального», определяют информацию в качестве атрибута толькосамоуправляющихся,«функциональной»самоорганизующихсяконцепцииинформациисистем4.Ввозниклисвоирамкахэтойсобственныеразновидности: «управленческая» (в которой информация неразрывно связываетсятолько с управлением), «самоуправленческая» (где эта связь предполагает лишьсамоуправление), «семиотическая» (где информация ставится в однозначную связьКорогодин В.И., Корогодина В.Л.
Информация как основа жизни. Дубна, 2000. С. 30-31.«Информация, – писал, например, в свое время В.М. Глушков, – в самом общем ее пониманиипредставляет собою меру неоднородности распределения материи и энергии в пространстве и вовремени, меру изменений, которыми сопровождаются все протекающие в мире процессы…»(Глушков В.М. Мышление и кибернетика // Вопросы философии.
1963. № 1. С. 36).3См.: Пушкин В.Г., Урсул А.Д. Информатика, кибернетика, интеллект. Философские очерки.Кишинев, 1989.4См.: Дубровский Д.И., Вержбицкий В.В. Категория информации (философский обзор) //Философские науки. 1976. № 1. С. 151, 155.1297со знаками)1 и т.д. Однако, с нашей точки зрения, для общего разрешения проблемывсе эти разногласия не имеют принципиального значения.Суть предлагаемого этими учеными решения состоит в том, что информацияявляется не материей и энергией, а отражением одних материальных процессов иструктур в других материальных процессах и структурах. Эти отраженияматериальны и объективны в том смысле, что они существуют в природенезависимо от того, воспринимает ли их кто-то в качестве отражений или нет.Однако для того, чтобы стать информацией, такие материальные отражениядолжны обязательно быть восприняты в качестве отражений способными на этоживыми или разумными существами.
Иначе говоря, любые материальныеотражения начинают существовать в качестве информации лишь с появлением вприроде особых субъектов, способных к ее восприятию (или интерпретации) вкачестве таковых. До появления таких существ информация в природе несуществует, поскольку имеет место лишь ее материальная основа: многоразличныеотражения одних материальных тел и процессов в других.Однако, с появлением в природе существ, потенциально способныхвоспринимать материальные структуры и процессы в качестве информации (дляних), не происходит никакого автоматического восприятия их в таком качестве.Как животным, так и человеку приходится этому учиться.
«Мы, люди, – писалзнаменитый врач и алхимик Парацельс, живший в XVI в., – открываем то, чтоскрыто в недрах, благодаря знакам и внешним соответствиям; и таким образом мынаходим все свойства трав и все, что есть в камнях. Нет ничего ни в глуби морей,ни в вышине небесного свода, чего человек не был бы способен открыть. Нет такойгоры, как бы велика она ни была, которая могла бы скрыть от взгляда человека то,что внутри нее; оно открывает нам свое присутствие через соответственныезнаки»2. Причем, научение таким открытиям представляет собой длительныйСм.: Пушкин В.Г., Урсул А.Д.
Информатика, кибернетика, интеллект. Философские очерки.Кишинев, 1989. С. 15. Цит. по: Иншаков М.В. Обеспечение информационной безопасностиРоссии в условиях становления глобального информационного общества. Диссертация насоискание ученой степени кандидата политических наук. М., 2007 С. 167.2Цит. по: Степанов Ю.С. Семиотика. М., 1971. С. 44.198исторический процесс. Даже сегодня, находясь на высокой стадии своегоисторического развития, люди еще очень многого не видят и не понимают вприроде. Многие «вещи» нам до сих пор «ничего не говорят». Но уже, может быть,завтра мы научимся их видеть, слышать и понимать.Признание такого подхода приводит нас к мысли, что: а) информациягенерируется(производится)толькосамимчеловеком(несмотрянаееобъективную материальную основу, существующую до и независимо от того, ктовпервые воспринимает ее в качестве информации), и б) извлечение (порождение)информации является сложным и длительным процессом, в котором нет ничегоавтоматического.«Информация, – писал в свое время Н.
Винер, – это обозначение содержания,полученного из внешнего мира в процессе нашего приспособления к нему» 1. Болееточное и четкое понимание этого явления заключается в том, что производствоинформации – не менее трудоемкий процесс, чем любое другое (в том числематериальное) производство. Следовательно, главное в теории информации – этоне процессы ее передачи, распространения и т.п., а процессы ее «добычи», поиска,переработки, обработки, т.е. процессы информационного производства.