диссертация (1169158), страница 12
Текст из файла (страница 12)
Как подчеркиваютсовременные социологи: «сбор и переработка информации, ее эффективноеиспользование — необходимый компонент управления [обществом]»79.Философский. Концептуальная природа и сущность информации.Познаваемость феномена. Поиск общих закономерностей функционированияфеномена информации.Вопрос о том материальна или идеальна информация, актуален и посей день.
Стоит по этому поводу привести некоторые определения.Российский философ А.Д. Урсул сделал грандиозную попыткуобобщить философское понимание сущности информации, представивЭнциклопедия кибернетики. В 2-х томах. Т 1. – К.: Госкомиздат УССР, 1974. – С.408.Власова С.А., Козачок В.И. Социальная безопасность управления информацией и знаниями. Социология всовременном мире: наука, образование, творчество.
2012. № 4 (4). С. 207-209.567879четыре определения, которые в целом представляют материалистическуюпозицию по поводу информации. Информация это «1) сообщение,осведомление о положении дел, сведения о чем-либо, передаваемые людьми;2) уменьшаемая, снимаемая неопределенность в результате в результатеполучения сообщений; 3) сообщение, неразрывно связанное с управлением,сигналы в единстве синтаксических, семантических и прагматическиххарактеристик; 4) передача, отражение разнообразия в любых объектах ипроцесса (неживой и живой природы)»80.Подлил«маславогонь»материальной/нематериальнойкибернетикиН.Винер.вприродыСвоимдискуссиюинформацииобопределенииосновоположникпровокационнымвысказыванием«Информация – это не материя и не энергия. Материализм, не признающийэтого, в наши дни не выживет»81 он не только разжег гносеологический хаосв определение сущности информации, но и признал наличие некой третьейсубстанции, кроме материи и энергии, каковой является информация.Причем, не дав в своих работах пояснения высказанной точке зрения, он таки не раскрыл «тайны», позволив интерпретировать его слова, как признаниеидеалистического понимания природы информации.
Позднее, Винер, можносказать,дополнилсвоеотрицаниематериалистическойприродыинформации: «Информация – это обозначение содержания, полученного извнешнегомиравпроцессенашегоприспособлениякнемуиприспосабливания к нему наших чувств»82.Фактически, брошенная им многозначительная фраза послужилатолчком для развития двух подходов к пониманию природы информации:атрибутивного и функционального. Ядром первого, является признаниеУрсул А.Д. Информация // Философский энциклопедический словарь. – М.: Советская энциклопедия,1983. – С.217.81Прим.
автора: работа Винера написана в 1948 г. Мы приводим цитату из книги Винера переведенной нарус. язык в 1958 г.: Винер Н. Кибернетика, или Управление и связь в животном и машине. – М.: Сов. радио,1958. – С. 201.82Прим. автора: работа Винера «The Human Use of Human Beings» вышла в свет в 1950 г. Мы приводимцитату из книги: Винер Н.
Кибернетика и общество // Винер Н. Творец и Будущее. М.: Издательство АСТ,2003. – С.19.5780информации – атрибутом материи. Например,академик А.Д. Урсулописывает информацию как атрибут материи, опредмеченный в сознании:«…представляетсобойлишьтучастьотражения, скажем, образа,возникающего в голове человека, которая может опредмечиваться в ходепередачи данного образа»83.В противоположность атрибутивному, сторонники функциональногоподхода утверждают, что информация связана с функциями, как живых, так инеживых (кибернетических) самоорганизующихся систем.Исследование сущности природы информации было бы невозможнымбез тех открытий, которые были сделаны первопроходцами теорииинформации К.Шенноном, Г.
Найквистом, Р. Хартли. Именно благодаря им,в XX веке стали пересматриваться философские представление обинформации. Наиболее точно различие представлений между философами иестественниками описывает современный популяризатор науки Дж. Глик. Оночень точно подметил причину различия взглядов, основоположника теорииинформации К. Шеннона и родоначальника кибернетики Н. Винера: «Там,где Шеннон видел себя математиком и инженером, Винер считал себя,прежде всего философом»84.Демаркационнаялиниямеждуфилософскойи«технической»интерпретацией информации была проложена в работе К.
Шеннона«Математическая теория связи»: «Как Найквист и Хартли до него, Шеннонхотел оставить в стороне «психологические факторы» и сосредоточитьсятолько на «физическом»»85. Фактически, Шеннон отсек от определенияинформации семантическую и аксиологическую сущность, лишил еесодержания. В своей работе он не рассматривал смысл, ценность, полезность,или политическую значимость информации. Его интересовал сам процесс.«ОсновнаязадачасвязисостоитвточномилиприближенномУрсул А.Д. Путь в ноосферу (концепция выживания и устойчивого развития цивилизации). – М.: Луч,1993. – С. 79.84Глик Дж.
Информация. История. Теория. Поток // Джеймс Глик; пер.с англ. М.Кононенко. – М.: АСТ:CORPUS, 2013. – С.255.85Глик Дж. Информация. История. Теория. Поток…С.234.8358воспроизведении в некотором месте сообщения, выбранного для передачи вдругом месте. Часто сообщения имеют значение, т.е. относятся к некоторойсистеме, имеющей определенную физическую или умозрительную сущность,или находятся в соответствии с некоторой системой. Эти семантическиеаспекты связи не имеют отношения к технической стороне вопроса.Существенно лишь, что посылаемое сообщение является сообщением,выбранным из некоторого множества возможных сообщений»86.
Но,парадокс в том, что описав «технические» признаки информации он темсамымположилначалоновомуэпистемологическомупониманию«информационного единства реальности»87, в котором семантическаясоставляющая информации выходит на передний план.ОбычноописываяпредставленияШеннонанаинформацию,исследователи в области истории и философии науки делают акцент на том,что он обозначил новый подход в теории связи – вероятностный(статистический).Хартли,доэтогоиспользовалмножественный(комбинаторный) подход. Для измерения меры информации он применялпонятие «многообразие» и как единственное условие – «ограничение»множества.
Это означало, что выбор предопределен. Акцент на такого родаразличение в подходах – это лишь усеченное понимание вклада Шеннона.Принципиально важным является описанные им признаки информации.Кратко обозначим их, поскольку они позволяют углубить представления осущности информации.«Информация тесно связана с неопределенностью. Ее можно измерить,сосчитав количество возможных сообщений. Если возможно лишь односообщение, неопределенности нет и, следовательно, нет информации.Некоторые сообщения могут быть более вероятными, чем другие, иинформация подразумевает неожиданность (способ выражать вероятности).Шеннон К. Работы по теории информации и кибернетике / пер.
с англ. К. Шеннон; под ред. Р.Л.Добрушина, О.Б. Лупанова. М.: Издательство иностранной литературы, 1963. С. 243-244.87Колин К.К. Информационная парадигма познания: актуальность проблемы. // Партнерство цивилизаций.2015. № 1-2. – С. 269-283.5986Имеет существенное значение трудность передачи сообщения из однойточки в другую.Информация есть энтропия»88.Ключевым признаком информации, по мнению самого Шеннона,является энтропия. Это понятие, вошедшее в тезаурус естественных исоциальных наук, сформулировано в физике. Оно является одним изключевых в описании функций состояния термодинамической системы.Энтропиявцеломозначаетмерунеопределенности,хаосаипротивопоставляется негэнтропии – мере наивысшего порядка89. Шеннон,даже сначала информацию обозначил термином энтропия.
Эта мысль пришлак нему, во время проведения экспериментов с «угадыванием» слов в тексте.Он настаивал на том, что письменный английский текст – избыточен90. Когдачеловек, читающий текст угадывает следующую букву – это, по его мнению,означало отсутствие информации (Прим. автора: Шеннон указывал, книгабыла выбрана случайно). «Он собирался представить появление информациикак статистический процесс, генерирующий сообщение с различнымивероятностями…Информация – это неожиданность»91. По сути, он обозначилэнтропией разницу между информацией, которая содержится в сообщении итой, которая угадываема в сообщении (Прим.
автора: т.е. не-информации).Следовательно, по его мнению, информация снимает неопределенность иснижает энтропию.Один из знаменитых физиков того времени, кибернетик Хейнц фонФёрстер в научной дискуссии92 посвященной «Теории информации»См. работы: Shannon C.E. «A mathematical theory of communication» Bell Syst. Tech. J., vol. 27, pp. 379-656,July–Oct. 1948; Shannon C.E.
«Communication theory of secrecy systems» Bell Syst. Tech. J., vol. 28, pp. 656–715, Oct. 1949; Communication Theory – Exposition of fundamentals, IRE Transaction on Information Theory.1950. № 1. P.170-173.89Прим. автора: термин негэнтропия ввел американский физик Л.