Диссертация (1024674), страница 12
Текст из файла (страница 12)
В связи с развитием теории информационных потребностей, начало которому положил А.В. Соколов в [172], информационный подход по своим возможностям существенно расширяется. В [134, 135] показаны возможности прогнозирования развития техногенных информационных потребностей в силу активной маркетинговой политики производителей мобильных устройств сотовой телефонии и интернет.
-
Понимание и разъяснение информации М. Мазуром в конкретных
науках
Многие специалисты в технических науках интуитивно понимают информацию, как “снятую неопределенность”. Природа такой интуиции не связана с вышеупомянутой “интуицией” в обыденном сознании, когда знания и информация синонимичны и означают полезные сведения. Далее мы рассмотрим подробнее происхождение конкретнонаучных определений информации. Здесь мы лишь отметим, что “снятая неопределенность” появилась после изучения математической теории связи К. Шеннона. Сам К. Шеннон, как известно, такого определения не давал, он лишь дал свое определение меры количества информации, которое было связано с определением вероятности происхождения определенного события. Из понимания информации, как “снятой неопределенности”, зачастую делаются вполне конкретные выводы, например, при изучении текстов.
Ряд проблем метафорического понимания информации, как это часто бывает в истории науки, имеет своим источником работы по изучению энтропии русских поэтических текстов А.Н. Колмогорова и его учеников в семидесятых годах прошлого века [85]. Информация в этих работах “определяется” вслед за К. Шенноном по “умолчанию”, как понятие само собой разумеющееся. Количество информации, соответственно, определяется по К. Шеннону в рамках равновероятной модели событий в получаемом сообщении. Но эта модель не вполне соответствует ситуации в морфологически и синтаксически связанных текстах. Расположение символов в тексте не равновероятно.
Авторитет великого математика позволил убедиться в возможности применения аппарата математической теории связи даже в таких далеких от задач связи областях, таких, как филология. Когнитология и современная психология позволяют по - новому взглянуть на понимание информации у А.Н. Колмогорова и его учеников. Интуитивно они понимают информацию, как “снятую неопределенность”. Чем неожиданнее используемое в поэтическом произведении слово, тем оно информативнее.
С точки зрения современной когнитологии субъект, в своем социальном поведении, руководствуется неосознаваемыми предположениями (паттернами). Опыты с “кривой комнатой” доказывают, что даже при зрительном восприятии действительности субъект воспринимает искаженную реальность, опираясь на предположения о типичной комнате с горизонтальными полами, и его сознание выстраивает совершенно ложную информационную реальность, в которой другой субъект в конце комнаты непропорционально маленький. При восприятии вербально - логической информации субъект также опирается на некие не осознаваемые им предположения.
Таким образом, при изучении текстовых произведений А.Н. Колмогорова подразумевалась степень субъективной предположительности: чем она меньше, тем информативнее следующее слово. Если сведения совпадают с предположениями, то они не несут информации. Субъективная предположительность, по - видимости, затрудняет использование равновероятной модели событий для анализа текстов.
Еще у М. Мазура в [101] показаны проблемы со “сложным контекстом”, когда заведомо абсурдные сообщения оказываются осмысленными и, следовательно, могут совпасть с какими-то предположениями, подходящими для более сложного контекста, чем исходный, а также для простых и очевидных предположений. Более адекватно современному пониманию информации в ее функциональной трактовке соответствует терминосистема “данные – информация - знания”. Понимание первостепенной роли предположений для восприятия вербально - логической информации позволяет определить ее место в терминосистеме “данные – информация - знания”. Интерпретация данных производится субъектом на основе его знаний с учетом других индивидуальных характеристик, и именно это позволяет решать задачи полисемии (контекста) и определять расхождения с предположениями (неожиданности информации).
В качестве дополнения к предыдущему подразделу приведем почти дословно из [101] материал, разъясняющий ограничения на возможности использования теории К. Шеннона. Они особенно полезны для студентов и аспирантов, знакомых с картографической и геодезической информацией, которую относят к “статической” информации. В отличие от ситуации, рассматриваемой в математической теории связи, в геодезии и картографии вероятностно - событийная модель малоприменима, поскольку никаких событий не происходит (“все уже произошло”).
Как известно, основой математической теории связи явилась формула 2.1 К. Шеннона [273, 306, 307]:
n
Н = ‒ Σ р i log p i , (2.1)
i=1
выражающая энтропию H множества n вероятностей рi……., pn и в численном виде описывающая “количество информации”.
Из приведенной формулы следует, что Н = 0 тогда и только тогда, когда одна из вероятностей равна единице. Таким образом, все остальные вероятности равны нулю. Это есть состояние определенности, или уверенности. Таким образом, утверждение, что из множества событий, каждое из которых может наступить с определенной вероятностью, и когда одно действительно наступило, сводит неопределенность к нулю. Это, по словам К. Шеннона, позволяет рассматривать величину Н как “разумную количественную меру возможности выбора, или меру количества информации”.
Когда все вероятности равны между собой ( рi =1 / п ), величина H принимает максимальное значение:
Н = log n (2.2)
На основании этой формулы с учетом того, что при n = 2 двоичный логарифм log 2 n = 1 и, следовательно, Н = 1, за единицу количества информации, которой дали название “бит”, было принято количество информации, соответствующее утверждению, что произошло одно из двух равновероятных событий.
В соответствии с этим количество информации в битах, получаемое при сообщении, что произошло одно из п равновероятных событий, выражается формулой, выведенной еще раньше Р. Хартли:
H = 1оg 2 n. (2.3)
Далее М. Мазур указывает, на то, что понятие “количество информации” определено способом, не оставляющим места для размышлений над тем, “что такое количество информации”, так как оно получено путем разумного терминологического соглашения, основанного на математической формуле. С научной точки зрения подход является безупречным.
Однако с самим термином ”количество информации” связана некоторая неясность, ибо в неявном виде предполагается: если известно, что такое количество информации, также известно, что такое информация. Эта проблема хорошо иллюстрируется также цитатой из [101]: “теория информации как название для обозначения научной дисциплины очень привлекательно. Однако, если это название применить к предмету данной книги, оно окажется в какой-то степени ошибочным”. И далее: “Шеннон отдавал себе, наверное, отчет в том, что слово “информация” может ввести в заблуждение, и поэтому назвал свою работу “Математическая теория связи”.
Употребляя слово “информация” в обычном смысле, можно сказать, что работа Шеннона касается больше передачи сигналов, несущих информацию, чем информации как таковой. Работа Шеннона больше имеет дело со связью, чем с трудно уловимым конечным результатом связи, которым собственно и является “информация”. Далее указывается на то, что “эта формулировка показалась особенно сенсационной гуманитариям, у которых появилась надежда, что на этой основе они смогут решать свои проблемы методами, аналогичными применяемым в точных науках. Утвердило их в этом мнении то обстоятельство, что за теорией, основанной на приведенных выше формулах, закрепилось название “теория информации”. Это наводит на мысль, что предмет данной теории — сама информация, а не только количество информации.
Однако это мнение ошибочно, так как:
во-первых, оно требует теоретического обоснования самого понятия информации;
во-вторых, даже понятие количества информации не охватывает всех случаев, в которых требуется количественное описание информации.
Дело в том, что для использования этого понятия нужно определить множество событий, которые могут произойти, и вероятности наступления каждого из них. В то же время часто возникает необходимость количественного описания информации в условиях, когда множество событий точно не определено, а вероятности их наступления указать невозможно. Например, программы обучения истории в школе охватывают большее или меньшее число исторических фактов, при этом, для учителя, очевидно, что чем белее обширна программа, тем больше ученик получает информации.
Для количественного описания этой разницы учитель не сможет воспользоваться принятой в теории информации мерой “количества информации”, ибо едва ли кто - нибудь сможет указать полное число всех исторических фактов. Да и как приписать каждому из них вероятность, если каждое из них уже произошло? По этим причинам невозможно выразить “количество информации”, заключенное, например, в утверждении, что сейчас 1970 год.
К какому множеству лет принадлежит этот год? Как можно говорить о вероятности наступления этих лет, особенно минувших, то есть, тех лет, которые уже не могут произойти ни с какой вероятностью? А как применить понятие “количество информации”, например, к географической карте? Ведь карта содержит самую различную информацию: по ней, например, можно узнать, что Стокгольм расположен севернее Будапешта, что от Мадрида до Белграда 2000 км, а расстояние от Лондона до Рима вдвое больше, чем до Женевы. Сколько же бит содержит каждая такая информация? О каких вероятностях может здесь идти речь? Ведь каждый элемент карты, как и каждый элемент территории, существует, а не “происходит” с какой-то вероятностью.
А как описать количество информации в геометрии, например, в утверждении, что один угол составляет половину другого? Ведь элементы геометрии вообще не “происходят”, это понятия абстрактные. В связи с такого рода неясностями возникает недоумение, почему, несмотря на существование теории информации, в обычных, чаще всего встречающихся на практике случаях из нее нельзя узнать, что такое информация, и даже то, каково в том или ином случае количество информации (что, в конце концов, является главным понятием в этой теории)”.
Также М. Мазур указывает на то, что в “теории информации, изучающей системы, в которых в цепь передачи сообщений включены живые организмы, особенно человек как источник и потребитель информации, следовало бы принять за основу более широкое, не рассмотренное здесь еще понятие информации. Только на такой основе можно будет дать ответ на второй вопрос, касающийся количественной меры информации. При этом следует иметь в виду, что в отношении своего приближения к действительности всякая математическая модель обладает большими или меньшими недостатками.
Поэтому вопрос “что такое информация?” превращается в вопрос “каково разумное определение информации в рамках введенной идеализации”? Ответ на этот вопрос дается путем проверки полученных результатов на практике. Теория информации еще сравнительно молода, поэтому как для совершенствования самой теории, так и для развития ее практических приложений требуется усиленное взаимодействие между теорией и практикой”.
Предпринимались также попытки ввести понятие информации на основе следующих ее разновидностей. У. Уивер указывает три “уровня” информации и соответствующие им три вида проблем:
— техническая проблема: насколько точно (accurately) могут быть переданы знаки?
— семантическая проблема: насколько точно (precise1у) передают знаки желаемый смысл (meaaninig)?
— прагматическая проблема: насколько эффективны (effective1у) полученные значения?
Как и ранее, заметим, что семантический аспект нельзя применить к информационным процессам в машинах.
Касаясь указанного разделения, Флехтнер вводит три “измерения” (Dimention) информации, связанные с передачей информации (Information) сообщениями (Nachricht) и передачей сообщений (Nachricht) сигналами (Signal). Переносят ли сообщения информацию и в какой степени, зависит прежде всего от сигнала (синтаксическое измерение), затем от сообщений (семантическое измерение) и, наконец, от получателя, его осведомленности или неосведомленности о предмете сообщения, то есть от общего воздействия сообщений на получателя (прагматическое измерение). С тремя “измерениями” информации Флехтнер связывает три различных уровня “смысла” (Sinn), иллюстрируя их следующими примерами:
-
Утверждение грамматически правильное, но (семантически) бессмысленное, например: “Зеленая свобода преследует думающий дом”.
-
Утверждение логически правильное, но не соответствующее истине, например: “Гамбург лежит на Везере”.
-
Утверждение верное, например: “Гамбург лежит на Эльбе”.
На первый взгляд указанные примеры весьма убедительно свидетельствуют в пользу введенной классификации, однако присмотревшись к ним поближе, можно убедиться, что это не совсем так. Хотя Флехтнер, несомненно, старался подобрать в качестве первого примера абсолютно абсурдное предложение. Оно вполне может означать следующее: “Восставшие крестьяне одерживают верх над властями”. Ведь можно увидеть в приведенных словах следующий переносный смысл: