Информатика и программирование - Основы информатики (926517), страница 2
Текст из файла (страница 2)
Переход к информационному обществу вызывают много проблем социального, правового, технического характера. Например, применение роботов на производстве приведет к полному изменению технологии, которая в наши дни ориентирована на участие в ней человека. Резко меняется подготовка членов нового общества к самостоятельной жизни. Уже ведутся поисковые работы в области создания новых форм обучения, которые заменят существующие традиционные формы. Полностью меняется номенклатура профессий, специальностей и способов организации труда.
Все эти проблемы составляют объект исследования тех психологов, социологов, философов и юристов, которые работают в области информатики. Создаются автоматизированные обучающие системы (АОС), автоматизированные рабочие места (АРМ) для специалистов различного профиля, распределяемые банковские системы и многие другие, чье функционирование опирается на использование всего арсенала информатики.
1.3.Информатика в природе
Информатика в природе характеризуется изучением информационных процессов, протекающих в биологических системах, использование накопленных знаний при организации и управлении природными системами и создание на их основе технических систем.
Здесь информатика основывается на трех самостоятельных науках.
Биокибернетика решает проблемы, связанные с анализом информационно-управляющих процессов, протекающих в живых организмах, с диагностикой заболеваний и поиском путей их лечения и созданием соответствующих систем.
Бионика – наука об использовании принципы работы живых организмов в искусственных объектах.
Биогеоценология нацелена на решение проблем, относящихся к системно-информационным моделям поддержания и сохранения равновесия природных систем и поиска таких воздействий на них, которые стабилизируют разрушающие воздействия человеческой цивилизации на биомассу Земли.
Глава 2.ОСНОВЫ ТЕОРИИ ИНФОРМАЦИИ
2.1.Понятие информации
Обычно под информацией понимается совокупность сведений, расширяющая представление об объектах и явлениях окружающей среды, их свойствах, состоянии и взаимосвязях. При этом непрерывно происходит обмен информацией между людьми, между людьми и окружающим миром. Обмен информацией происходит посредством сообщений.
Сообщение – это форма представления информации для ее последующей передачи в одном из следующих видов:
- числовая форма, представленная цифрами;
- текстовая форма, представленная текстами, составленными из символов того или иного языка;
- кодовая форма, представленная кодами; например, кодами в двоичной системе счисления, кодами для сжатия или шифрования, кодами азбуки Морзе или азбуки для глухонемых;
- графическая форма, представляющая изображения объектов;
- акустическая форма, представленная звуковыми сигналами;
- видеоформа, представляющая телепередачи, видео- и кинофильмы в специальном формате.
При работе с информацией всегда имеются источник и потребитель информации. При этом необходимо различать термины «информация» и «данные».
Данные – это информация, представленная в некоторой форме (формализованном виде), что обеспечивает ее хранение, обработку и передачу. Данные, используемые для уменьшения неопределенности, становятся информацией.
Пример 2.1. Конспект лектора – это данные. Читая лекцию студентам, лектор передает содержание конспекта в виде сообщения. Студенты получают сообщение и, таким образом, принимают информацию, записывают ее в виде конспекта, представляя информацию в виде данных. Здесь лектор является источником информации, а студенты – потребителями информации. □
Информации обладает следующими свойствами:
- запоминаемость, то есть способность воспринять информацию и хранить ее продолжительное время;
- передаваемость, то есть способность информации к копированию – восприятием ее другой системой без искажения;
- воспроизводимость характеризует неиссякаемость и неистощимость информации, то есть при копировании информация остается тождественной себе; свойство воспроизводимости не является базовым и тесно связано с передаваемостью;
- преобразуемость – это способность информации менять способ и форму своего существования.
Можно выделить три концепции информации, объясняющие ее сущность.
Первая концепция предложена американским ученым Клодом Шенноном и отражает количественно-информационный подход. Информация определяется как мера неопределенности события. Количество информации зависит от вероятности ее получения. Чем меньше вероятность получения сообщения, тем больше информации в нем содержится. Эта концепция получила широкое распространение в теории передачи и кодировании данных.
Вторая концепция рассматривает информацию как свойство (атрибут) материи. Информация создает представление о природе, структуре, упорядоченности и разнообразии материи. В рамках этой концепции информация не может существовать вне материи, а значит она существовала и будет существовать вечно, ее можно накапливать, хранить и перерабатывать.
Третья концепция основана на логико-семантическом подходе, при котором информация рассматривается как знание, которое используется для ориентировки, активного действия, управления или самоуправления.
2.2.Непрерывная и дискретная информация
Чтобы сообщение было передано от источника к потребителю, необходима некоторая среда – носитель информации. Примерами носителей информации являются воздух для передачи речи, лист бумаги – для отсылки текста письма. Сообщение передается с помощью сигналов. В общем случае, сигнал – это физический процесс, параметры которого изменяются во времени. В данном случае во время передачи меняется параметр, характеризующий уровень сигнала, поэтому сигнал является динамическим процессом.
В случае, когда параметр сигнала принимает конечное число значений, и при этом все они могут быть пронумерованы, сигнал называется дискретным. Сообщение и информация, передаваемое с помощью таких сигналов, также называются дискретными. Примером дискретной информации являются текстовая информация, так как количество символов (букв) конечно и их можно рассматривать как уровни сигнала передачи сообщения.
Если параметр сигнала является непрерывной во времени функции, то сообщение и информация, передаваемая этими сигналами, называются непрерывные. Примером непрерывного сообщения является человеческая речь, передаваемая звуковой волной, с меняющейся частотой, фазой и амплитудой. Параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника – человеческого уха.
Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке [а, b]. Дискретизация – это процесс преобразования непрерывного сигнала в дискретный сигнал с некоторым шагом (частотой). Для этого диапазон значений функции (ось ординат) разбивается на конечное количество отрезков равной ширины. Тогда дискретное значение определяется отрезком, в который попало значение функции. Чем меньше шаг дискретизации, тем ближе полученный дискретный к исходному непрерывному сигналу, а, следовательно, больше точность дискретизации.
Пример 2.2. На метеостанции каждые полчаса происходит замер температуры (Рис. 2 .1).
Рис. 2.1. Дискретизация непрерывного сообщения
Непрерывно меняющаяся температура замеряется на отрезке [x1, xn]. В журнал наблюдений записывается значение температуры, округленное до целой части и являющееся дискретным значением. В данном примере получасовой промежуток является частотой дискретизации, шаг дискретизации равен 1, так как происходит округление до целого цисла, а получасовые замеры температуры – процессом дискретизации. □
2.3.Адекватность информации и ее формы
Важным условием практического использования информации является ее адекватность.
Адекватность информации – это уровень соответствия образа, создаваемого по информации, реальному объекту или явлению.
Адекватность информации выражается в трех формах.
1. Синтаксическая адекватность – это соответствие структуры и формы представления информации без учета ее смысла. Информация в виде данных обычно обладает синтаксической адекватностью.
2. Семантическая (смысловая) адекватность в отличие от синтаксической адекватности учитывает смысловое содержание информации.
3. Прагматическая (аксиологическая, потребительская) адекватность – это соответствие ожидаемой ценности, полезности использования информации при выработке потребителем решений для достижения своей цели.
Пример 2.3. Заказчик послал подрядчику сообщение: «Вышлите, пожалуйста, объем выполненных работ для отчета в течение недели». Подрядчик прислал ответ через 10 дней: «Объем выполненных работ составил 3 млн. руб.». Заказчик ожидал цифру (не график, не рисунок) и получил ее, следовательно, информация синтаксически адекватна. Полученная цифра является объемом выполненных работ, следовательно, информация семантически адекватна. Подрядчик прислал сообщение с опозданием, и ценность информации в нем потерялась, так как отчет должен был быть составлен ранее, следовательно, информация прагматически неадекватна. □
2.4.Синтаксическая мера информации
2.4.1.Вероятностный подход
Информация нуждается в измерении. На практике количество информации измеряется с точки зрения синтаксической адекватности. Исторически сложились два подхода к измерению информации: вероятностный и объемный. В 1940-х гг. К. Шеннон предложил вероятностный подход, а работы по созданию ЭВМ способствовали развитию объемного подхода.
Рассмотрим вероятностный подход к измерению количества информации в соответствии с первой концепцией информации (раздел 2.1).
Пусть потребитель получил в сообщении некоторую дополнительную информацию I() о системе , уменьшившую его первоначальную неопределенность о системе H() до степени H():
I() = H() – H(),
то есть количество информации измеряется изменением (уменьшением) неопределенности.
Мера неопределенности H() называется энтропией.
Рассмотрим систему , которая в каждый момент времени может принимать одно из N состояний, причем каждое из состояний равновероятно. Например, в качестве системы могут выступать опыты с подбрасыванием монеты (N = 2) или бросанием игральной кости (N = 6).
Энтропия системы вычисляется по формуле, предложенной Р. Хартли:
При N = 2 энтропия минимальна и равна H = 1. Поэтому в качестве единицы информации принимается количество информации, связанное с двумя равновероятными состояниями системы, например: «орел» – «решка», «ложь» – «истина». Такая единица количества информации называется бит.
Введем понятие вероятности. Вероятность события A – это отношение числа случаев M, благоприятствующих событию A, к общему количеству случаев N:
Пример 2.4. Найти вероятность выпадения числа 6 при бросании кости.
Решение. Всего граней у кости N = 6. Число 6 может выпасть M = 1.
Следовательно, вероятность выпадения числа 6 при бросании кости:
Пример 2.5. Найти вероятность выпадения числа большего 3 при бросании кости.
Решение. Всего граней у кости N = 6. Чисел больших 3 на гранях кости M = 3: 4, 5, 6.