DAY_INF_LECTURES (Лекции по информатике)
Описание файла
Файл "DAY_INF_LECTURES" внутри архива находится в следующих папках: Лекции по информатике, STEFANOVICH_MGUPI_DAY_INF_LECT. Документ из архива "Лекции по информатике", который расположен в категории "". Всё это находится в предмете "информатика" из 1 семестр, которые можно найти в файловом архиве РТУ МИРЭА. Не смотря на прямую связь этого архива с РТУ МИРЭА, его также можно найти и в других разделах. Архив можно найти в разделе "лекции и семинары", в предмете "информатика" в общих файлах.
Онлайн просмотр документа "DAY_INF_LECTURES"
Текст из документа "DAY_INF_LECTURES"
ФЕДЕРАЛЬНОЕ АГЕНСТВО ПО ОБРАЗОВАНИЮ
ГОУВПО
МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ПРИБОРОСТРОЕНИЯ И АВТОМАТИКИ
Кафедра ИС - 4
КОНСПЕКТ ЛЕКЦИЙ
ПО
ИНФОРМАТИКЕ
Дисциплина: 3457.
Составитель А.Е. Стефанович
Москва 2005
При составлении конспекта лекций использована следующая литература:
-
Макарова Н.В., Матвеев Л.А., Бройдо В.Л. и др.
Информатика. Учебник.
- М.: Финансы и статистика, 2004 -
Макарова Н.В., Матвеев Л.А., Бройдо В.Л. и др.
Информатика. Практикум.
- М.: Финансы и статистика, 2004 -
Могилев А.В., Пак Н.И., Хеннер Е.К.
Информатика. Учебное пособие.
- М.: Академия, 2003 -
Могилев А.В., Пак Н.И., Хеннер Е.К.
Информатика. Практикум.
- М.: Академия, 2003 -
Свириденко С.С.
Современные информационные технологии.
- М.: Радио и Связь, 1989. -
Баркан В.Ф., Жданов В.К.
Радиоприемные устройства. Учебник.
- М.: Советское радио, 1972. -
Колонтаевский Ю.Ф.
Радиоэлектроника. Учебное пособие.
-.М.: Высшая школа, 1988. -
Зиновьев А.Л., Филиппов Л.И.
Введение в специальность радиоинженера.
- М.: Высшая школа, 1989. -
Поляков В.Т.
Посвящение в радиоэлектронику.
- М.: Радио и связь, 1988. -
Андреева Е., Фалина И.
Системы счисления и компьютерная арифметика. Учебное пособие.
- М.: Лаборатория базовых знаний, 2000. -
Касаткин В.Н.
Новое о системах счисления.
- Киев: Вища школа, 1982. -
Макаренко А.Е. и др.
Готовимся к экзамену по информатике.
- М.: Айрис пресс, 2003. -
Соломатин Н.М.
Логические элементы ЭВМ
- М: Высшая школа, 1987. -
Папернов Л.А.
Логические основы цифровых машин и программирования.
- М: Наука, 1965. -
Успенский В.А.
Машина Поста.
- М.: Наука, 1988. -
Чернов Е.А.
Проектирование станочной электроавтоматикиэ
-М.: Машиностроение, 1989. -
Сена Л.А.
Единицы визических величин и их размерности. Учебное пособие.
- М.: Наука, 1977. -
Математический энциклопедический словарь.
/под ред. Прохорова Ю.В.
- М.: Советская энциклопедия, 1988. -
Сысун В.И.
Теория сигналов и цепей.
- Петрозаводск: 2003. -
Серый С.
Клод Элвуд Шеннон.
Газета Компьютерные вести. № 21, 1998. -
Франкен Г., Молявко С.
MS-DOS 6.22 ... для пользователя.
/ пер. с нем. -Киев: BHV, 1995. -
Гук. М.
Аппаратные средства IBM PC. Энциклопедия
- С-Пб - М. - Харьков - Минск: ПИТЕР, 2000. -
Кравацкий Ю, Рамендик М.
Выбор, сборка, апгрейд качественного компьютера.
- М: Солон-Р, 1999. -
Фигурнов В.Э.
IBM PC для пользователя.
- М: ИНФРА-М, 1995. -
Йенсен К., Вирт Н.
Паскаль.
/ пер. с англ. - М: Финансы и статистика, 1999. -
Фаронов В.В. Программирование на персональных ЭВМ в среде Турбо-Пскаль.
- М: МГТУ, 1992 -
Гусева А.И.
Учимся программировать: PASCAL 7.0. Учебник.
- М: ДИАЛОГ-МИФИ, 2003. -
Пестриков, Маслобоев.
Turbo Pascal 7.0. Изучаем на примерах.
- С-Пб.: Наука и Техника, 2004 -
Меженный О.А.
Turbo Pascal: учитесь программировать
- М - С-П, - Киев: Диалектика, 2001. -
Стефанович А.Е.
Пособие для подготовки операторов для проведения испытаний на автоматизированных средствах контрольно-испытательной станции (КИС) ИКИ АН СССР.
-М: ИКИ АН СССР, 1990. -
Гутер Р.С., Полуянов Ю.Л.
Математические машины. Очерки вычислительной техники. Пособие для учителей.
- М: просвещение, 1975.
ВВЕДЕНИЕ.
В основанной американским ученым Клодом Шенноном Математической теории информации (около 1948 года) под информацией понимались не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность (неизвестность). Каждому сигналу в теории Шеннона соответствует вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя. В обыденном понимании, чем неожиданнее новость, тем больше ее информативность. Была предложена и формула для вычисления количества информации в передаваемом сообщении.
Математическая теория информации не охватывает всего богатства содержания информации, поскольку она отвлекается от содержательной (смысловой, семантической) стороны сообщения. С точки зрения этой теории фраза в 100 слов из газеты, пьесы Шекспира или теории Эйнштейна имеют приблизительно одинаковое количество информации.
Советский математик Ю. Шрейдер предложил оценивать информацию по увеличению объема знаний у человека под воздействием информационного сообщения.
Академик А.А. Харкевич предложил измерять содержательность информации по увеличению вероятности достижения цели после получения информации человеком или машиной.
В некоторых физических и химических теориях информация определяется как отраженное разнообразие. Отражение заключается в таком изменении одного материального объекта под воздействием другого, при котором все особенности отражаемого объекта каким-либо образом воспроизводятся отражающим объектом. В процессе отражения и происходит передача информации. То есть информация - это результат отражения. В соответствии с этим взглядом информация существовала и будет существовать вечно, она содержится во всех элементах и системах материального мира. Информация, наряду с веществом и энергией, является неотъемлемым атрибутом материи.
В кибернетике - науке об управлении в живых, неживых и искусственных системах связывают понятие информации воедино с понятием управления (Н.Винер, Б.Н.Петров). Информация является обозначением содержания, полученного из внешнего мира в процессе приспособления к нему наших чувств. Информацию составляет та часть знаний, которая используется для ориентирования, принятия решений, активного действия, управления, то есть в целях сохранения, совершенствования и развития системы. Данная концепция отрицает существование информации в неживой природе, не дает ответы на вопросы: являются ли информацией неиспользуемые знания, являются ли неосмысленные (как в ЭВМ) данные информацией.
Для преодоления этих трудностей академик В.П.Афанасьев ввел понятие информационных данных. Информационные данные - это всякие сведения, сообщения, знания. Они могут храниться, перерабатываться, передаваться, но характер информации они приобретают лишь тогда, когда получают содержание и форму, пригодную для управления и используются в управлении.
Дальнейшим развитием математического подхода к феномену "информация" послужили работы логиков Р.Карнапа и И.Бар-Хиллела, отечественного математика А.Н.Колмогорова и других. В их теориях понятие информации не связано ни с формой, ни с содержанием сообщений, передаваемых по каналу связи. Информация - абстрактная величина, не существующая в физической реальности, подобно тому, как не существует мнимое число или не имеющая линейных размеров точка.
В отличие от абстрактно мыслящих математиков и логиков инженеры, а также биологи, генетики, психологи и др. отождествляют информацию с теми сигналами, импульсами, кодами, которые наблюдаются в технических и биологических системах.
Для радиотехников, телемехаников, программистов информация - рабочий объект, который можно обрабатывать, транспортировать, так же как электричество в электротехнике или жидкость в гидравлике. Этот рабочий объект состоит из упорядоченных (модулированных) дискретных или непрерывных сигналов, с которыми и имеет дело информационная техника. Содержание принимаемых и обрабатываемых сигналов инженера не интересует. Достаточно того, что формулы Шеннона хорошо работают при расчетах технической коммуникации.
Другой активной сферой применения понятия информации явилась генетика, в рамках которой было сформулировано понятие генетической информации - как программы (кода) биосинтеза белков, представленных цепочками ДНК. Реализуется эта информация в ходе развития особи.
В социальных науках (социологии, психологии, политологии и др.) под информацией понимаются сведения, данные, понятия, отраженные в нашем сознании и изменяющие наши представления о реальном мире. Эту информацию, передающуюся в человеческом обществе и участвующую в формировании общественного сознания, называют социальной информацией.
С точки зрения индивидуального человеческого сознания информация - это то, что поступает в наш мозг из многих источников и во многих формах и, взаимодействуя там, образует нашу структуру знания. Информацией для человека являются не только сухие факты, строгие инструкции, но и то, что радует нас, волнует, печалит, заставляет переживать, восторгаться, негодовать, сочувствовать и любить.
Более половины общего объема сведений, полученных в процессе разговора, приходится на так называемую невербальную информацию, которую говорящий по желанию, а иногда непроизвольно сообщает нам особой тональностью разговора, своей возбужденностью, жестикуляцией, выражением лица, глаз и т.д.
Информатикой называется фундаментальная естественная наука, изучающая процессы, средства и методы сбора, хранения, обработки, передачи и отображения информации.
К фундаментальным наукам относятся такие науки, основные понятия которых имеют общенаучный характер (математика, философия).
К естественным наукам относятся науки, изучающие объективные сущности мира, которые существуют независимо от нашего сознания (физика, химия, биология).
КОЛИЧЕСТВО ИНФОРМАЦИИ.
ФОРМУЛА ХАРТЛИ. ФОРМУЛА ШЕННОНА.
Количеством информации называется степень уменьшения неопределенности в результате передачи информации.
-
БИТ – единица количества информации,
один ответ типа «ДА-НЕТ». -
I – количество единиц информации (бит),
количество ответов типа «ДА-НЕТ» (бит),
число разрядов двоичного кода (бит). -
N – количество возможных событий в системе,
количество возможных состояний системы. -
H – Энтропия, степень (мера) неопределенности реализации конкретного состояния системы (бит).
Конкретные состояния, в которых может находиться система, могут быть равновероятными и не равновероятными.
При расчете энтропии системы с равновероятными состояниями (возможными событиями) используется формула Хартли. При расчете энтропии системы с не равновероятными состояниями (возможными событиями) используется формула Шеннона.
Формула Хартли.
N=2I; log2N=Ilog22; log2N=I; I=log2N;
При реализации конкретного события (состояния) количество единиц полученной информации I равно энтропии H. При этом неопределенность полностью снимается.
Формула Хартли.
I=H=log2N
Количество информации I, минимально необходимой для устранения неопределенности H, равно двоичному логарифму числа возможных состояний системы N.
Если число состояний системы равно N, то это равносильно информации, даваемой I ответами типа «ДА-НЕТ» на вопросы, поставленные так, что «ДА» и «НЕТ» одинаково вероятны.
Разряды двоичного слова | N | I | ||||
I | … | 2 | 1 | 0 | N=2I | I=log2N |
21=2 | 1=log22 | |||||
22=4 | 2=log24 | |||||
23=8 | 3=log28 | |||||
… | 2I | I=log2N |
Формула Шеннона Если
N - количество состояний системы,