DAY_INF_LECTURES (1017134)
Текст из файла
ФЕДЕРАЛЬНОЕ АГЕНСТВО ПО ОБРАЗОВАНИЮ
ГОУВПО
МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ПРИБОРОСТРОЕНИЯ И АВТОМАТИКИ
Кафедра ИС - 4
КОНСПЕКТ ЛЕКЦИЙ
ПО
ИНФОРМАТИКЕ
Дисциплина: 3457.
Составитель А.Е. Стефанович
Москва 2005
При составлении конспекта лекций использована следующая литература:
-  
Макарова Н.В., Матвеев Л.А., Бройдо В.Л. и др.
Информатика. Учебник.
- М.: Финансы и статистика, 2004 -  
Макарова Н.В., Матвеев Л.А., Бройдо В.Л. и др.
Информатика. Практикум.
- М.: Финансы и статистика, 2004 -  
Могилев А.В., Пак Н.И., Хеннер Е.К.
Информатика. Учебное пособие.
- М.: Академия, 2003 -  
Могилев А.В., Пак Н.И., Хеннер Е.К.
Информатика. Практикум.
- М.: Академия, 2003 -  
Свириденко С.С.
Современные информационные технологии.
- М.: Радио и Связь, 1989. -  
Баркан В.Ф., Жданов В.К.
Радиоприемные устройства. Учебник.
- М.: Советское радио, 1972. -  
Колонтаевский Ю.Ф.
Радиоэлектроника. Учебное пособие.
-.М.: Высшая школа, 1988. -  
Зиновьев А.Л., Филиппов Л.И.
Введение в специальность радиоинженера.
- М.: Высшая школа, 1989. -  
Поляков В.Т.
Посвящение в радиоэлектронику.
- М.: Радио и связь, 1988. -  
Андреева Е., Фалина И.
Системы счисления и компьютерная арифметика. Учебное пособие.
- М.: Лаборатория базовых знаний, 2000. -  
Касаткин В.Н.
Новое о системах счисления.
- Киев: Вища школа, 1982. -  
Макаренко А.Е. и др.
Готовимся к экзамену по информатике.
- М.: Айрис пресс, 2003. -  
Соломатин Н.М.
Логические элементы ЭВМ
- М: Высшая школа, 1987. -  
Папернов Л.А.
Логические основы цифровых машин и программирования.
- М: Наука, 1965. -  
Успенский В.А.
Машина Поста.
- М.: Наука, 1988. -  
Чернов Е.А.
Проектирование станочной электроавтоматикиэ
-М.: Машиностроение, 1989. -  
Сена Л.А.
Единицы визических величин и их размерности. Учебное пособие.
- М.: Наука, 1977. -  
Математический энциклопедический словарь.
/под ред. Прохорова Ю.В.
- М.: Советская энциклопедия, 1988. -  
Сысун В.И.
Теория сигналов и цепей.
- Петрозаводск: 2003. -  
Серый С.
Клод Элвуд Шеннон.
Газета Компьютерные вести. № 21, 1998. -  
Франкен Г., Молявко С.
MS-DOS 6.22 ... для пользователя.
/ пер. с нем. -Киев: BHV, 1995. -  
Гук. М.
Аппаратные средства IBM PC. Энциклопедия
- С-Пб - М. - Харьков - Минск: ПИТЕР, 2000. -  
Кравацкий Ю, Рамендик М.
Выбор, сборка, апгрейд качественного компьютера.
- М: Солон-Р, 1999. -  
Фигурнов В.Э.
IBM PC для пользователя.
- М: ИНФРА-М, 1995. -  
Йенсен К., Вирт Н.
Паскаль.
/ пер. с англ. - М: Финансы и статистика, 1999. -  
Фаронов В.В. Программирование на персональных ЭВМ в среде Турбо-Пскаль.
- М: МГТУ, 1992 -  
Гусева А.И.
Учимся программировать: PASCAL 7.0. Учебник.
- М: ДИАЛОГ-МИФИ, 2003. -  
Пестриков, Маслобоев.
Turbo Pascal 7.0. Изучаем на примерах.
- С-Пб.: Наука и Техника, 2004 -  
Меженный О.А.
Turbo Pascal: учитесь программировать
- М - С-П, - Киев: Диалектика, 2001. -  
Стефанович А.Е.
Пособие для подготовки операторов для проведения испытаний на автоматизированных средствах контрольно-испытательной станции (КИС) ИКИ АН СССР.
-М: ИКИ АН СССР, 1990. -  
Гутер Р.С., Полуянов Ю.Л.
Математические машины. Очерки вычислительной техники. Пособие для учителей.
- М: просвещение, 1975. 
ВВЕДЕНИЕ.
В основанной американским ученым Клодом Шенноном Математической теории информации (около 1948 года) под информацией понимались не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность (неизвестность). Каждому сигналу в теории Шеннона соответствует вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя. В обыденном понимании, чем неожиданнее новость, тем больше ее информативность. Была предложена и формула для вычисления количества информации в передаваемом сообщении.
Математическая теория информации не охватывает всего богатства содержания информации, поскольку она отвлекается от содержательной (смысловой, семантической) стороны сообщения. С точки зрения этой теории фраза в 100 слов из газеты, пьесы Шекспира или теории Эйнштейна имеют приблизительно одинаковое количество информации.
Советский математик Ю. Шрейдер предложил оценивать информацию по увеличению объема знаний у человека под воздействием информационного сообщения.
Академик А.А. Харкевич предложил измерять содержательность информации по увеличению вероятности достижения цели после получения информации человеком или машиной.
В некоторых физических и химических теориях информация определяется как отраженное разнообразие. Отражение заключается в таком изменении одного материального объекта под воздействием другого, при котором все особенности отражаемого объекта каким-либо образом воспроизводятся отражающим объектом. В процессе отражения и происходит передача информации. То есть информация - это результат отражения. В соответствии с этим взглядом информация существовала и будет существовать вечно, она содержится во всех элементах и системах материального мира. Информация, наряду с веществом и энергией, является неотъемлемым атрибутом материи.
В кибернетике - науке об управлении в живых, неживых и искусственных системах связывают понятие информации воедино с понятием управления (Н.Винер, Б.Н.Петров). Информация является обозначением содержания, полученного из внешнего мира в процессе приспособления к нему наших чувств. Информацию составляет та часть знаний, которая используется для ориентирования, принятия решений, активного действия, управления, то есть в целях сохранения, совершенствования и развития системы. Данная концепция отрицает существование информации в неживой природе, не дает ответы на вопросы: являются ли информацией неиспользуемые знания, являются ли неосмысленные (как в ЭВМ) данные информацией.
Для преодоления этих трудностей академик В.П.Афанасьев ввел понятие информационных данных. Информационные данные - это всякие сведения, сообщения, знания. Они могут храниться, перерабатываться, передаваться, но характер информации они приобретают лишь тогда, когда получают содержание и форму, пригодную для управления и используются в управлении.
Дальнейшим развитием математического подхода к феномену "информация" послужили работы логиков Р.Карнапа и И.Бар-Хиллела, отечественного математика А.Н.Колмогорова и других. В их теориях понятие информации не связано ни с формой, ни с содержанием сообщений, передаваемых по каналу связи. Информация - абстрактная величина, не существующая в физической реальности, подобно тому, как не существует мнимое число или не имеющая линейных размеров точка.
В отличие от абстрактно мыслящих математиков и логиков инженеры, а также биологи, генетики, психологи и др. отождествляют информацию с теми сигналами, импульсами, кодами, которые наблюдаются в технических и биологических системах.
Для радиотехников, телемехаников, программистов информация - рабочий объект, который можно обрабатывать, транспортировать, так же как электричество в электротехнике или жидкость в гидравлике. Этот рабочий объект состоит из упорядоченных (модулированных) дискретных или непрерывных сигналов, с которыми и имеет дело информационная техника. Содержание принимаемых и обрабатываемых сигналов инженера не интересует. Достаточно того, что формулы Шеннона хорошо работают при расчетах технической коммуникации.
Другой активной сферой применения понятия информации явилась генетика, в рамках которой было сформулировано понятие генетической информации - как программы (кода) биосинтеза белков, представленных цепочками ДНК. Реализуется эта информация в ходе развития особи.
В социальных науках (социологии, психологии, политологии и др.) под информацией понимаются сведения, данные, понятия, отраженные в нашем сознании и изменяющие наши представления о реальном мире. Эту информацию, передающуюся в человеческом обществе и участвующую в формировании общественного сознания, называют социальной информацией.
С точки зрения индивидуального человеческого сознания информация - это то, что поступает в наш мозг из многих источников и во многих формах и, взаимодействуя там, образует нашу структуру знания. Информацией для человека являются не только сухие факты, строгие инструкции, но и то, что радует нас, волнует, печалит, заставляет переживать, восторгаться, негодовать, сочувствовать и любить.
Более половины общего объема сведений, полученных в процессе разговора, приходится на так называемую невербальную информацию, которую говорящий по желанию, а иногда непроизвольно сообщает нам особой тональностью разговора, своей возбужденностью, жестикуляцией, выражением лица, глаз и т.д.
Информатикой называется фундаментальная естественная наука, изучающая процессы, средства и методы сбора, хранения, обработки, передачи и отображения информации.
К фундаментальным наукам относятся такие науки, основные понятия которых имеют общенаучный характер (математика, философия).
К естественным наукам относятся науки, изучающие объективные сущности мира, которые существуют независимо от нашего сознания (физика, химия, биология).
КОЛИЧЕСТВО ИНФОРМАЦИИ.
ФОРМУЛА ХАРТЛИ. ФОРМУЛА ШЕННОНА.
Количеством информации называется степень уменьшения неопределенности в результате передачи информации.
-  
БИТ – единица количества информации,
один ответ типа «ДА-НЕТ». -  
I – количество единиц информации (бит),
количество ответов типа «ДА-НЕТ» (бит),
число разрядов двоичного кода (бит). -  
N – количество возможных событий в системе,
количество возможных состояний системы. -  
H – Энтропия, степень (мера) неопределенности реализации конкретного состояния системы (бит).
 
Конкретные состояния, в которых может находиться система, могут быть равновероятными и не равновероятными.
При расчете энтропии системы с равновероятными состояниями (возможными событиями) используется формула Хартли. При расчете энтропии системы с не равновероятными состояниями (возможными событиями) используется формула Шеннона.
Формула Хартли.
N=2I; log2N=Ilog22; log2N=I; I=log2N;
При реализации конкретного события (состояния) количество единиц полученной информации I равно энтропии H. При этом неопределенность полностью снимается.
Формула Хартли.
I=H=log2N
Количество информации I, минимально необходимой для устранения неопределенности H, равно двоичному логарифму числа возможных состояний системы N.
Если число состояний системы равно N, то это равносильно информации, даваемой I ответами типа «ДА-НЕТ» на вопросы, поставленные так, что «ДА» и «НЕТ» одинаково вероятны.
 
 
 
|   Разряды двоичного слова  |    N  |    I  |  ||||
|   I  |    …  |    2  |    1  |    0  |    N=2I  |    I=log2N  |  
|   21=2  |    1=log22  |  |||||
|   22=4  |    2=log24  |  |||||
|   23=8  |    3=log28  |  |||||
|   …  |    2I  |    I=log2N  |  ||||
Формула Шеннона Если
N - количество состояний системы,
Характеристики
Тип файла документ
Документы такого типа открываются такими программами, как Microsoft Office Word на компьютерах Windows, Apple Pages на компьютерах Mac, Open Office - бесплатная альтернатива на различных платформах, в том числе Linux. Наиболее простым и современным решением будут Google документы, так как открываются онлайн без скачивания прямо в браузере на любой платформе. Существуют российские качественные аналоги, например от Яндекса.
Будьте внимательны на мобильных устройствах, так как там используются упрощённый функционал даже в официальном приложении от Microsoft, поэтому для просмотра скачивайте PDF-версию. А если нужно редактировать файл, то используйте оригинальный файл.
Файлы такого типа обычно разбиты на страницы, а текст может быть форматированным (жирный, курсив, выбор шрифта, таблицы и т.п.), а также в него можно добавлять изображения. Формат идеально подходит для рефератов, докладов и РПЗ курсовых проектов, которые необходимо распечатать. Кстати перед печатью также сохраняйте файл в PDF, так как принтер может начудить со шрифтами.















