Ответы на зачет (1254792)
Текст из файла
Основы информационной культуры
-
Информа́тика— наука о способах получения, накопления, хранения, преобразования, передачи, защиты и использования информации.
-
Информация — сведения о чем-либо, независимо от формы их представления.
-
Данные - это информация в машинном виде. Данные — это зарегистрированные сигналы. Данные несут в себе информацию о событиях, произошедших в материальном мире, поскольку они являются регистрацией сигналов, возникших в результате этих событий.
-
Сигнал………….
-
Синтаксическая мера информации
Синтаксическая мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
Объем данных V в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:
Бит – binary digit - в двоичной с.с.( 101010 – V = 6 бит)
Дит – decimal digit - десятичный разряд (56777567 – V =8 дит).
Количество информации I на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы), так как получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. Пусть до получения информации потребитель имеет некоторые предварительные сведения о системе α. Мерой его неосведомленности о системе является функция H(α), которая в то же время служит мерой неопределенности состояния системы. После получения некоторого сообщения β получатель приобрел некоторую дополнительную информацию Iβ(α), уменьшившую его априорную неосведомленность так, что апостериорная неопределенность (после получения сообщения) состояния системы стала Hβ(α). Тогда количество информации Iβ(α) о системе, полученной в сообщении, определяется как
Iβ(α) = H(α) — Hβ(α)
т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.
Если конечная неопределенность Hβ(α) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации станет Iβ(α) = H(α). Иными словами, энтропия системы H(α) может рассматриваться как мера недостающей информации. Энтропия системы H(α), имеющей N возможных состояний, согласно формуле Шеннона, равна:
,
где Pi — вероятность того, что система находится в i-ом состоянии.
Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны , ее энтропия определяется соотношением
.
Часто информация кодируется числовыми кодами в той или иной системе счисления, это особенно актуально при представлении информации в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передавать разное количество состояний отображаемого объекта, что можно представить в виде соотношения
N = mn ,
где N — число всевозможных отображаемых состояний,
m — основание системы счисления (разнообразие символов, применяемых в алфавите),
n — число разрядов (символов) в сообщении.
Рассмотрим пример. Пусть по каналу связи передается n–разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет m, то при равной вероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет
— формула Хартли.
Если в качестве основания логарифма принять m, то I = n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных I = V, полученных по каналу связи.
Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.
Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.
, причем 0< Y <1.
С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.
-
Семантическая мера информации.
Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертеж, радиопередача и т. п.) может содержать разное количество информации для разных людей в зависимости от их накопленных знаний, от уровня понимания этого сообщения и интереса к нему. Так, сообщение, составленное на иностранном языке, не несет никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего этим языком. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.
Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя понимать поступившее сообщение. Для этого используется понятие тезаурус пользователя.
Тезаурус — совокупность сведений, которыми располагает пользователь или система.
В зависимости от соотношений между смысловым содержанием информации ^ S и тезаурусом пользователя Sp изменяется количество семантической информации Ic, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 3. Рассмотрим два крайних случая, когда количество семантической информации Ic равно 0:
При Sp 0 пользователь не воспринимает, не понимает поступающую информацию;
При Sp → ∞ пользователь все знает, и поступающая информация ему не нужна.
Рис.3 Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса = ¦ ( ).
Максимальное количество семантической информации потребитель приобретает при согласовании ее смыслового содержания с его тезаурусом Sp (Sp = Sp opt), когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения.
Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для одного пользователя и быть бессмысленным (семантический шум) для другого.
При оценке семантического (содержательного) аспекта информации может служить коэффициент содержательности С, который определяется как отношение количества семантической информации к ее объему.
-
Прагматическая мера информации.
Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же единицах (или близких к ним), в которых измеряется целевая функция.
-
Информация, ее виды и свойства
Информацию следует считать особым видом ресурса, при этом имеется ввиду толкование "ресурса" как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизведения и обновления, чем материальные ресурсы. Рассмотрим некоторый набор свойств информации:
· запоминаемость;
· передаваемость;
· преобразуемость;
· воспроизводимость;
· стираемость.
Свойство запоминаемости - одно из самых важных. Запоминаемую информацию будем называть макроскопической (имея ввиду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.
Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К.Шеннона. В данном случае имеется ввиду несколько иной аспект - способность информации к копированию, т.е. к тому, что она может быть "запомнена" другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.
Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что при копировании информация остается тождественной самой себе.
Фундаментальное свойство информации - преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Свойство стираемости информации также не является независимым. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.
Архитектура ЭВМ
-
Состав архитектуры фон Неймана
-
Основные принципы архитектуры Джона фон Неймана
Джон фон Нейман (1903 – 1957) – американский математик, внесший большой вклад в создание первых ЭВМ и разработку методов их применения. Именно он заложил основы учения об архитектуре вычислительных машин, подключившись к созданию первой в мире ламповой ЭВМ ENIAC в 1944 году, когда ее конструкция была уже выбрана. В процессе работы, во время многочисленных дискуссий со своими коллегами Г.Голдстайном и А.Берксом, Джон фон Нейман высказал идею принципиально новой ЭВМ. В 1946 году ученые изложили свои принципы построения вычислительных машин в ставшей классической статье «Предварительное рассмотрение логической конструкции электронно-вычислительного устройства». С тех пор прошло более полувека, но выдвинутые в ней положения сохраняют свою актуальность и сегодня.
В статье убедительно обосновывается использование двоичной системы для представления чисел, в ведь ранее все вычислительные машины хранили обрабатываемые числа в десятичном виде. Авторы продемонстрировали преимущества двоичной системы для технической реализации, удобство и простоту выполнения в ней арифметических и логических операций. В дальнейшем ЭВМ стали обрабатывать и нечисловые виды информации – текстовую, графическую, звуковую и другие, но двоичное кодирование данных по-прежнему составляет информационную основу любого современного компьютера.
Еще одной революционной идеей, значение которой трудно переоценить, является предложенный Нейманом принцип «хранимой программы». Первоначально программа задавалась путем установки перемычек на специальной коммутационной панели. Это было весьма трудоемким занятием: например, для изменения программы машины ENIAC требовалось несколько дней, в то время как собственно расчет не мог продолжаться более нескольких минут – выходили из строя лампы, которых было огромное количество. Нейман первым догадался, что программа может также храниться в виде набора нулей и единиц, причем в той же самой памяти, что и обрабатываемые ею числа. Отсутствие принципиальной разницы между программой и данными дало возможность ЭВМ самой формировать для себя программу в соответствии с результатами вычислений.
Структура ЭВМ
Джон фон Нейман не только выдвинул основополагающие принципы логического устройства ЭВМ, но и предложил ее структуру, которая воспроизводилась в течение первых двух поколений ЭВМ. Основными блоками по Нейману являются устройство управления (УУ) и арифметико-логическое устройство (АЛУ), обычно объединяемые в центральный процессор, в который также входит набор регистров общего назначения (РОН) – для промежуточного хранения информации в процессе ее обработки; память, внешняя память, устройства ввода и вывода. Следует отметить, что внешняя память отличается от устройств ввода и вывода тем, что данные в нее заносятся в виде, удобном компьютеру, но недоступном для непосредственного восприятия человеком.
Характеристики
Тип файла документ
Документы такого типа открываются такими программами, как Microsoft Office Word на компьютерах Windows, Apple Pages на компьютерах Mac, Open Office - бесплатная альтернатива на различных платформах, в том числе Linux. Наиболее простым и современным решением будут Google документы, так как открываются онлайн без скачивания прямо в браузере на любой платформе. Существуют российские качественные аналоги, например от Яндекса.
Будьте внимательны на мобильных устройствах, так как там используются упрощённый функционал даже в официальном приложении от Microsoft, поэтому для просмотра скачивайте PDF-версию. А если нужно редактировать файл, то используйте оригинальный файл.
Файлы такого типа обычно разбиты на страницы, а текст может быть форматированным (жирный, курсив, выбор шрифта, таблицы и т.п.), а также в него можно добавлять изображения. Формат идеально подходит для рефератов, докладов и РПЗ курсовых проектов, которые необходимо распечатать. Кстати перед печатью также сохраняйте файл в PDF, так как принтер может начудить со шрифтами.