Максимов Н.В., Партыка Т.Л., Попов И.И. Архитектура ЭВМ и вычислительных систем (2005) (1186253), страница 8
Текст из файла (страница 8)
Нередко его называют также цифровым сигналомВ цифровых системах используются двоичные сигналы (рис. 1.6,а), имеющие значения (+), (-). Вместе с тем при передаче данных вбольшинстве случаев применяются троичные сигналы (рис. 1 6, б)со значениями (+), (0), (-) Здесь «единица» представляется отсутствием потенциала в канале, тогда как «нуль» характеризуется положительным либо отрицательным импульсом. При этом полярностьимпульсов, представляющих «нули», должна чередоваться, т. е. заположительным (+) импульсом должен следовать отрицательный (-)и наоборот В форме троичного сигнала осуществляется не толькокодирование передаваемых данных, но также обеспечивается синхронизация работы канала и проверка целостности данных371.3.
Информация, кодирование, обработка в ЭВМ0 1 01 0 10 1 0 101 1 001[UJ[0]НабРис. 1.6. Примеры дискретных сигналов двоичный (а) и троичный (б)Дискретные сигналы по сравнению с аналоговыми имеют рядважных преимуществ: помехоустойчивость, легкость восстановления формы, простота аппаратуры передачи.Более чем тридцатилетнее развитие теории и практики ЭВМприводит к вытеснению (в том числе и на бытовом уровне) аналоговых устройств и сигналов цифровыми.
Наиболее популярным примером является несомненно аудиокомпакт-диск (digital audio CD).В этом случае звуковой сигнал (рис. 1.5) сначала преобразуетсяв дискретную аппроксимацию («многоуровневый ступенчатый сигнал»), при этом происходит квантование во времени, которое заключается в измерении в дискретные промежутки времени необходимого параметра аналогового сигнала.Кроме этого, осуществляется квантование по амплитуде сигнала.Элемент разбиения этого сигнала именуют квантом.
Поэтому говорят, что квантование заключается в делении на кванты. При квантовании аналогового сигнала происходит округление его мгновенныхзначений до некоторой заданной фиксированной величины, называемой уровнем. Расстояние между соседними уровнями именуетсяшагом Из-за округления квантование всегда связано с определенным искажением сигнала.
Уменьшение искажения требует увеличения числа уровней квантования и уменьшения шага квантованияПри квантовании по амплитуде каждая ступенька представляется последовательностью бинарных двухуровневых цифровых сигналов. Принятый в настоящее время стандарт CD использует так называемый «16-разрядный звук с частотой сканирования 44 кГц».Для рис 1.5 в переводе на нормальный язык это означает, что «длина ступеньки» (т) равна 1/44 000 с, а «высота ступеньки» (§) составляет 1/65 536 от максимальной громкости сигнала (поскольку2 16 = 65 536).
При этом частотный диапазон воспроизведения составляет 0—22 кГц, а динамический диапазон — 96 децибел (что составляет совершенно недостижимую для магнитной или механической звукозаписи характеристику качества).38Глава 1. Вычислительные приборы и устройства...Измерение количества информацииТермин «информация» имеет корень «form» (форма), что разумно трактовать как «информирование — придание формы, вывод изсостояния неопределенности, бесформенности», поэтому логичноподходить к определению понятия «количество информации», исходя из того, что информацию, содержащуюся в сообщении, можнотрактовать в смысле ее новизны или, иначе, уменьшения неопределенности знаний «приемника информации» об объекте.Американский инженер Р. Хартли в 1928 г.
рассматривал процесс получения информации как выбор одного сообщения из конечного заданного множества из N равновероятных сообщений, аколичество информации /, содержащееся в выбранном сообщении,определял как двоичный логарифм N:/=1о§2ЛГ.Допустим, нужно угадать одно число из набора чисел от единицы до ста.
По формуле Хартли можно вычислить, какое количествоинформации для этого требуется:/= Iog2100 = 6,644.Таким образом, сообщение о верно угаданном числе содержитколичество информации, приблизительно равное 6,644 единицы информации.Другие примеры равновероятных сообщений: при бросании монеты: «выпала решка», «выпал орел»; на странице книги: «количество букв четное», «количество букв нечетное».Определим теперь, являются ли равновероятными сообщения«первой выйдет из дверей здания женщина» и «первым выйдет издверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь.
Если это,например, станция метро, то вероятность выйти из дверей первымодинакова для мужчины и женщины, а если это военная казарма, тодля мужчины эта вероятность значительно выше, чем для женщины.Для задач такого рода американский ученый К. Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.Формула Шеннона:/=-(/7,log2/?i +Л1о§2 Рг + ••• +Р^°ё,2Рн) = ~Хд1о§2 Р„j=iгде р: — вероятность того, что именно /-е сообщение выделено в наборе из N сообщений.1.3. Информация, кодирование, обработка в ЭВМ39Очевидно, что если вероятности р\, ..., pN равны, то каждая изних равна — , и формула Шеннона превращается в формулу ХартлиПомимо двух рассмотренных подходов к определению количества информации, существуют и другие.
Важно помнить, что любыетеоретические результаты применимы лишь к определенному кругуслучаев, очерченному первоначальными допущениями.В качестве единицы информации Клод Шеннон предложилпринять один бит (англ, bit — binary digit — двоичная цифра).Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений («орел—решка», «чет—нечет» и т. п.).В вычислительной технике битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного издвух знаков 0 и 1, используемых для машинного представления данных и команд.За единицу информации можно было бы выбрать количествоинформации, необходимое для различения, например, десяти равновероятных сообщений.
Это будет не двоичная (бит), а десятичная(дит) единица информации.Поскольку бит — слишком мелкая единица измерения, на практике чаще применяется более крупная единица — байт, равнаявосьми битам. В частности, восемь бит требуется для того, чтобы закодировать любой из 256 символов основного компьютерного кодаASCII (256 = 2s).Используются также более крупные производные единицы информации.Килобайт (Кбайт) = 1024 байт = 2 ю байт;Мегабайт (Мбайт) = 1024 Кбайт = 220 байт;Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:40Терабайт (Тбайт) = 1024 Гбайт = 2 байт;Петабайт (Пбайт) = 1024 Тбайт = 23° байт;Экзобайт = 1018 Мбайт и прДля описания скорости передачи данных можно использоватьтермин бод Число бод равно количеству значащих изменений сигнала (потенциала, фазы, частоты), происходящих в секунду.
Первоначально бод использовался в телеграфии. Для двоичных сигналов нередко принимают, что бод равен биту в секунду, например40Глава 1. Вычислительные приборы и устройства...1200 бод = 1200 бит/с. Однако единого мнения о правильности использования этого термина нет, особенно при высоких скоростях,где число бит в секунду не совпадает с числом бод.Кодирование символьной информацииКод (code) — совокупность знаков, символов и правил представления информации.В частности, можно различать двоичный и троичный код. Алфавит первого ограничен двумя символами (О, 1), а второго — тремясимволами (-1, 0, +1).
Сигналы, реализующие коды, обладают одной из следующих характеристик:• униполярный код (значения сигнала равны 0, +1, либо О, -1);• полярный код (значения сигнала равны -1, +1);• биполярный код (значения равны -1, 0, +1).Биполярные коды часто используются в каналах передачи данных (рис. 1.7). Здесь единицы представляются чередующимися положительными и отрицательными импульсами.
Отсутствие импульсов определяет состояние «нуль». Биполярное кодирование обеспечивает обнаружение одиночной ошибки. Так, если вместо нуляпоявится единица, либо единица ошибочно сменится на нуль, тоэто легко обнаруживается. В обоих случаях нарушается чередованиеполярности импульсов.Рис. 1.7. Биполярное кодированиеРассмотрим методы дискретного представления информации,или кодирования (которые, надо сказать, появились задолго до вычислительных машин).
Первым широко известным примером является Азбука Морзе (табл. 1.7), в которой буквы латиницы (или кириллицы) и цифры кодируются сочетаниями из «точек» и «тире».Воспользуемся данным кодом для иллюстрации основных понятий,связанных с кодированием (не вдаваясь в теорию кодирования).1.3.
Информация, кодирование, обработка в ЭВМ41Таблица 1.7. Фрагменты кода МорзеСимвол входногоалфавитаМнемоническоеобозначение по МССКодовая (знаковая)комбинацияАВСDЕalfabravoCharliedeltaecho..-..........YZ1yankeezuluone_.— ..9nine• Международный Свод Сигналов.Кодируемые (обозначаемые) элементы входного алфавита обычноназывают символами.Символом (служит условным знаком какого-нибудь понятия, явления) как правило, является цифра, буква, знак пунктуации или иероглиф естественного языка, знак препинания, знак пробела, специальный знак, символ операции.