evtiheeva_n_n__izmerenie_yelektricheskih _i_neyelektricheskih (1024281), страница 60
Текст из файла (страница 60)
Получив искаженную комбинацию,не принадлежащую ни к одной из Ф используемых, приемник определяет, в какую из Ж групп сателлитов она аэ~ыдаег. Этим однозначно идентифицируется исходная переданная комбинация. Коды с исправлением ошибок сложнее кодов с их обнаружением. Кроме того, надо иметь в виду, что в случае, когда число искаженных элементов превышает г, образуется комбинация, принадлежащая чужой группе сателлитов. Тогда декодирующее устройство в приемнике вьщает ложную информацию. Ценой еще большего усложнения получают коды, которые исправляют до г искажений и обнаруживают искажения большего числа элементов — от г + ) до г.
Эти коды строятся так, что при искажении от г + 1 до к элементов образуются комбинации, которые не входят ни в одну иэ групп сателлитов, но в то же время принадлежат к К неиспользуемым комбинациям. Описанные принципы кодирования применяются в ИИС, содержащих каналы связи большой протяженности. Как правило, выполнение операций кодирования и декодирования возлагается в них на специализированные блоки — кодеры и декодеры. Сжатие данных. Сигналы, с помощью которых передаются разнообразные сообщения, обладают, как правило, очень большои избыточностью в информационном смысле. Поясним это примером.
Согласно теореме Котельникова функцию хЯ с граничной частотой спектра ~, Гр можно однозначно восстановить по значениям дискретных ординат, взятых через интервал Т = 1/юг . В этих ординатах содержится полная информация о функции х(Г) ° Тем не менее, как бьшо показано в ~ 5.2, трудности восстановления функции приводят к тому, что практически дискретизацию по времени ведут с интервалом в десятки раз меньшим, а каналы связи занимают избьпочными сигналами, несущими чрезвычайно малое количество 296 ,х1+),ха1т) к1е) хь у юг+1 Т а) информации.
Между тем каналы связи большой протяженности весьма дороги — велика стоимость их сооружения и эксплуатации. Любое уменьшение избыточности передаваемых сигналов г сжатие данных) позволяет загрузить тот же канал сообщениями от дополнительного числа источников, что дает большой экономический эффект.
Сжатие данных дает возможность разгрузить устройства хранения инфор. мации, что также весьма важно и Лает существенную экономию. Для сжатия данных требуется применять устройства обработки информации. Например, если на приемной стороне имеется устройство, способное умножать дискретные ординаты хг иа функцию вида яп йяу, Гà — гу)/2яТ„~à — И) и суммировать получаемые функции, то можно на передающей стороне выполнять дискретизацию с периодом Т, соответствующим требованию теоремы Котельникова. Необходимо лишь имен в виду, что лри этом восстановление функции х Гг) будет происходить с большим запаздыванием во времени. Можно получить сжатие данных с помощью более простой обработки сигналов на приемной стороне.
Например„вместо ступенчатой аппроксимации функции х~г) по типу диаграммы рис. 5.11 можно применить аппроксимацию прямолинейными отрезками, соединяющими вершины дискрешых ординат 1рис. 524,а). При той же допустимой погрешности можно выбрать большее значение интервала Т, чем при ступенчатой аппроксимации. Если же аппроксимировать функцию отрезками парабол, соединяющими вершины дискретных ординат (рис. 5.24,6), то интервал Т можно еще увеличить.
Разумеется, степень сжатия данных при этом далеко не та, что при обработке по теореме Котельникова, но зато и обработка много проще и задержка по времени меньше. Весьма эффективен метод сжатия данныхснеравномернымшагом. дискретизации по времени. Шаг увеличивается при медленных изменениях х(Г) и уменьшается при быстрых. В простейшем случае это делается так: очередная ордината х,. передается тогда, когда изменение х со времени предыдущей передачи достигает заданного значения Ь трио. 5.25), которое определяется требуемой точностью измерения.
Ряс. 5.25 Но болыпий эффект сжатия данных получается, если установить на передающей и приемной сторонах одинаковые устройства предскаэа. ния поведения функции хат). Предсказание ведется на малый интервал времени О, и с этим же интервалом передающее устройство выполняет отбор ординат х(г). Но передача нх ведется существенно реже— только тогда, когда значение х в момент очередного отбора ординаты отличается от предсказанного значения больше чем на б. Вели же пред сказание оказывается достаточно точным и передачи по каналу свя. эи не происходит, то приемник воспроизводит предсказанное значение х. Основой для предсказаний (прогнозирования) служат, с одной стороны, хранящиеся в оперативной памяти сведения о поведении х(Г) в предшествующий отрезок времени, равный нескольким шагам О„н с другой стороны — сведения о динамических характеристиках случайного процесса х(Г), например о его автокорреляцнонной функциИ, хранящиеся в постоянной памяти устройства предсказания.
Известны и другие методы сжатия данных. Среди них полезно упомянуть метод статистического кодирования, при котором используются кодовые комбинации неравной длины. Короткие комбинации приписываются значениям х, чаще повторяющимся при передаче, длинные — значениям, реже повторяющимся. Для этого используется код, предложенный Шенноном и чэно. Обязательным условием его применения является наличие сведений о законе распределения измеряемой величины. Централизованная н децентрализованная обработка информации.
В крупных ИИС с разнообразной и сложной обработкой информации применяют для этой цели центральную ЭВМ универсального типа, обладающую достаточным быстродействием и необходимым объемом оперативной и постоянной памяти. Такая централизованная структура системы обеспечивает выполнение требуемых функций. Но она имеет существенный недктаток: любой отказ ЭВМ приводит к нарушению всех функций обработки информации. Для повьппения надежности системы применяют резервирование ЭВМ. Но это весьма сложно и дорого. 298 В последние годы развитие электроники привело к созданию больших интегральных схем ~БИС).
Из нескольких БИС собирается микропроцессор — обьединение арифметико-логического блока с блоком, хранящим микропрограммы для выполнения набора стющартных команд, и блоком микропрограммного управления. Микропроцессор способен выполнять самые разнообразные математические вычисления и решать логические задачи. Это как бы сердцевина ЭВМ. Но для его работы необходимы дополнительные блоки: оперативной и постоянной памяти, ввода команд и входной информации, вывода результатов вычислений. Все упомянутые дополнительные блоки также существуют в виде БИС.
Объединяя микропроцессоры с набором перечисленных блоков, строят микрокомпьютеры ~микроЭВМ~. Микропроцессоры и микрокомпьютеры уступают большим ЭВМ по быстродействию и объему памяти, по числу разрядов кодовых слов, с которыми вьпюлняются математические и логические операции. Поэтому они обладают меньшей производительностью. По этим же причинам они, как правило, не приспособлены для использования языков въкокого уровня, что создает некоторые дополнительные трудности при программировании. Но вместе с тем у микрокомпьютеров имеются существенные преимущества перед большими ЭВМ и даже перед миникомпьютерами.
Это дешевизна, высокая надежность, малые габариты, малое потребление мощности. Применительно к ИИС появление микропроцессоров и микрокомпьютеров привело к возможности децентрализации обработки информации с вытекающими отсюда последствиями — повышением надежности и живучести систем, увеличением разнообразия и сложности выполняемых ими функций. Микрокомпьютеры можно специальпировать в ИИС по отдельным задачам или группамродственных задач, На их основе становится рациональным построение блоков, прежде вьшолнявшихся в виде специализированной электронной аппаратуры. Возможно, например, такое раэбиениефункцнйпо обработке информации между микрокомпьютерами: 1) лннеаризацня характеристик, сглаживание сигналов, масппабирование и преобразование кодов; 2) вычисление результатов косвеннъ1х и совокупных измерений, интегральных расходов,техникоэкономических показателей; 3) сравнение параметров с уставками, прогнозирование аварийных ситуаций, логическая обработка информации; 4) статистическая обработка данных в статике и в динамике; 5) сжатие данных.
Лля ИИС, охватывающих территориалъно разобщенные объекты, может оказаться выгодной децентрализация обработки информации по территориальному признаку или по сложившемуся разделению между объектами по технологическому признаку. В) В ФЧВ Рис. 5.26 300 Норьплизуталне преобразователи. Назначение этих преобразователей разъяснено в з 5.4. На рис. 5,26 показаны примерь1 структурных схем наиболее распространеинь|х типов нормализующих преобразователей: для термопар; для термометров сопротивлении; для дифференциально.трансформаторных датчиков.
Все они выдают сигнал постоянного напряжения Е~ с унифицированным диапазоном (например,от Оде 10 В). Схема для термопар (рис. 5.26,а) включает элемент компенсации температуры холодного спал ЭК, усилитель постоянного тока УТТТ и элемент линеаризации ЭЛ Последний может отсутствовать, если функция линеаризации выполняется общим устройством обработки информации. Схема для термометров сопротивления (рис.
5.26,б) включает мост М, одним из плеч которого служит терморезистор А, и усилитель по- т' стоянного тока УПТ. Схема цля дифференциально-трансформаторных датчиков (рис. 5.26,в) содержит усилитель переменного тока У и фазочувствительный выпрямитель чзг1В.
Нормализующие преобразователи могут быль индивидуальными и групповыми. Входные и выходные переключатели (коммутаторы). Входной переключатель имеет индивидуальные входы Вт1, ..., 6'.г1Ч и общий выход Выт (рис. 5.27, а), выходной переключатель (рис, 5.27,6) имеет обратную структуру. Первый поочередно подает входные сигналы на общий измерительный преобразователь, и к его ключам К1, ..., КЖ предъявляются определенные требования метрологического характера. Второй распределяет по выходным устройствам ИИС (выходы Вых1, ...