rts_lek (1087876), страница 4
Текст из файла (страница 4)
Используют такое понятие как количество информации, приходящееся на один элемент сообщения, называемое энтропией сообщения
В качестве основания логорифма можно брать различные числа: 10, е или 2. В последнем случае количество информации измеряется в битах. . Таким образом, бит есть единица информации (сообщение о сигнале 0 или 1).
Приходящие сообщения можно идентифицировать с определенной вероятностью. В двоичной системе всего два сигнала, появление которых равновероятно. При равной вероятности появления событий 0 и 1 имеем: Р(0) = Р(1) = 0,5.
На практике состояния элементов сообщений чаще всего имеют разную вероятность появления. Рассмотрим вопрос о количестве информации в этом случае.
Рассмотрим сообщения, состоящие из n элементов, каждый из которых является независимым и может принимать любое из
соответственно.
Пусть для некоторого одиночного сообщения число элементов, принявших состояние x1, равно n1, число элементов, принявших состояние x2 равно n2 и т.д. Такое сообщение может быть представлено таблицей
Общее число элементов сообщения равно
Вероятность для одного элемента принять состояния равна отношению
= nk /n.
Вероятность того, что nk элементов примут состояние равна
. Выше мы получили
= nk/n и nk= n
, поэтому
Вероятность всех m состояний сообщения равна
Полученная формула описывает среднюю вероятность одного сообщения. Следующее сообщение такого же типа (для той же системы и тех же параметров) при наборе статистики будет также описываться соотношением (2.9) и т.д. Поскольку полная вероятность параметров во всех таких сообщениях равна единице =1, то объединяя все данные по всем сообщениям, сохраняя прежнее обозначение m для полного числа состояний, и, приравнивая полную вероятность всех сообщений единице, найдем, что число сообщений будет равно
Cледовательно, среднее количество информации в одном сообщении равно
, поделив это выражение на число элементов, получим выражение для средней энтропии сообщений
Оценим количество информации в одном бите, содержащееся в единичном сообщении о наступлении одного из - - х событий
: Событие (0 или 1) обозначается
=p(0)log(1/p(0))+p(1)log(1/p(1))
или
При равновероятных событиях получаем 1 бит информации при одном событии.
Последовательная передача событий даёт
, а
при =1 имеем
(чем больше длина “ слова ”, тем больше элементов сообщения – «букв» - n).
Для оцифровки непрерывных сигналов проводят квантование (дискретизацию) по времени (рис 1.7) и по значению. Отсчёты по времени берутся через интервалы, определяемые теоремой В.А.Котельникова:
t=s=1/(2fsв) ,
где - наибольшая частота спектра сообщений.
Иногда за s берут интервал корреляции случайного процесса.
Рис. 1.6. Выбор интервала квантования по времени
В общем случае можно оценить информацию одного значения радиосигнала S(t) как меру неопределённости его появления в определенном интервале значений: ,
где - область возможных равновероятных значений S,
- дискрет - минимальный шаг изменения значений S.
Информация о реализации случайной функции S(t) за время t оценивается по формуле:
Скорость получения информации будет /t :
,
Большую информацию в жизни и радиотехнике несут звуковые (речевые и музыкальные) сигналы с частотами до 25 кГц. Еще большую информацию несёт телевизионный сигнал.
2.2. Вероятностное описание процесса (сообщения)
Непрерывное сообщение - функцию можно описать многомерной плотностью распределения вероятности
Однако обычно для описания достаточно одномерного распределения плотности вероятности
, которая характеризует отклонение значений функции от среднего.
В радиотехнике используются сигналы с колебанием напряжения или тока около нулевого значения (среднее значение равно 0), которые называют стационарными случайными процессами. Для их описания используют статистические характеристики, корреляционную и спектральную функции.
2.2.1. Статистические параметры и характеристики стационарного процесса
Обычно используют следующие усредненные параметры:
Здесь: М1 – математическое ожидание или среднее значение процесса S(t) на интервале Т ; D – дисперсия значений процесса, М2 – центрированная дисперсия. При большом Т у стационарного процесса М1=0 и М2= D.
Используют также приведенные ниже следующие усредненные характеристики.
Корреляционная (или автокорреляционная) функция характеризует меру связанности процесса:
где - текущее время внутри области интегрирования, - разность времени (интервал) в точках, в которых берутся значения S(t).
Корреляционная функция стационарного процесса зависит только от (т.е. ), причем R(0)=D. Если корреляционную функцию разделить на дисперсию D, то получим нормированную корреляционную функцию () = R(0)/ D, у которой (0) =1.
Если ()>0,5 , то говорят, что есть взаимная связь между значениями S(t) и S(t-) . И наоборот, если ()<0,5, то связи между ними нет. Величина к, при которой (к)= 0,5, называется интервалом корреляции. Таким образом, в интервале от =0 ((0)=1) до =к ((к)=0,5) связь между S(t) и
S(t-) есть, а при >к её нет.
По аналогии с автокорреляционной используется понятие взаимнокорреляционной функции:
Эта функция характеризует меру связанности двух процессов x(t) и y(t) в различные моменты времени, разделенные во времени интервалом .
Преобразование Фурье (или спектр) процесса S(t) дает амплитудное распределение частотных составляющих:
Зная Fs(), можно восстановить значение исходной функции S(t), воспользовавшись рядом Фурье:
Или, осуществить более полное восстановление, с помощью обратного преобразования Фурье:
Энергетический спектр сигнала, или распределение по мощности частотных составляющих определяется с помощью преобразования Фурье от корреляционной функции:
Как и в предыдущем случае, восстановить корреляционную функцию можно с помощью обратного преобразования Фурье.
2.2.2. Описание процесса полиномами
Всякий процесс можно описать не только гармоническими (синусоидальными), но и полиномами:
Такое описание позволяет производить экстраполяцию функции за пределы наблюдения (прогноз), интерполяцию (детальное изменение между двумя точками) и сглаживание (исключение выбросов от случайных помех). Коэффициенты аi определяются путем решения системы алгебраических уравнений.
Аналогичное описание процесса может быть сделано ортогональными функциями:
Условие ортогональности выражается следующим образом
Т
I = Pi(t) Pj(t) d t = { =1 при i=j и =0 при ij }.
0
2.3. Описание цифровых сообщений
При цифровой передаче, сообщение выражается случайной последовательностью дискретных значений, отсчитываемых в дискретные моменты времени.
- число (алфавит) различных символов а.
- число символов в комбинации (кодовом слове), отображающей возможное количество дискретных значений
.
- длительность отображения сигнала.
- ширина спектра дискретного сигнала.
2.4. Классификация РТС по характеру сообщений, циркулирующих в системе
В зависимости от характера сообщений, циркулирующих в РТС они делятся на следующие:
-
Непрерывные РТС (аналоговые). РТС вырабатывает случайный непрерывный процесс.
Примеры: радиовещание, пеленгационные системы, доплеровские РЛС, навигационные системы определения координат по разности фаз между РТС. Изменяемые параметры процесса: .
-
Импульсные системы – последовательность отрезков случайных непрерывных процессов (импульсов). Изменяемые параметры:
.
Примеры: импульсные радиолокационные системы, импульсные радионавигационные системы, радио переговоры ключом, телеграф.
-
Дискретные или цифровые системы.
Информация содержится в последовательности различимых символов (дискретных сигналов). Полезная информация заключена в наличии и отсутствии сигналов в их последовательности.
При последнем способе передачи влияние помех мало сказывается на приеме сигналов, обеспечивается высокая точность передачи, меньше требований к стабильности характеристик аппаратуры.