Васин В.И. Информационные технологии в радиотехнических системах. Под ред. И.Б.Федорова (2003) (1092038), страница 33
Текст из файла (страница 33)
Например, может быть известно, что РаспРеделение и(н~Н7,Х,) смещено относительно 7е(п~Нв,Хв) в область ббльших значений координат вектора и. Как уже отмечалось в ~ 3.1, при решении задач приема сигналов на фоне помех необходимо использовать всю имеющуюся априорную информацию. С этой целью вводят параметрико-непараметрические модели априорной неопределенности, при которых для задания класса возможных распределений вероятностей наблюдаемого процесса используются известные и неизвестные распределения, параметрическое и непараметрическое описание [28). Примером такой модели является класс а-загрязненных распределений %~ (7ео а) = (и(и): 7е(п) =(1 — в)7ер(и)+ в7е (и)), (3.178) где 7вв(п) — либо известны плотность распределения вероятностей, либо плотность вероятности, у которых функциональный вид известен, а параметры распределения неизвестны; в,(п) — неизвестная плотность распределения вероятностей; в — известное число, причем 0 < е < 1.
В качестве 7ев(н) обычно используют гауссовское распределение. ПРи а = 0 и известных паРаметРах РаспРеделениЯ 7ев(п) класс И', (и в, в), определяемый выражением (3.178), состоит из одной плотности вероятности 7ев(п). Это соответствует случаю полной априорной информации. При неизвестных параметрах распределения и (и) и е = 0 класс И', (7е,, а) характеризует параметрическую априорную неопределенносп, а при а = 1 — не- параметрическую неопределенность. Известны и другие параметрико-непараметрические модели априорной неопределенности [28).
Для преодоления априорной неопределенности можно использовать: — методы адаптации; — методы непараметрической статистики; †робастныеметоды [23 вЂ,28,30). В основе методов адаптации лежит процесс обучения, под которым понимается оценивание неизвестных функций распределений (при параметрической неопределенности) нли неизвестных параметров распределений (при параметрической неопределенности) по обучающей выборке. Полу- 193 7 — 78М 3. Основы теории обнаружения и различения сигналов ченные оценки используются вместо неизвестных характеристик наблюдаемых процессов.
Например, при решении задачи обнаружения сигнала в условиях параметрической неопределенности решающая статистика принимает вид зв(п ~Н„3~1 ) зв(и~НО ~0) где 3., и 1. — оценки неизвестных параметров )ч и )чь от которых зависят распределения наблюдаемого процесса при наличии и отсутствии сигнала. В зависимости от того, известно или неизвестно распределение обучающей выборки, различают обучение с учителем и без учителя (самообучение), или, другими словами, обучение по классифицированной и неклассифицированной выборкам.
Примером обучения с учителем является задача обнаружения сигнала на фоне шума с неизвестной мощностью, когда имеется возможность в некоторые моменты времени наблюдать только шум, а следовательно, имеется возможность получать оценку мощности шума. Алгоритмы обработки сигналов, в которых используются полученные в результате обучения оценки функций распределения, их параметров или каких-либо других характеристик, называются адаптивными.
Адаптивные алгоритмы сложнее неадаптивных, синтезированных при полностью известных распределениях, н уступают последним по эффективности. Однако с увеличением объема обучающей выборки, используемой при облучении, адаптивные алгоритмы сходятся к соответствующим оптимальным алгоритмам с полной априорной информацией. Адаптивные процедуры находят широкое применение в локации, системах связи н управления и др. Примерами таких систем являются: — автоматическая регулировка порога обнаружения, производимая по оценкам мощности шума; — автоматическая регулировка скорости передачи информации в системах связи в зависимости от состояния канала; — автоматическая перестройка частоты несущей в системах связи в зависимости от состояния канала и др. Непараметрические методы применяются в условиях непараметрической априорной неопределенности. В теории обнаружения обнаружитель сигнала принято называть нелараметрическим, если при гипотезе Нв распределение вероятностей его решающей статистики не зависит от распределения шума 1231.
Очевидно, что такой обнаружитель обеспечивает постоянную вероятность ложного обнаружения сигнала. 194 3.6. Обнаружение сигналов в условиях априорной неопределенности Непараметрический алгоритм уступает по эффективности алгоритму, полученному в условиях полной априорной определенности. Однако при изменении распределения шума непараметрические алгоритмы в общем случае более эффективны, чем классические алгоритмы, рассчитанные на определенный тип помехи. При использовании методов непараметрической статистики выборочные данные преобразуются в статистики, вероятностные характеристики которых не чувствительны или слабо чувствительны к характеристикам сигналов и помех.
В настоящее время не существует конструктивных методов построения наилучших непараметрических алгоритмов. Чаще всего их строят на основе знаковых и ранговых статистик (23, 24, 28, 30]. Пусть и = (и,, и„..., и„) — исходная последовательность наблюдаемых величин. Знаковой статистикой называется произвольная функция знакового вектора яйпп =(яйпи,, яйпи,,..., яйпи„), 1, и,>0,' О, и, = 0; — 1, и,<0. яйпи, = где и, 2=,~ й(и,) ~ С, но 1, и>0; й(и,) = О, и,~О, (3.179) где и С вЂ” порог, определяемый заданной вероятностью ложной тревоги Г . 195 Алгоритм, использующий только информацию о знаках элементов выборки, называется знаковым. Знаковую статистику можно использовать, например, для обнаружения постоянного положительного (или отрицательного) сигнала на фоне помехи, имеющей симметричную плотность вероятности с нулевой медианой, при условии, что элементы выборки и =(и„и,..., и„) независимы.
Действительно, в этом случае при гипотезе Н, количество положительных и отрицательных элементов в выборке равновероятно. Появление постоянного положительного (или отрицательного) сигнала увеличивает вероятность положительных (нли отрицательных) элементов в выборке, что и используется для обнаружения сигнала. Знаковый алгоритм обнаружения сигнала можно представить в виде 3. Основы теории обнаружения и различения сигналов Нетрудно заметить, что число единиц в сумме (3.179) эквивалентно числу положительных исходов в схеме испытаний Бернулли. Поэтому статистика У будет распределена по биномиальному закону с параметром р, значение которого зависит от вида гипотезы: р =1/2 при гипотезе Но и р >1!2 при гипотезе Н! н положительном сигнале.
Таким образом, распределения решающей статистики при гниет „ах Но и Н, имеют вид Р(2'=)1!Н,) =С„"р" (1-р)" ', Р(У=А~НО) =С„~ — ~, А=О,1,...,п. , (1'!" (3.180) (3.181) Соответственно, вероятности правильного обнаружения и ложной тревоги определяются выражениями (3.! 82) я=с -! (3.183) Как уже упоминалось ранее, обычно вероятность ложной тревоги Р задана и по ней находится порог С. В рассматриваемом случае он находится как наибольшее целое число, удовлетворяющее неравенству (3.184) 196 Из выражения (3.183) следует, что вероятность ложной тревоги не зависит от распределения помехи, а следовательно, рассмотренный знаковый обнаружитель является непараметрическим.
Знаковую статистику можно использовать и в тех случаях, когда медиана распределения шума неизвестна, а известно лишь то, что она меньше медианы распределения смеси полезного сигнала и шума. При этом используют двухвыборочную знаковую процедуру, основанную на подсчете знаков разностей пар наблюдений помеховой у„у,..., у„и исследуемой и„и„..., и„выборок. Решающую статистику формируют следующим образом: 3.б.
Обнаружение сигналов в условиях априорной неопределенности 1 , (и,— у)>0, Чи у~) = О, (и,-у,)<0, где которую затем испытывают на порог С, определяемый по заданной вероятности Г . Нетрудно видеть, что при гипотезе Но распределение решающей статистики (3.184) совпадает с распределением (3.181). Поэтому алгоритм обнаружения сигнала на основе статистики (3.184) будет непараметрическим.
Вероятность правильного обнаружения будет определяться выражением (3.182), в котором значение р вычисляется по формуле р = Р(и > у) = ~Г„(х) с(г"„„(х), где Г„(х) и Г„„(х) — интегральные функции распределения помехи и смеси сигнала и помехи соответственно. Ранговая статистика определяется следующим образом (231, Пусть и =(ип и,,...,и„) — исходная последовательность наблюдаемых величин. Перегруппируем элементы выборки и, расположив их в порядке возрастания так, что и~~~ ( иО1 при к < у. В результате получим упорядочную выборку или вариационный ряд ( <О 00 <пг) У Вектор и называется вектором порядковых статистик, а его элементы — порядковыми статистиками. Порядковый номер выборки и, в вариационном ряду и„называется рангом Я, этого элемента, вектор К = Я, лгг,..., Я„) — ранговым вектором.
Произвольная функция от рангового вектора называется ранговой спгатистикой, а алгоритм на его основе— ранговым. Если выборка ц однородная и независимая, то все ранговые векторы равновероятны. Поэтому при использовании рангового алгоритма обнаружения сигнала на фоне стационарной помехи вероятность ложного обнаРужения не зависит от закона распределения помехи, т. е.
Ранговый обнаружитель оказывается непараметрическим. При появлении сигнала (при гипотезе Н~) выборка становится неоднородной, а распределение ранговых векторов перестает быть равномерным, что и позволяет обнаружить сигнал. Ранговые статистики более информативны. Поэтому ранговые обнаРужнтели эффективнее знаковых, т. е. обеспечивают ббльшую вероятность правильного обнаружения сигнала при одной и той же вероятности ложной тревоги.