Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (1141996), страница 116
Текст из файла (страница 116)
-ч р! 1Р;х) И1, ь 1,!д) Преды1авлп.т пзтсрес и ряд других адаптивных алто; .. прове!22П г и тс, '!ыссмотрсипь1х в (73). ззвп лдлпт!!пиыг ллгОРитиы клАООиФикАИии Х .:.'' ..':=."Х,!Ь11АРЛЪ)КТР)12 КСКОИ лиРИОРБОЙ ОИРК,1!Д К !КОСТИ (22.81) можно объединить обе обучающие последовательности в одну у," = (уь ... у„) и использовать эту последовательность для аппроксимации класснфицируюшей статистики Р(х) [см. (22.76)]. Так как Р(х))0, можно воспользоваться методами оценки многомерной плотности вероятности. Примем в качестве аппроксимации Р(х) функцию » Р„(х, у",) = — ~ (2ту — 1) Ку (х, уу), п (22,83) где Ку (х, уу) П К йу (и), !»»у (») (22.83а) ядро К(а) и константы Ууу(п) удовлетворяют условиям (14.22а — в) и (14.25а,б) [см., например, [80]].
6ЗЗ то, как показано в [74], подходящей аппроксимацией функции Р(х) является функция Р (х, у„), получаем согласно рекуррентномч алгоритму Р„( х, у„) =Р, (х, у„,)+т»,К(х, у„), (22.78) где (г») — шсловая последовательность, подчинения условию сходпмости Р„к Р при и- со. Обозначая через аь„коэффициенты разложения (22.76) на п-м шаге, получаем из (22.78) следующий рекуррентный алгоритм оцснивания этих коэффициентов по обучающей выборке; а»„=аь»,+г„урь(у»), (22.79) На первом шаге в качестве нулевого приближения амь й=), т, можно выбрать произвольные константы.
Зависимые обучающие выборки рассмотрены в [75]. Рекуррентным адапгивным алгоритмом, основанным на использовании классифицирующих статистик, посвящена монография [76] (см. также [79]). 22.4.2. Метод оценки классифицирующей статистики, Пусть х,!» ... х,<'» У вЂ” последовательность независимых обучающих векторных (у'чмерных) выборок, принадлежащих 1;-му классу у';=1; 2, 1=1, ..., и). Каждый вектор ху появляется с вероятностью рь если 12=1, и с вероятностью р2, если у',:=2. Введем дискретную случайную величину ть принимающую два значения: у ! у.) (2) 1, х;у)=ху Уу = О, х,"У) = ху '. Ясно, что Р(ту=1) =р„Р(т,=О) =р„р, + р,= К Обозначив уу =- тух,ну+ (1 — э,) ху!2>, (22.82) Как показано в (77], последовательность лр„(ул) = )' (Р„(х, у",) — Р (х))' бх (22.84) х сходится к нулю по вероятности, когда размер обучающей выбор- ки и неограниченно возрастает.
При этом оценка вероятности ошибки классификации при использовании классифицирующей статистики Р„(х, у,') сходится к вероятности ошибки классифи- кации, соответствующей оптимальному правилу при полной ап- риорной информации. 22.4.3. Правило «ближайших соседей». Пусть функция (У(х) непрерывна в точке х и последовательность областей пь ..., я„с объемами оь ..., о„удовлетворяет следующим условиям: а) Пт пи„= оо, л-ввв б) )пп зпр (~х — уЦ= О, л+вв у«ял в) число й статистически независимых выборок из распределе- ния с плотностью Ф'(х), попадающих в область ц„, таково, что й-+.оо при и — «-оо и л.в )(в (х) =й/(псл) — » ув'(х) л+ — состоятельная оценка плотности 5Г(х) в точке х. При соблюдении указанных условий формулируется следую- щее правило «ближайших соседей»: если имеется совокупность п обучающих независимых выборок хь ..., х„, о каждой из кото- рых известно, к какому из двух распределений принадлежит вы- борка, и если среди А обучающих выборок, ближайших к наблю- даемой выборке х, й, принадлежит распределению с плотностью К (х), а йв — к распределению с плотностью В'в(х), то принима- ется решение, что наблюдаемая выборка х относится к классу с плотностью Ю'1(х), если А1~)йо, Ь+йо=й~(п, (22.85) и к В'в(х) в противном случае.
Адаптивное правило (22.85) не требует построения оценок плотностей распределений и является в известном смысле непараметрическим (см., например [781). 22.6. АДАПТИВНЫЕ АСИМПТОТИЧЕСКИ ОПТИМАЛЬНЫЕ АЛГОРИТМЫ ОБНАРУЖЕНИЯ СИГНАЛОВ НА ФОНЕ ПОМЕХ 22.5.1. Принцип построения адаптивных асимптотических оптимальных алгоритмов. Общим критерием качества адаптивного алгоритма, как отмечалось в $ 22.1, является его состоятельность — сходимость по вероятности адаптивного алгоритма к оптимальному алгоритму при полной априорной информации, когда неограниченно увеличивается размер обучающей выборки. 634 )', (х~ э) = д~ (х,' м у~ ), М 1ы = — 2; и, (х,! „, ум) 87 (х',, ум).
1=! (22.86) (22.87) Адаптивный асимптотически оптимальный алгоритм обнаружения детерминированного сигнала на фоне й-связной марковской помехи формулируется следующим образом: сигнал присутствует, если — Г (х,' ) з! — — 1г[ЯЦ)с, и с=~ (22.88) н сигнала нет в противном случае [ср. с (18.47)].
635 Состоятельные адаптивные алгоритмы обнаружения получаются из оптимальных подстановкой вместо неизвестных функций распределения или их параметров соответствующих оценок, вычисленных при помощи обучающих выборок. Однако критерий состоятельности не определяет однозначно адаптивный алгоритм обнаружения сигнала.
Для построения состоятельного адаптивного алгоритма можно использовать приведенные в гл. 18 и 19 асимптотически оптимальные алгоритмы обнаружения сигналов. Хотя эти алгоритмы обладают определенной структурной устойчивостью, для их применения необходима априорная информация о распределении помехи и способе ее взаимодействия с сигналом для того, чтобы определить характеристику нелинейного преобразователя наблюдений и вычислить порог. Если имеется обучающая выборка, то, используя удачно выбранные оценки характеристики нелинейности и порога, можно получить состоятельный адаптивный алгоритм обнаружения.
Такие алгоритмы сохраняют все положительные свойства асимптотически оптимальных алгоритмов, приобретая новое свойство — возможность их применения в условиях априорной неопределенности относительно вида помехи. Вследствие асимптотической эквивалентности вероятностных мер при сближающихся гипотезе и альтернативе (см.
гл. 17), оценивание характеристики нелинейного преобразователя по не- классифицированной обучающей выборке столь же эффективно, как ппи классифицированной, но с меньшей скоростью сходимости адаптивного асимптотически оптимального алгоритма. 22.5.2. Адаптивный асимптотически оптимальный алгоритм обнаружения детерминированного сигнала на фоне й-связной марковской помехи. Пусть у~м= (уь ..., ум) — классифицированная выборка, принадлежащая распределению й-связной марковской помехи (М)й). При неизвестном распределении помехи на основс этой выборки можно получить оценки следующих величин в асимптотическом разложении (1?.64), зависящих от неизвестного распределения 22.5.3. Адаптивные асимптотически оптимальные алгоритмы обнаружения детерминированного сигнала на фоне аддитивной помехи с независимыми значениями.
Предположим, что неизвестная плотность вероятности ш(х) адднтивной помехи с независимыми значениями принадлежит параметрическому семейству плотностей. Поимерами таких семейств являются функции Пирсона (см., например, 16, 161), а также плотности, аппрокснмнруемые конечными суммами ортогональных полиномов (см. 9 2.5). В этих случаях неизвестную логарифмическую производную 1" (х) плотности поыехи (характеристику нелинейного преобразователя наблюдаемой выборки) можно представить в виде отношения (22.89) 1" (х ) = Р ( х) ) Я (х), где Р(х), Я(х) — полиномы конечных степеней, коэффициенты которых выражаются через моменты тм я=!, Ч, распределения помехи.
Заменяя этн априорные моменты выборочными (22.90) вычисленными по классифицированной независимой выборке по- мехи, получаем оценку логарифмической производной (22.91) 1Г (х) = Р (х; т ы ..., тх) Я (х; т „, тл ). Кроме подстройки характеристик 1(х) входного нелинейного безынерционного преобразователя, необходима также подстройка порога, который зависит от неизвестного значения 1з информации по Фишеру (см. (18.5)). Прн независимой обучающей выборке помехи угм в соответствии с законом больших чисел опенка (22.92) Можно доказать, что оценки 1(х) и 11т при М-э.оо сходятся по вероятности к 1(х) и 1з соответственно. Предположим теперь, что неизвестная плотность вероятности ш(х) адднтивпой помехи с независимыми значениями принадлежит непараметрическому семейству плотностей. Для построения адаптивного асимптотически оптимального алгоритма обнаружения сигнала в рассматриваемом случае необходима оценка не самой плотности, а ее логарифмической производной.
Используя метод потенциальных функций (см. п. 22.4.1), находим оценку характеристики нелинейности 1'(х) по обучающей выборке угм помехи 636 м т и т ~ (х) = — Х Х !р~ (х) !р» (д!) ( Х Х <рд (х) <рх (у!), (22 93) !=! а ! ! в 1 где !р!(х), ..., гр„(х) — ортонормнрованный базис. Другая оценка получается методом, аналогичным приведенному в п. 22.4.2: д Г (х — у!)!! !™ ! (х — а.)а1 1(х)= Х вЂ” ехр ~ — — У У ехР ~ — ', (22.94) дх ~ а(М) )( ~ а(М) где й(М)-+О при М вЂ” ~со. При этол! оценки (22.93) и (22.94) сходятся при М вЂ” со по вероятности к ) (х).
ПРИЛОЖЕНИЕ 1. ДЕЛЬТА-ФУНКПИЯ По определени!о дельта-функция б(1 — 1,) для любого действительного параметра 1, равна нулю при /М/о и неограннчена при /-/о б(1 /о) = 0 ° 1 Ф /о. о Интеграл от этой функции ь а</ <Ь, б(/ — /о) г/1 = 1/2, /о — — а или /о — — Ь, О, /о<а, /о>Ь. (2) 1/т, 1, < / < /о+ т, 5(/, т)= 0 т < /о. ! > /о+ т. Если устремить длительность импульса к ного перехода получим дельта-функцию: б(1 — /о) = !пп з(!, т).