Главная » Просмотр файлов » Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989)

Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (1141996), страница 116

Файл №1141996 Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (Левин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989)) 116 страницаЛевин Б.Р. Теоретические основы статистической радиотехники (3-е издание, 1989) (1141996) страница 1162019-07-28СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 116)

-ч р! 1Р;х) И1, ь 1,!д) Преды1авлп.т пзтсрес и ряд других адаптивных алто; .. прове!22П г и тс, '!ыссмотрсипь1х в (73). ззвп лдлпт!!пиыг ллгОРитиы клАООиФикАИии Х .:.'' ..':=."Х,!Ь11АРЛЪ)КТР)12 КСКОИ лиРИОРБОЙ ОИРК,1!Д К !КОСТИ (22.81) можно объединить обе обучающие последовательности в одну у," = (уь ... у„) и использовать эту последовательность для аппроксимации класснфицируюшей статистики Р(х) [см. (22.76)]. Так как Р(х))0, можно воспользоваться методами оценки многомерной плотности вероятности. Примем в качестве аппроксимации Р(х) функцию » Р„(х, у",) = — ~ (2ту — 1) Ку (х, уу), п (22,83) где Ку (х, уу) П К йу (и), !»»у (») (22.83а) ядро К(а) и константы Ууу(п) удовлетворяют условиям (14.22а — в) и (14.25а,б) [см., например, [80]].

6ЗЗ то, как показано в [74], подходящей аппроксимацией функции Р(х) является функция Р (х, у„), получаем согласно рекуррентномч алгоритму Р„( х, у„) =Р, (х, у„,)+т»,К(х, у„), (22.78) где (г») — шсловая последовательность, подчинения условию сходпмости Р„к Р при и- со. Обозначая через аь„коэффициенты разложения (22.76) на п-м шаге, получаем из (22.78) следующий рекуррентный алгоритм оцснивания этих коэффициентов по обучающей выборке; а»„=аь»,+г„урь(у»), (22.79) На первом шаге в качестве нулевого приближения амь й=), т, можно выбрать произвольные константы.

Зависимые обучающие выборки рассмотрены в [75]. Рекуррентным адапгивным алгоритмом, основанным на использовании классифицирующих статистик, посвящена монография [76] (см. также [79]). 22.4.2. Метод оценки классифицирующей статистики, Пусть х,!» ... х,<'» У вЂ” последовательность независимых обучающих векторных (у'чмерных) выборок, принадлежащих 1;-му классу у';=1; 2, 1=1, ..., и). Каждый вектор ху появляется с вероятностью рь если 12=1, и с вероятностью р2, если у',:=2. Введем дискретную случайную величину ть принимающую два значения: у ! у.) (2) 1, х;у)=ху Уу = О, х,"У) = ху '. Ясно, что Р(ту=1) =р„Р(т,=О) =р„р, + р,= К Обозначив уу =- тух,ну+ (1 — э,) ху!2>, (22.82) Как показано в (77], последовательность лр„(ул) = )' (Р„(х, у",) — Р (х))' бх (22.84) х сходится к нулю по вероятности, когда размер обучающей выбор- ки и неограниченно возрастает.

При этом оценка вероятности ошибки классификации при использовании классифицирующей статистики Р„(х, у,') сходится к вероятности ошибки классифи- кации, соответствующей оптимальному правилу при полной ап- риорной информации. 22.4.3. Правило «ближайших соседей». Пусть функция (У(х) непрерывна в точке х и последовательность областей пь ..., я„с объемами оь ..., о„удовлетворяет следующим условиям: а) Пт пи„= оо, л-ввв б) )пп зпр (~х — уЦ= О, л+вв у«ял в) число й статистически независимых выборок из распределе- ния с плотностью Ф'(х), попадающих в область ц„, таково, что й-+.оо при и — «-оо и л.в )(в (х) =й/(псл) — » ув'(х) л+ — состоятельная оценка плотности 5Г(х) в точке х. При соблюдении указанных условий формулируется следую- щее правило «ближайших соседей»: если имеется совокупность п обучающих независимых выборок хь ..., х„, о каждой из кото- рых известно, к какому из двух распределений принадлежит вы- борка, и если среди А обучающих выборок, ближайших к наблю- даемой выборке х, й, принадлежит распределению с плотностью К (х), а йв — к распределению с плотностью В'в(х), то принима- ется решение, что наблюдаемая выборка х относится к классу с плотностью Ю'1(х), если А1~)йо, Ь+йо=й~(п, (22.85) и к В'в(х) в противном случае.

Адаптивное правило (22.85) не требует построения оценок плотностей распределений и является в известном смысле непараметрическим (см., например [781). 22.6. АДАПТИВНЫЕ АСИМПТОТИЧЕСКИ ОПТИМАЛЬНЫЕ АЛГОРИТМЫ ОБНАРУЖЕНИЯ СИГНАЛОВ НА ФОНЕ ПОМЕХ 22.5.1. Принцип построения адаптивных асимптотических оптимальных алгоритмов. Общим критерием качества адаптивного алгоритма, как отмечалось в $ 22.1, является его состоятельность — сходимость по вероятности адаптивного алгоритма к оптимальному алгоритму при полной априорной информации, когда неограниченно увеличивается размер обучающей выборки. 634 )', (х~ э) = д~ (х,' м у~ ), М 1ы = — 2; и, (х,! „, ум) 87 (х',, ум).

1=! (22.86) (22.87) Адаптивный асимптотически оптимальный алгоритм обнаружения детерминированного сигнала на фоне й-связной марковской помехи формулируется следующим образом: сигнал присутствует, если — Г (х,' ) з! — — 1г[ЯЦ)с, и с=~ (22.88) н сигнала нет в противном случае [ср. с (18.47)].

635 Состоятельные адаптивные алгоритмы обнаружения получаются из оптимальных подстановкой вместо неизвестных функций распределения или их параметров соответствующих оценок, вычисленных при помощи обучающих выборок. Однако критерий состоятельности не определяет однозначно адаптивный алгоритм обнаружения сигнала.

Для построения состоятельного адаптивного алгоритма можно использовать приведенные в гл. 18 и 19 асимптотически оптимальные алгоритмы обнаружения сигналов. Хотя эти алгоритмы обладают определенной структурной устойчивостью, для их применения необходима априорная информация о распределении помехи и способе ее взаимодействия с сигналом для того, чтобы определить характеристику нелинейного преобразователя наблюдений и вычислить порог. Если имеется обучающая выборка, то, используя удачно выбранные оценки характеристики нелинейности и порога, можно получить состоятельный адаптивный алгоритм обнаружения.

Такие алгоритмы сохраняют все положительные свойства асимптотически оптимальных алгоритмов, приобретая новое свойство — возможность их применения в условиях априорной неопределенности относительно вида помехи. Вследствие асимптотической эквивалентности вероятностных мер при сближающихся гипотезе и альтернативе (см.

гл. 17), оценивание характеристики нелинейного преобразователя по не- классифицированной обучающей выборке столь же эффективно, как ппи классифицированной, но с меньшей скоростью сходимости адаптивного асимптотически оптимального алгоритма. 22.5.2. Адаптивный асимптотически оптимальный алгоритм обнаружения детерминированного сигнала на фоне й-связной марковской помехи. Пусть у~м= (уь ..., ум) — классифицированная выборка, принадлежащая распределению й-связной марковской помехи (М)й). При неизвестном распределении помехи на основс этой выборки можно получить оценки следующих величин в асимптотическом разложении (1?.64), зависящих от неизвестного распределения 22.5.3. Адаптивные асимптотически оптимальные алгоритмы обнаружения детерминированного сигнала на фоне аддитивной помехи с независимыми значениями.

Предположим, что неизвестная плотность вероятности ш(х) адднтивной помехи с независимыми значениями принадлежит параметрическому семейству плотностей. Поимерами таких семейств являются функции Пирсона (см., например, 16, 161), а также плотности, аппрокснмнруемые конечными суммами ортогональных полиномов (см. 9 2.5). В этих случаях неизвестную логарифмическую производную 1" (х) плотности поыехи (характеристику нелинейного преобразователя наблюдаемой выборки) можно представить в виде отношения (22.89) 1" (х ) = Р ( х) ) Я (х), где Р(х), Я(х) — полиномы конечных степеней, коэффициенты которых выражаются через моменты тм я=!, Ч, распределения помехи.

Заменяя этн априорные моменты выборочными (22.90) вычисленными по классифицированной независимой выборке по- мехи, получаем оценку логарифмической производной (22.91) 1Г (х) = Р (х; т ы ..., тх) Я (х; т „, тл ). Кроме подстройки характеристик 1(х) входного нелинейного безынерционного преобразователя, необходима также подстройка порога, который зависит от неизвестного значения 1з информации по Фишеру (см. (18.5)). Прн независимой обучающей выборке помехи угм в соответствии с законом больших чисел опенка (22.92) Можно доказать, что оценки 1(х) и 11т при М-э.оо сходятся по вероятности к 1(х) и 1з соответственно. Предположим теперь, что неизвестная плотность вероятности ш(х) адднтивпой помехи с независимыми значениями принадлежит непараметрическому семейству плотностей. Для построения адаптивного асимптотически оптимального алгоритма обнаружения сигнала в рассматриваемом случае необходима оценка не самой плотности, а ее логарифмической производной.

Используя метод потенциальных функций (см. п. 22.4.1), находим оценку характеристики нелинейности 1'(х) по обучающей выборке угм помехи 636 м т и т ~ (х) = — Х Х !р~ (х) !р» (д!) ( Х Х <рд (х) <рх (у!), (22 93) !=! а ! ! в 1 где !р!(х), ..., гр„(х) — ортонормнрованный базис. Другая оценка получается методом, аналогичным приведенному в п. 22.4.2: д Г (х — у!)!! !™ ! (х — а.)а1 1(х)= Х вЂ” ехр ~ — — У У ехР ~ — ', (22.94) дх ~ а(М) )( ~ а(М) где й(М)-+О при М вЂ” ~со. При этол! оценки (22.93) и (22.94) сходятся при М вЂ” со по вероятности к ) (х).

ПРИЛОЖЕНИЕ 1. ДЕЛЬТА-ФУНКПИЯ По определени!о дельта-функция б(1 — 1,) для любого действительного параметра 1, равна нулю при /М/о и неограннчена при /-/о б(1 /о) = 0 ° 1 Ф /о. о Интеграл от этой функции ь а</ <Ь, б(/ — /о) г/1 = 1/2, /о — — а или /о — — Ь, О, /о<а, /о>Ь. (2) 1/т, 1, < / < /о+ т, 5(/, т)= 0 т < /о. ! > /о+ т. Если устремить длительность импульса к ного перехода получим дельта-функцию: б(1 — /о) = !пп з(!, т).

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6551
Авторов
на СтудИзбе
299
Средний доход
с одного платного файла
Обучение Подробнее