Тихонов В.И., Харисов В.Н. Статистический анализ и синтез радиотехнических устройств и систем (2004) (1151791), страница 112
Текст из файла (страница 112)
пр„описывающие соответственно полезный сигнал и шум. Пусть (з(!), — со<!<а>) и >л(г), — о> < г < о>) имеют соответственно спектральные плотности о,(ы) н Б„(ы). Требуется получить оценку 8(г) полезного сигнала з(г) по наблюдении> (7) — -это общая задача корректирующей фильтрации. Если отыскать линейную оценку сигнала в форме З(г)= ) Ь(г — т)Ц(т)гут, (1 3,3.8) то при известных функциях Я,(са), Я„(а>) и й(>) частотная характеристика оптимального фильтра по критерию минимума среднего квадрата ошибки е>=пни М (!.г(г) — 3(г) !') определяется выражением К«()ы) К (в>) К,(зы)= ! К()ы) !" Я,(в>)-Ь.9„(го)' ' Кассам С.
йм Пур Г. В. Робастныс методы обработки сигналовНТИИЭР.-- 1985.--Т. 73, 74> 3. С 54 — 1!О. 589 где К()гв) комплексная частотная характеристика канала, соотвстствуюц!ая импульсной характеристике 1г(г); К" ()ы) — ее комплексно-сопря кенная функция. Иа пракгике комплексная частогная характеристика канала редко известна точно.
Однако для построения оптимального корректирующего филыра (9) требуется точное знание ес. Поэтому приходится искать другой подход к построеяию фильтра, который позволил бы учизывать неопределенность характеристик канала. В частности, если канал описывается моделью с передаточной функцией, принадлежащей некоторому классу неопределенности Х, то для построения фильтра можно применить минимаксный критерий среднего квадрата ошибки, при котором поиск максимума ведется по всем каналам в классе э!. для илликтрации сути решения такой минямаксной задачи коррекции канала предположим, что канал ямеег линейную фазавую характеристику, а его амплитудно-частотная характеристика ! К()ы) ! лежит в интервале ме:кду извссгиымя нижней Г(ы) н верхней ьг(га) границами, г.
е. для всех в Р(ю) < ! К()ю) ! < гг(ы). (!3.3.!0) При этих условиях амплитудно-частотная характеристика робасгнаго (миннмаксного) корректирующего Взилыира определяется выражением !г(ю) 0,(ю) К„( ) Р*(ы) 0.(ы)+ К.(ы)' Р' (ю) 0*(ю) 2 Я„(ы) Г(ю)+ ГГ(ы)' 1'з(ю) Я,(ю) (!3.34 П Кх(!га) = где (13.3.12) А(ы)=(У(гс) — Р(гв))!2 Г(ю). Приведенные три примера позволяют составить некоторое представление о характере формулировки робастных задач.
Разумеется, что даже для одной конкретной задачи возможны различные робастные решения в зависимости от вида самой неопределенности и задания ее модели. 13.4. АДАПТИВНЫЕ МЕТОДЫ На практике часто встречаются ситуации с большой априорной неопределенностью, когда достаточно обоснованный и адекватный выбор рассматриваемых моделей весьма проблематичен. В подобных случаях возникают задачи синтеза адаптивных (приспосабливающихся) систем и устройств, способных принимать информацию в условиях априорной неопределенности.
Параметры и структура таких систем и устройств должны изменяться со временем по мере «изучения» тем или иным способом рассматриваемой ситуации, Практически всегда неопределенность можно свести к конечному числу параметров, которые заранее неизвестны. Ограничимся 590 Заметим, что А(ы) является мерой неопределенности нашей информации о канале, а величина я„(ю)/!гз(ю) я,(ю) характеризует максимально возможное значение отношении шум-сигнал на частоте сх Таким образом, неравенства (1!) означают, что если максимальное отношение шум-сигнал на данной частоте больше, чем неопределенность модели канала, га на этой частоте усиление фильтра оптимально лля нижней границы !г(га). В противном случае мы просто пренебрегаем шумом и на этой частоте применяется усиление, обратное среднеарифметическому ог границ усиления канала.
Аиалогнчиьш результат получается и при неизвестной фазочасгогной характеристике канала. рассмотрением задач только с параметрической неопределенностью. Пусть полезный принимаемый сигнал зависит кроме информационного параметра х(1) от ряда других сопровождающих неинформационных параметров сг(1), т. е.
наблюдение имеет вид Р,(1)=з(1, Х, гх)+па(!). (1 3.4.1) По своей физической сути вектор параметров сг(г) не является чем-то принципиально отличным от А(1). Однако адаптивный подход обычно целесообразен, когда сопровождающие параметры изменяются медленно. Пусть информационный параметр )ь(1) задан стохастическим уравнением г(2/г(1=0(1, Х, гх)+лх(1). (1 3.4.2) Применительно к задаче (!), (2) возможны разные варианты формулировки задачи адаптивного приема. Например, требуется оптимальным образом фильтровать информационный параметр 2 (!) при недостатке априорных сведений о сопровождающих параметрах и(1) и (или) о характеристиках шума канала и (1) и (или) фоРмиРУющего шУма п(1), пРичем шУмы но(1) и н(1) могут зависеть от Х(1) и и(г). Основными характеристиками качества адаптивного приема являются: точность фильтрации информационного сообщения х(1), время адаптации, сходимость процесса адаптации и чувствительность к возможным изменениям условий работы.
Байесовскнй подход. Общая методика решения адаптивной задачи сводится к следующему (9). По свойству согласованности и. в. имеем р()ь ! ~ос)=)р()ь, сг) Ро)г)сг=)р(Х)сг, Ро~)р(сг)Ро)гйх. (!343) знание р (х ~ с о) позволяе~ найти оценку параметра х (1) по любому критерию. В частности, оценка по критерию минимума среднего квадрата ошибки равна А(1)=) )ьр(Х ! Ц) с(Х. (1 3.4.4) Таким образом, если определить совместную апостериорную и. в. р(Х, а) Ц) всех неизвестных параметров (информационных и сопровождающих), то на основании формул (3) и (4) легко определить уь(!). Соответствующая последовательность операций изображена на рис. 13.5. Разумеется, что принятие процедуры (3) за основу при определении р(Х ! Ц), вообще говоря, необязательно. Однако, во-первых, такая процедура оптимальна в том смысле, что при Рис.
13.5. Последова- л 1'С) гельиость операций с(ь) 0предглелие Определена Определение при байесовскам адап- Р(д, . (9е) РР В~с) лй) гнвном приеме 591 использовании [3) гарантируется оптимальная (например, по критерию минимума среднего риска) опенка, получающаяся в результате реализации пеночки операций, изображенных на рнс. 13.5. Во-вторых, за исключением довольно редких случаев, опРеделение Р() ) с.'9) иным пУтем пРосго невозможно. Когда совоку1шость парал1етров (Х(1), а(1)) можно описать мпо1окомпонентпым диффузионным марковским процессом.
апостернорную п. в. р(Х, а / с'9)=-р(1, )., а) находим из решения уравнения Стратоновича: ~ ! — — '" =А(р(1, Х, а))+[Р(1, Х, а)— (! 3.4.7) — ()~' Р(1, ),, а) р(1, Х, а) гlЫа~ р(1, )., а), (13.4.5) л е где Р(1, )., а)=(21!У ) [г,(!) х(1, )ь а) — (112) хк(1, л, а)1. В том частном случае„когда неизвестные сопровождающие параметры не зависят от ) (1) и постоянны во времени, т.
е. г!а1г(1=0, в правую часть (5) войдет оператор ФПК для процесса 7.(!): 2. (Р(1, л, а)! — — Тл(р(1, )., а)), поскольку для а(1) коэффициенты сноса и диффузии равны нулю. Часто прием си~палов осуществляется на фоне суммы ЬГШ л„(() и помехи ((1) с неполностью известными характеристикал1и: 1(!)= (! Х)+1(1)+по(!). (13.4.6) Пусть ((1) — диффузионный марковский процесс вида (2) с неиз- вестнымн параметрами а. Обобщение байесовского подхода для подобных задач адаптивного приели не имеет особенностей.
Рассматривается многомерный процесс (Х, (, а). Уравнение для апостериорной и. в. имеет вид — — = 2.л (!5(1, А, с, а)) + 1 (Р(1, Х, !, а)) + + [Р(1, ), () — ( Р(1, )., () р(1, Х, (, а) !7).дГ,1(а')р(1, )., („а), где Е,! )- оператор ФПК для процесса ((!), зависящий от а; Р(! ) !)=(2~!у )("(1)[х(! ~)+((1)) (172) И! ~)+((1П ) Возможны дальнейшие обобщения, основанные на комбинациях описанных выше задач. До сих пор рассматривались задачи фильтрации при наблюде- нии в непрерывном времени с обязательным наличием БГШ. Если белый шум отсутствует, необходимо использовать уравнение Стратоновича (см.
() 7.6) более общего вида, чем (7.3.8). Если наблюдение ведется в дискретном времени, то вместо (5) и (7) нужно использовать соответствующие рекуррентные соотношения. 592 Важно подчеркнуть, что во всех случаях парамс ! рической неопределенности описанный выше подход сводит задачу адаптации к решению обычной задачи фильтрации для всех (а не только информационных) неизвестных параметров. Для точного или приближенного решения уравнений для апостериорной п.
в. Р(1, ),,а) необходимо знать начальное условие р(0, ),а). Ясно, что апосзериорная и. в. в нулевой момент времени, когда наблюдения еще не производились, совпадает с априорной и. в. параметров Х и а: р(0, ), а)=Р,. (1, а) или, когда ). и а априорно независимы, р(0, ),'а)'=р „(4!! „(а). Необходимость знания р,„(а) иногда рассматривают как недостаток указанного выше баиесовского подхода к адаптивным задачам и причину встречающе! ося иногда критического отношения к нему. На самом деле причину нужно искать глубже в обоснованности байесовской методологии применительно к вероятностным задачам вообще.
В приведенных вьппе рассуждениях сопутствующие параметры полагались случайными. Правомерен вопрос, насколько это обосновано. Понятие случайности в теории вероятностей предполагает определенную закономерность. повторяемость в большом числе испытаний. В практических задачах чаще всего не имеется достаточного объема предварительных экспериментов по выяснению вероятностного характера неизвестных параметров. Тем не л1енее их предполагают случайными и априорные распределения для них задают из физических соображений, используя как накопленный общетеоретический, так и конкретный для данной задачи опыт.