Раздел №11. Алгоритмы первичной обработки в двухэтапной НАП (1151967)
Текст из файла
11. Алгоритмы первичной обработки в двухэтапной НАПДаннаячастькурсабудетпосвященаосновамразработкииособенностям реализации базовых алгоритмов первичной обработки в НАП:схемы слежения за фазой и частотой несущей; схемы слежения за фазой(задержкой) кода.Прежде чем перейти к рассмотрению собственно самих алгоритмоврассмотрим некоторые общие подходы к их синтезу и разработке. В лекции,посвященной приближенным методам нелинейной фильтрации, говорилось отом, что наиболее часто в НАП используют алгоритмы, синтезированные спомощью методики локальной гауссовской аппроксимации (далее простоалгоритмы).
Настоящая часть курса будет посвящена именно такималгоритмам.Очень часто синтез алгоритмов условно делят на два этапа:− синтез дискриминатора;− синтез сглаживающего фильтра.Такое деление связано со следующим фактом. Приведем еще разнекоторыеуравнениянелинейнойоптимальнойиквазиоптимальнойфильтрации.УравнениеоптимальнойнелинейнойфильтрацииСтратоновичамарковских процессов в непрерывном времени:∂p ( t , λ )= L { p ( t , λ )} + F ( t , λ ) − ∫ F ( t , λ ) p ( t , λ ) dλ ⋅ p ( t , λ ) ,∂t(11.1)УравнениеоптимальнойнелинейнойфильтрацииСтратоновичамарковских процессов в дискретном времени:p (λk ξk0) = c% ⋅ p ( ξ+∞kλk) ∫ p (λ−∞k −1ξ 0k −1 ) p ( λ k λ k −1 ) dλ k −1 .(11.2)Уравнения РФК в дискретном времени:(λˆ k = g tk , λˆ k −1D−λ1,k)( ( ∂s t , g t , λˆkkk −1+ Dλ ,k Tλk( ∂g t , λˆkk −1= λ Tk −1 )())T D−1 ⋅ ξ − s t , g t , λˆkkk −1 n ,0 k(( ()−1( ()) )))T ∂g tk , λˆ k −1 Dλ ,k −1 + Dn , λ +Tλ k −1( ( ∂s t , g t , λˆkkk −1+Tλk))T ∂s t , g t , λˆkkk −1 D−1 n ,0Tλk.(11.3)Уравнения в локальном гауссовском приближении в дискретномвремени:()λˆ k = g tk , λˆ k −1 + Dλ ,k ⋅Dλ−1,k()( ∂g t , λˆ ∂g tk , λˆ k −1kk −1 Dλ ,k −1 = λ Tk −1λ Tk −1 ∂ 2 ln p ξ k g tk , λˆ k −1 −T∂λ k ∂λ k( (Во( (всехэтих))∂ ln p ξ k g tk , λˆ k −1 ∂λ k))уравнения)−1T + Dn , λ − .можносоставляющую, определяемую только(11.4)достаточноаприорнойчетковыделитьмоделью динамикиоцениваемого вектора (уравнение сообщения), и составляющую, связанную снаблюдением (определяется полностью моделью (уравнением) наблюдения).Такая методика полностью соответствует структуре уравнений (11.3) и(11.4), которые в основном и применяются в большинстве случаев дляразработки алгоритмов первичной обработки в НАП.Немного о соотношении алгоритмов (11.3) и (11.4).Достаточно просто можно показать, что дискриминатор в алгоритме(11.4) полностью совпадает с таковым в уравнениях (11.3) (второе слагаемое,содержащее наблюдение) при наблюдении сигнала на фоне аддитивногоБГШ:( ())( (∂ ln p ξ k g tk , λˆ k −1 ∂s tk , g tk , λˆ k −1 =∂λ kλ Tk))T D−1 ⋅ ξ − s t , g t , λˆkkk −1 n ,0 k(( ())) .(11.5)Однако, если помеха не является аддитивной или БГШ, то этоутверждение не верно.С другой стороны в дисперсионных уравнениях алгоритмов (11.3) и(11.4) даже при наблюдении сигнала на фоне аддитивного БГШ всегда имеетместо следующее соотношение:( ())( (∂ 2 ln p ξ k g tk , λˆ k −1 ∂s tk , g tk , λˆ k −1≠−T∂λ k ∂λ kλ Tk))T( ( ∂s t , g t , λˆkkk −1−1 D n ,0 λ Tk)) .(11.6)В дисперсионном уравнении алгоритма (11.4) при этом появляется (посравнению с алгоритмом (11.3)) дополнительное слагаемое, содержащеенаблюдение.Учитывая соотношение (11.5) для приближенных квазиоптимальныхалгоритмов (11.3) и (11.4) и тот факт, что в данном курсе будутрассматриваться задачи, в которых модель наблюдения содержит толькоаддитивный БГШ, уравнения РФК можно записать также в следующем виде:()λˆ k = g tk , λˆ k −1 + Dλ ,kD−1λ ,k( ∂g t , λˆkk −1= λ Tk −1 ( ())∂ ln p ξ k g tk , λˆ k −1 ∂λ k) D( ∂g tk , λˆ k −1λ , k −1λ Tk −1( ( ∂s t , g t , λˆkkk −1+Tλk))T) T−1+ Dn , λ + .( ( ∂s t , g t , λˆkkk −1 D−1 n ,0Tλk(11.7))) В дальнейшем при рассмотрении алгоритмов первичной обработки мыбудем пользоваться уравнениями РФК в форме (11.3) или в форме (11.7).В самом общем виде структура алгоритма, описываемого уравнениями(11.3) (или (11.4)), может быть представлена в форме следящего алгоритма(рисунок 11.1):Dλ ,kλˆ kξk( ())∂ ln p ξ k g tk , λˆ k −1 ud =∂λ k((ɶλ k = g tk , λˆ k −1( (s tk , g tk , λˆ k −1)λˆ k = g tk , λˆ k −1 + Dλ ,k ⋅ u d)))Рисунок 11.1 – Структура следящего алгоритма11.1.
Алгоритмы с группированием наблюдений11.1.1. Квазислучайные процессыПрежде чем перейти к алгоритмам с группированием наблюденийнеобходимо привести краткие сведения о т.н. квазислучайных процессах,которые играют ключевую роль в алгоритмах с группированием наблюдений.Как правило, при синтезе алгоритмов фильтрации марковскихпроцессовоцениваемыйСПзадаётсяввидестохастическихдифференциальных уравнений:dλ= g ( t , λ ) + nλ ( t ) ;dtКвазислучайнымиdλ= A ⋅ λ ( t ) + nλ ( t ) .dtназываютпроцессы,(5.1)которыеполностьюопределяются заданием своего значения в некоторой точке (например, приt = t0 ). Это эквивалентно тому, что такой процесс удовлетворяет следующемудифференциальному уравнению:dλdλ= g ( t , λ ) или (для линейной модели)= A ⋅ λ (t ) .dtdt(5.2)То есть у квазислучайного процесса отсутствует формирующий шумn λ ( t ) в правой части.
Другими словами марковский квазислучайный процессимеет нулевой коэффициент диффузии N λ = 0 .Вдискретномвремениквазислучайныйпроцессописываетсясравнениями вида:λ k = g ( tk , λ k −1 ) или (для линейной модели) λ k = F ⋅ λ k −1 .(5.3)Замечательной особенностью квазислучайных процессов является то,что для них можно получить точное решение уравнения Стратоновича(например, для модели наблюдения сигнала на фоне аддитивного БГШ) вявном виде. Именно это и позволяет произвести техническое упрощение валгоритмах с группированием.Получим такое явное решение для линейной модели (5.3). Модельнаблюдения будет иметь вид:ξ k = s ( tk , λ k ) + nk .(5.4)Так как по условию задано значение процесса λ 0 при t = t0 , то значениеоцениваемого процесса в момент t = tk будет очевидно равно:λ k = F k ⋅ λ 0 = exp ( A ⋅ ( t − tk ) ) ⋅ λ 0(5.5)Представим модель наблюдения (5.4) в виде:ξ k = s ( tk , F k λ 0 ) + nk .(5.6)ФП наблюдения ξ k в модели (5.6) имеет вид:21p ξ k λ 0 = ck ⋅ exp −ξ k − s ( tk , F k λ 0 ) 2 Dn ,0()(5.7)Видно, что для каждого момента времени t = tk сигнал зависит отпостоянной случайной величины λ 0 .
Поэтому задача сводится к оценкепостоянной случайной величины λ 0 по наблюдению (5.6).Решение такой задачи (выражение для АПВp ( λ 0 ξ 0k ) на всеминтервале наблюдения [t0 ; tk ] ) из общих уравнений нелинейной фильтрациимарковских процессов Стратоновича даётся следующим выражением(предлагается вывести в качестве простого упражнения):p ( λ0 ξk0) = c%k(k)⋅ p pr ( λ 0 ) ⋅ ∏ p ξ q λ 0 =q =12 1= c%k ⋅ p pr ( λ 0 ) ⋅ ∏ exp −ξ q − s ( tq , F q λ 0 ) q =1 2 Dn ,0k(5.8)Для получения ПВ p ( λ k ξ 0k ) достаточно воспользоваться правиломпересчета ПВ при функциональном преобразовании:λ k = Fk ⋅ λ 0 → λ 0 = ( Fk ) ⋅ λ k = F−k ⋅ λ k .−1Тогда получаем:()()−1−1−1p ( λ k ξ ) = c%k ⋅ det ( F k ) ⋅ p pr ( F k ) λ k ⋅ ∏ p ξ q ( F k ) λ k =q =1k0k21= c%k ⋅ det F ⋅ p pr ( F λ k ) ⋅ ∏ exp −ξ q − s ( tq , F q − k λ k ) =q =1 2 Dn ,0= c%%k ⋅ det F − k ⋅ p pr ( F − k λ k ) ×−k−kk(5.9) 1 k1 kq −kq −kq −k∗∗ξ× exp −λFλFλst,Fst,st,()()()∑q q∑ qkkqk 2 Dn ,0 q =1 Dn ,0 q =111.1.2.
Алгоритм с группированием наблюденийИсходная идея алгоритма с группированием наблюдений заключается втом, чтобы формировать оценки процесса λ k с темпом меньшим, чем темппоступления наблюдений ξ l . Обозначим далее интервал формированияоценок через h = tk − tk −1 , а темп поступления наблюдений hd = tl − tl −1 . Такаяпостановка связана с тем, что в радиотехнических системах, как правило,большинство оцениваемых процессов протекают гораздо медленнее темпапоступления наблюдений.Существуют, по крайней мере, два варианта решения подобной задачи:1.
алгоритм калмановско-винеровская фильтрация;2. алгоритм с группированием наблюдений.Алгоритм калмановско-винеровской фильтрации является точнымрешением упомянутой выше задачи в рамках линейной фильтрации.Алгоритм с группированием наблюдений является приближеннымрешением именно задачи нелинейной фильтрации. Из чего следует болееширокаяобластьпримененияименноалгоритмасгруппированиемнаблюдений.Пусть необходимо оценить процесс λ 0 ( t ) , описываемый модельюаприорной динамикиdλ 0= g (t, λ 0 ) + nλ (t )dt(5.10)по наблюдениям вида:ξ ( t ) = s ( t , λ 0 ) + n0 .Для получения алгоритма с группированием наблюдений разобьём осьвремени на интервалы группирования [tk −1 , tk ) .
На каждом таком интервалеисходный фильтруемый процесс λ 0 ( t ) аппроксимируется квазислучайнымпроцессом λ ( t ) , совпадающим с процессом λ 0 ( t ) в некоторой точкеtk′ ∈ [tk −1 , tk ) (рисунок 5.1):λ ( tk′ ) = λ 0 ( tk′ ) = λ k ,и удовлетворяющего уравнению:dλ= f ( t , λ ) или при линейной аппроксимацииdtнепрерывном времени) ивремени).λ k = Fd ⋅ λ k −1 ,Fd = exp ( A d ⋅ h )dλ= Ad ⋅ λ (t )dt(в(в дискретномБудем тогда вместо задачи оценки исходного процессаλ0 (t )рассматривать задачу фильтрации аппроксимирующего процесса λ ( t )(рисунок 5.1).Далее заметим следующее. Так как квазислучайный процесс полностьюопределяется заданием в некоторой точке, то новый аппроксимирующийпроцесс λ ( t ) (который мы и хотим фильтровать!) полностью определяетсязаданием последовательности λ k = λ ( tk′ ) .
Характеристики
Тип файла PDF
PDF-формат наиболее широко используется для просмотра любого типа файлов на любом устройстве. В него можно сохранить документ, таблицы, презентацию, текст, чертежи, вычисления, графики и всё остальное, что можно показать на экране любого устройства. Именно его лучше всего использовать для печати.
Например, если Вам нужно распечатать чертёж из автокада, Вы сохраните чертёж на флешку, но будет ли автокад в пункте печати? А если будет, то нужная версия с нужными библиотеками? Именно для этого и нужен формат PDF - в нём точно будет показано верно вне зависимости от того, в какой программе создали PDF-файл и есть ли нужная программа для его просмотра.