Раздел №11. Алгоритмы первичной обработки в двухэтапной НАП (1151967), страница 2
Текст из файла (страница 2)
Одновременно с этим решение дляАПВ квазислучайного процесса λ ( t ) на каждом интервале [tk −1 , tk ) можнополучить аналитически. Именно это и позволяет в итоге упростить решениезадачи фильтрации.λ (t )λ0 ( t )ttk −1tk′tk +1tkРисунок 5.1Полнуюошибкуоценкиисходногопроцессаλ0 (t )вмодифицированной задаче (фильтрация процесса λ ( t ) , аппроксимирующегоλ 0 ( t ) ) можно разбить на две составляющие:1. ошибкафильтрацииаппроксимирующегопроцессаλ (t ) :ε1 ( t ) = λˆ ( t ) − λ ( t ) ;2.
ошибка аппроксимации: ε 2 ( t ) = λ ( t ) − λ 0 ( t ) .Функция f ( t , λ ) , моменты времени tk′ ∈ [tk −1 , tk ) , а также длительностьинтерваловh = tk − tk −1выбирают так, чтобы обеспечить приемлемыезначения ошибки аппроксимации ε 2 ( t ) .Минимизация же первой ошибки ε1 ( t ) обеспечивается применениемметодов теории оптимальной фильтрации марковского процесса λ ( t ) .Обозначим через pk ( t , λ ) АПВ процесса λ ( t ) на интервале [tk −1 , tk ) .Тогда, учитывая результат (5.9) можно записать:pk ( t , λ ) = c%k ⋅ det Fd− L ⋅ pk ( λ k ξ 0k −1 ) ⋅ exp { I k ( λ k ) − Ek ( λ k )} ,1 LIk ( λ k ) =ξ k −1,l s∗ ( tk −1,l , Fdl − L λ k )∑Dn ,0 l =1(этоиесть(5.11)корреляционныйинтеграл в алгоритме с группированием наблюдений),Ek ( λ k ) =1 Ls ( tk −1,l , Fdl − L λ k ) s∗ ( tk −1,l , Fdl − L λ k ) .∑2 Dn,0 l =1Причем pk ( λ k ξ 0k −1 ) – экстраполированная ПВ по наблюдениям напредыдущих интервалах – определяется как:pk ( λ k ξ 0k −1 ) =∫ p(λk −1ξ 0k −1 ) p ( λ k λ k −1 ) dλ k −1 ,(5.12)λ k −1где p ( λ k λ k −1 ) – условная ПВ, определяемая моделью динамики процессаλ 0 ( t ) (5.10).В непрерывном времени выражение для корреляционного интегралаI k ( λ k ) в алгоритме с группированием наблюдений будет иметь вид:2Ik ( λ k ) =N0tk∫ ξ ( t ) ⋅s ( t , exp ( A ( t − t′ ) ) ⋅ λ ) dt .∗dkktk −1В рамках локальной гауссовской аппроксимации (например, РФК)алгоритм с группированием наблюдений будет иметь вид:λ ( t ) = exp ( A d ( t − tk′ ) ) ⋅ λ k , t ∈ [tk −1 , tk ) ,Dλˆ k = λɶ k + λ−,1kDn,0D−1λ ,k∑ H ( λɶ ) ⋅ (ξLTk ,ll =1k ,l(− s tk −1,l , λɶ k ,l)) ,( ) ( )1 L T ɶ−1ɶ= Dλ ,k +H λ k ,l ⋅ H λɶ k ,l∑Dn,0 l =1,(5.13)ɶ = F D FT + DDλ ,khλ , k −1 hn ,λλɶ k = Fh ⋅ λˆ k −1 , λɶ k ,l = Fdl − L λɶ k ,( )H λ% k ,l =(∂s tk −1,l , λ% k ,lλT).Из выражения для коррелятора видно, что в корреляторt полученногоалгоритма фильтрации в опорном сигнале подставляются оценки РНПсигнала, которые изменяются внутри интервала группирования h всоответствие с моделью аппроксимирующего квазислучайного процесса(указанная модель динамики задаётся матрицами A d и Fd ).На практике в навигационных приемниках в качестве модели динамикиаппроксимирующих квазислучайных процессов выбирают:− для фазы несущей – линейную модель вида: ϕ%k ,l = ϕ%k ,l −1 + hd ⋅ f k −1 ;− для задержки кода – модель постоянной величины (ступенчатаяаппроксимация).Указанная модель для задержки кода допустима в силу медленностиизменения задержки на интервалах группирования 1…20 мс (именно такиедлительности интервалов h используются в большинстве существующихНАП).Как уже говорилось выше, синтез алгоритма в соответствии суравнениями (11.3) (или (11.4)) со структурой согласно рисунку 11.1 можноразделить на две независимые процедуры: синтез дискриминатора и синтезсглаживающего фильтра.Процедура синтеза дискриминатора содержит следующие шаги:1.
определение модели сигнала (данный шаг тесно связан сопределением состава оцениваемых параметров и соответственнооцениваемого вектора состояния λ k );2. определение модели помехи и её характеристик;3. определение и запись функции (функционала) правдоподобияp (ξk λk ) ;4. наоснованиинайденноговыражениядляФПp (ξk λk )определение вида (выражения) для дискриминатора u d (в общемслучае векторного) по компонентам вектора состояния λ k ;5.
определение характеристик дискриминатора: дискриминационнаяхарактеристика, флуктуационная характеристика.Приведем простой пример.Пусть модель наблюдения имеет вид:ξ k = A ⋅ s ( tk , λ k ) + n0,k ,гдеA– известная амплитуда сигнала;n0– аддитивный БГШ синтенсивностью N 0 .Тогда функции правдоподобия p ( ξ k λ k ) и её логарифм: 12p (ξ k λ k ) ∼ exp − (ξ k − A ⋅ s ( tk , λ k ) ) N021ln p (ξ k λ k ) ∼ − (ξ k − A ⋅ s ( tk , λ k ) ) =N0=−.1 2ξ k − 2 A ⋅ ξ k s ( t k , λ k ) + A2 ⋅ s 2 ( t k , λ k ) )(N0Пусть далее модель сигнала и вектор состояния имеют соответственновид:A ⋅ s ( tk , λ k ) = A ⋅ cos (ω0tk + ϕ k ) и λ k = ϕ k .Тогда выражение для дискриминатора имеет вид:∂ ln p (ξ ϕ ) 2∂ 1∼ − (ξ − A ⋅ cos (ω0t + ϕ ) ) =∂ϕ∂ϕ N 0=−2Asin (ω0t + ϕ ) ⋅ (ξ − A ⋅ cos (ω0t + ϕ ) ) =N0.2A2 A2=−sin (ω0t + ϕ ) ξ +sin (ω0t + ϕ ) cos (ω0t + ϕ )N0N0В случае если используется накопление в корреляторе (группированиеотсчетов) на интервале h, то:h 2A2 A2ud = ∫ −sin (ω0t + ϕ ) ξ dt + ∫sin (ω0t + ϕ ) cos (ω0t + ϕ ) dt ≃NN0 o00.h 2A2A h≃ ∫ −sin (ω0t + ϕ ) ξ dt = −sin (ω0t + ϕ ) ξ dt = −Q∫NN0 00 0hПроцедура синтеза сглаживающего фильтра состоит обычно изследующих этапов:(1.
определение матрицы экстраполяции Fk (или функции g tk , λˆ k −1)для нелинейной модели) в уравнении вектора λ k ;2. определениепараметровформирующихшумоввмоделидинамики – ковариационной матрицы шумов Dn ,λ ;3. определение ковариационной матрицы шумов наблюдения Dn ,0(необходима для расчета ковариационной матрицы оценок ирасчета коэффициентов усиления в сглаживающем фильтре).Во многих задачах (в том числе в тех, которые будут рассматриваться в()дальнейшем) функция g tk , λˆ k −1 , определяющая детерминированную частьаприорной динамики ВС λ k , является линейной и представляет из себяматрицу–матрицыэкстраполяцииF.Дляопределенияматрицыэкстраполяции F (или фундаментальной матрицы перехода в дискретномвремени) и ковариационной матрицы шумов Dn ,λ можно использовать дваподхода:− определить (задать) матрицы F и Dn ,λ сразу в дискретномвремени;− сначала определяются (задаются) матрицы A (фундаментальнаяматрицапереходасоответствующиевнепрерывномпараметраммоделивремени)динамикииN n ,λ ,ВСвнепрерывном времени, которые затем пересчитываются вматрицы F и Dn ,λ , соответствующие модели ВС дискретномвремени.При синтезе алгоритмов оба подхода, так или иначе, используютсяразработчиками.Однако с некоторых позиций второй подход (модель в непрерывномвремени→ модель в дискретном времени) представляется несколько болееаккуратным.
Одним из аргументов в пользу этого утверждения можетслужить тот факт, что исходно все физические процессы, участвующие приописании модели ВС, протекают и описываются в непрерывном времени.Учитывая сказанное, поговорим чуть более подробно именно про второйподход (приведенный далее материал более подробно изложен в [1, раздел3.10]).В этом случае задача разбивается на две:1. определение матриц A и N n ,λ (т.е. описание модели ВС внепрерывном времени);2. пересчет матриц A и N n ,λ в матрицы F и Dn ,λ (т.е. получениемодели ВС в дискретном времени).Пересчет матриц A и N n ,λ в матрицы F и Dn ,λ осуществляетсяследующим образом.Матрицы A и F связаны следующим соотношением:F = exp ( h ⋅ A ) .(11.8)где h – шаг (по времени) обработки в дискретном алгоритме.Функция exp ( • ) в выражении (11.8) понимается как матричнаяэкспонента.Матрицы N n ,λ и Dn ,λ связаны следующим выражением:hDn ,λ = ∫ exp ( Aτ ) N n ,λ exp ( ATτ ) dτ .(11.9)0Функция exp ( • ) в выражении (11.9) также понимается как матричнаяэкспонента.При практическом использовании формулы (11.9) для расчета матрицыDn ,λ часто используют следующее представление для матричной экспоненты(собственно в теории матриц это и есть определение матричной экспоненты):∞Akexp ( A ) = ∑.k =0 k !(11.10)По аналогии с рядом Тейлора для скалярных функций, ряд (11.10)соответствует разложению в окрестности нулевой матрицыДля вычисления интеграла (11.9) в силу малости интервала h можно вразложении (11.10) ограничиться первыми двумя членами ряда:exp ( A ) ≈ A 0 + A = A1A −1 + A = I + A ,(11.11)где I – единичная матрица соответствующего размера.В качестве примеров приведем наиболее часто используемые модели внепрерывном времени и соответствующие матрицы в дискретном времени.Пример 1.Пусть ВС λ = α ; αɺ = nα .
nα – БГШ.Тогда n λ = nα ; M {n λ ⋅ nTλ } = N λ = Nα .В этом случае матрица A = 0 и из выражения (11.9) непосредственноследует, что Dn ,λ = Nα ⋅ h .Пример 2.Пусть ВС λ = [αβ ] ; αɺ = β , βɺ = nβ . nβ – БГШ.T0 0 TТогда n λ = 0 nβ ; M {n λ ⋅ nTλ } = N λ = .0NβВ этом случае матрица0 1 A=0 0 и из выражения (11.19) с использованием (11.11) следует, чтоDn , λh2 3 h 2= Nβ ⋅ h ⋅ .h21Матрица экстраполяции в данном примере будет иметь вид: 0 1 1 h F = exp ( h ⋅ A ) = exp h ⋅ = 0 1 .00 Пример 3.Пусть ВС λ = [αβ γ ] ; αɺ = β , βɺ = γTγɺ = nγ . nγ – БГШ.0 0 0 Тогда n λ = 0 0 nγ ; M {n λ ⋅ n } = N λ = 0 0 0 .0 0 N γ TTλ0 1 0 В этом случае матрица A = 0 0 1 0 0 0 и из выражения (11.9) с использованием (11.11) следует, чтоDn , λ h 4 20 h3 8 h 2 6 = Nγ ⋅ h ⋅ h3 8 h 2 3 h 2 . h 2 6 h 21 Пример 4.Пусть ВС λ = [αβ γ] .TМодель ВС теперь будет иметь вид:αɺ = β ;βɺ = γ + nβ ;γɺ = nγ ;где nγ и nβ – независимые формирующие БГШ.Тогда n λ = 0 nβ0 0nγ ; M {n λ ⋅ n } = N λ = 0 N β0 0TTλ00 .N γ 0 1 0 В этом случае матрица A = 0 0 1 (совпадает с примером 3).0 0 0 Для нахождения матрицы Dn ,λ представим матрицу N λ в виде суммыдвух матриц:0 0N λ = 0 N β0 00 0 0 0 0 + 0 0 0 .0 0 0 Nγ (11.12)Далее заметим, что под интегралом в (11.9) стоит матричноевыражение вида A ⋅ B ⋅ AT .
В силу свойств операций в матричной алгебреимеет место следующееA ⋅ ( B + C ) ⋅ AT = A ⋅ B ⋅ AT + A ⋅ C ⋅ AT . Тогда изпредставления (11.12) следует, что матрица Dn ,λ находится как сумма двухматриц соответствующих матрицам в (11.12), т.е. задача свелась к задачамрассмотренных в примерах 2 и 3.
Таким образом, в данном примере матрицаDn ,λ будет иметь вид:Dn , λ h2 3 h 2 0 h 4 20 h3 8 h 2 6 = Nβ ⋅ h ⋅ h 21 0 + Nγ ⋅ h ⋅ h3 8 h 2 3 h 2 . 0 h 2 6 h 20 0 1 .