Трёхмерная реконструкция лица человека по его изображениям (1006006), страница 7
Текст из файла (страница 7)
Если наблюдаемые точкилокализуются в нескольких областях пространства, нужно позволитьэтим областям (и точкам в них) двигаться независимо. Поэтому какойлибо из , > 1 также должен отличаться от нуля. 2Если положить =, то ряд под интегралом сойдётся к функции!2(︂)︂(︂ 2)︂∞∞∑︁∑︁ ‖∇v‖2 21 2 ‖∇v‖22‖∇ v‖ == exp!2!22=0=048(гауссовскому ядру), которое удовлетворяет вышеприведённым требованиям, а также позволяет получить аналитические решения. Кроме того, утверждается, что использование целевой функции такого вида согласуется с тем,как работает биологическое зрение людей и животных. Потому оно и выбирается в качестве функции для регуляризатора.Аналитическое решение для такого регуляризатора равно линейной комбинации некоторого набора векторов a1 , .
. . , a(︂)︂∑︁−‖x − x ‖2aexpv(x) =222 2=1с весами, равными гауссовским плотностям распределений с центрами вточках, за которыми ведётся наблюдение.2EM-алгоритм. Пусть имеется выборка X = (x1 , . . . , x ), x ∈ R ,порождённая смесью гауссовских распределений с неизвестными (и вобщем случае различными) ковариационными матрицами 2 и средними y . Требуется оценить веса 1 , .
. . , , средние y1 , . . . , y и дисперсии212 , . . . , каждого из распределений в составе смеси.Составим из всех неизвестных параметров распределения вектор W:W = (1 , . . . , ; y1 , . . . , y ; 1 , . . . , )Зная его, для любой точки пространства x ∈ R можно вычислить плотность вероятности:(x) =∑︁ (x|)=1где (x|) — плотность -ой смеси, вычисляемая через y и :(︃)︃21‖x − y ‖(x |) =exp−22(2)/2 Определение 34 Произведение этих вероятностей для каждого элементавыборки называется функцией правдоподобия:(W; X) =∏︁=1(x ) = ∑︁∏︁=1 =1 (x |)49В статистике известен метод оценки неизвестных параметров распределения, когда отыскиваются такие параметры, которые максимизируют функцию правдоподобия на выборке: он называется методом максимальногоправдоподобия.
Будем искать оценку вектора W методом максимальногоправдоподобия:W* = arg max (W; X)WМаксимизация функции правдоподобия эквивалентна минимизации штрафной функции, равной её логарифму, взятому со знаком минус:(W) = − ln (W; X) = −∑︁ln ((x )) ==1=−∑︁=1ln(︃ ∑︁)︃ (x |)→ min=1PПредположим, у нас есть какой-то итерационный метод минимизацииэтой функции, и текущее приближение вектора параметров равно W0 .∑︁)︂(x)=(W) − (W0 ) = −ln 0(x)=1(︃ )︃∑︁∑︁ (x |)=−ln=0 (x )=1=1(︃)︃∑︁∑︁(x|)ln 0 (|x ) 0 0=−≤(x|)=1=1(︃)︃ ∑︁∑︁ (x |)≤− 0 (|x ) ln=0 0 (x|)=1 =1=− ∑︁∑︁(︂0 (|x ) ln ( (x |)) +=1 =1 ∑︁∑︁(︀)︀ 0 (|x ) ln 0 0 (x|) (1.1)=1 =1(В этих выкладках во втором равенстве учтено, что по определению условной вероятности (|x) = (x|)(x)50откуда(x) = (x|) (|x)а неравенство следует из выпуклости функции − ln(·), положительностикоэффициентов 0 и неравенства Иенсена.)Определение 35 Величина (|x ) называется апостериорной вероятностью -го распределения при наблюдении x .Равенство 1.1 можно записать так:(W) − (W0 ) ≤ (W0 , W) − (W0 , W0 )где(1)(2)(W , W ) = − ∑︁∑︁(1)(|x ) ln(︁)︁(2) (2) (x |)=1 =1Перенеся константу (W0 ) влево, получим для минимизируемой функции (W) оценку сверху(W) ≤ ((W0 , W) − (W0 , W0 )) + (W0 )Это означает, что если найдётся точка W, делающая скобку справа отрицательной, то переход от W0 к W уменьшит значение целевой функции.Для этого найдём минимум функции (W0 , W): это можно сделать аналитически методом множителей Лагранжа ([44], [41]).1 ∑︁ 0 = (|x ) =1∑︀ 0 (|x )xy = =1∑︀ 01 =1 (|x )‖y − x ‖2 = Таким образом, можно искать экстремум исходной функции итеративно, повторяя следующие два шага:а) (E-шаг: expectation, ожидание) используя текущий вектор параметровW, вычислить апостериорные вероятности распределений смеси:51 (x|) (|x) = ∑︀=1 (x|)а) (M-шаг: максимизация) пересчитать вектор параметров WВ этом и заключается EM-алгоритм.Жесткая и аффинная регистрации.
Пусть целевая модель теперь3задана набором из своих точек-вершин: = {x1 , . . . , x }, а модельшаблон — набором своих вершин = {y1 , . . . , y } (рёбра, соединяющиевершины, нам здесь не понадобятся).Посмотрим на целевую модель как на выборку, порождённую некой смесью гауссовских распределений с неизвестными центрами и равнымимежду собой ковариационными матрицами , где – неизвестный параметр. Раз и навсегда зафиксируем веса распределений в смеси (равнымимежду собой). Добавим к смеси ещё одно + 1-ое распределение — равномерное, объясняющее возможные в выборке выбросы. Сделаем его вес всмеси равным , тогда веса гауссовских распределений будут1− .Обозначим за W вектор неизвестных параметров распределений.Нам нужно найти такое преобразование X вершин шаблона, которое бымаксимизировало функцию правдоподобия (W; ) для вектора параметровW = (X(y1 ), .
. . , X(y ); ).За начальное приближение вектора W возьмёмW = (y1 , . . . , y ; 0 ).Используем для максимизации правдоподобия идею EM-алгоритма ибудем на каждом шаге искать минимум функции (X, ) = (W0 , W).Учтём, чему равна гауссовская плотность (x|):(X, ) = − ∑︁∑︁ 0 (|x ) ln ( (x |)) ==1 =11 ∑︁ ∑︁ 0P = 2 (|x )‖x − X(y )‖2 +ln 2 − 2 =1 =1252где P =∑︀ ∑︀=10=1 (|x ), а =∑︀ ∑︀=1=1 0(|x ) ln( ) – не зависитот W и поэтому при минимизации может быть отброшено.Рассмотрим сначала жесткую регистрацию: в таком случае X(x) = Rx+tи1 ∑︁ ∑︁ 0P (|x )‖x − Ry − t‖2 +ln 2(R, t, , ) = 22 =1 =12Чтобы получить аналитическое решение, авторы работы [10] доказывают следующее утверждение.Лемма 1 Пусть R — неизвестная матрица вращения размеров × , иA — известная вещественная матрица тех же размеров. Пусть UV— сингулярное разложение матрицы A.
Тогда решением задачиtr(A R) →maxR : R R=, det R=1является матрица R* = UCV , где C = diag(1, 1, . . . , 1, det(UV )).Теперь нужно привести функцию к виду tr(A R) для некоторой матрицы A.Введём обозначения: X(×) = (x1 , . . . , x ) , Y( ×) = (y1 , . . . , y ) ,(P) = (| ), 1 = (1, . . . , 1) ∈ R .Сначала аналитически найдём вектор t — решением уравненияt=0∑︀ ∑︀t==1=1 (|x )(x − Ry )=∑︀ ∑︀(|x)=1=1(︃ )︃ ∑︁∑︁∑︁∑︁1= (|x )x − R (|x )y =P =1 =1=1 =1=где)︀1 (︀(PX) 1 − R(P Y) 1 = x − RyP1(PX) 11y = E(Y) = (P Y) 1x = E(X) =53Обозначим x̃ = x − x и ỹ = y − y .
Подставим найденный вектор tв :1 ∑︁ ∑︁ 0P (|x )‖x̃ − Rỹ ‖2 +ln 2(R, , ) = 22 =1 =12Теперь перепишем штрафную функцию в матричной форме. Для этогоучтём, что ‖x − y‖2 = x x − 2x y + y y и RR = I. Рассмотрим толькоту часть , которая зависит от матрицы R: ∑︁∑︁ 0 (|x )‖x̃ − Rỹ ‖2 ==1 =1(︃ ∑︁∑︁==1)︃ 0 (|x ) x̃ x̃ + 2=1(︃ ∑︁∑︁=1− 2 ∑︁∑︁)︃ 0 (|x ) (Rỹ ) Rỹ −=1 0 (|x )x̃ Rỹ ==1 =1=∑︁x̃(︀P 1)︀x̃ + 2=1(︁∑︁ỹ(P1 ) ỹ − 22P x̃ Rỹ ==1 =1=1)︁ ∑︁∑︁(︁)︁(︁= tr X̃ diag(P 1 )X̃ + tr Ỹ diag(P1 )Ỹ − 2 tr X̃ P ỸR)︁Только последнее слагаемое зависит от R, и коэффициент перед нимотрицателен.
Положим A = X̃ P Ỹ и, применив лемму, найдём R:R = UCV , UV = (A)Оставшиеся неизвестные и находятся, как и t, приравниванием кнулю частных производных по ним:(︀)︀tr A R=tr(Ỹ diag(P1 )Ỹ)(︁)︁12 =tr X̃ diag(P 1 )X̃ − tr(A R)P Теперь можно применить итерационный процесс EM-алгоритма и найтиоптимальное преобразование:54а) (М-шаг) пересчитывается матрица (︁P:)︁‖x −(Ry +t)‖2exp −2 2)︁(︁(P) = (|x ) = ∑︀‖x −(Ry +t)‖21− (2 2 )/2 +exp−2=12а) (E-шаг) вычисляются P , x , y , R, , t, 2 .В работе [10] аналогичным методом исследован случай аффинной регистрации.4Нежесткая регистрация.
Теперь предположим, что X — произвольноепреобразование. Представим его в форме X(y) = y + v(y), где : R → R— смещение от исходного положения.Будем искать это смещение, минимизируя функцию (v, ) = (v, ) + (v)2где — регуляризатор следующего вида:|v̄(s)|2(v) =s(1.2)¯R (s)Символ v̄ обозначает Фурье-образ функции v, s – переменная в про¯ – симметричная и стремящаяся к нулю настранстве образов. Функция 1бесконечности. Смысл этой конструкции в том, что ¯ работает как “фильтрвысоких частот”, а интеграл измеряет “энергию” искомой функции “на вы∫︁соких частотах” . Предполагается, что чем меньше высокочастотных колебаний у функции, тем она более гладкая.В итоге штрафная функция для поиска нежесткой регистрации выглядиттак:1 ∑︁ ∑︁ 0 (v, ) = 2 (|x )‖x − y − v(y )‖2 +2 =1 =1P +ln 2 +2∫︁R|v̄(s)|2s¯(s)В работе [3] доказывается, что решение такой задачи минимизации естьсумма линейной комбинации некоторых векторов u1 , .
. . , u c коэффициентами, равными значениям функции в точках выборки, и какого-либо55вектора из нуль-пространства оператора :v(z) =∑︁u (z − y ) + (z)=1В статье [10] в роли выбрана плотность -мерного гауссовского распределения (0, 2 I), что делает штрафную функцию совпадающей с описанной в разделе 1:∞∑︁ 2‖∇ v‖2(v) =!2=0Таким образом, использование в качестве регуляризатора функционала 1.2делает движение вершин шаблона согласованным.Нуль-пространство оператора при гауссовском состоит из однойлишь нулевой функции, поэтому = 0.Векторы U = (u1 , . . .
, u ) находятся из системы линейных уравнений(G + 2 diag(P1 )−1 )U = diag(P1 )−1 PX − Y(1.3)где матрица G составлена из элементов(G) = (y − y ), , = 1, .Число находится из условия2 =1 ∑︁∑︁= 0: 0 (|x )‖x − y − v(y )‖2 =P =1 =1(︀ (︀ )︀(︀)︀(︀)︀)︀tr X diag(P 1 )X − 2 tr (PX) T + tr T diag(P1 )T=P Таким образом, шаги EM-алгоритма в данном случае выглядят так:а) (E-шаг) рассчитать матрицу P = ( (|x ))=1,:=1,(︁‖x −(y +G(,·)U)‖2− 22exp(︁)︁(P) = ∑︀‖x −(y +G(,·)U)‖2+=1 exp −2 2б) M-шаг:)︁1− (2 2 )/2 56- найти U, решив уравнение 1.3- найти P = 1 P1- найти новые координаты вершин шаблона: T = X(Y) = Y+GW- найти 2571.2.5Модели лица человекаОбщие методы реконструкции, применённые к такому своеобразому объекту, как человеческое лицо, дают неудовлетворительные результаты.