3 Метод опорных векторов (1162171)
Текст из файла
Лекция 3. МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]Метод опорныхвекторов длязадачирегрессии, [2]БеспризнаковоераспознаваниеобразовЛекция 3. Метод опорных векторовД. П. Ветров11Ю. И. Журавлев1МГУ, ВМиК, каф. ММПКурс «Математические основы теориипрогнозирования»План лекцииЛекция 3.
МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]Метод опорныхвекторов длязадачирегрессии, [2]Беспризнаковоераспознаваниеобразов1 Ликбез2 Метод опорных векторов для задачи классификации, [2]Метод потенциальных функцийСлучай линейно разделимых данныхСлучай линейно неразделимых данныхЯдровой переходЗаключительные замечания3 Метод опорных векторов для задачи регрессии, [2]4 Беспризнаковое распознавание образовОсновная методика беспризнакового распознавания образоПостроение функции, задающей скалярное произведениеЗадача условной оптимизацииЛекция 3.
МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]Метод опорныхвекторов длязадачирегрессии, [2]БеспризнаковоераспознаваниеобразовПусть f (x) : Rd → R — гладкая функция. Предположим, чтонам необходимо найти ее экстремум:f (x) → extrxДля того, чтобы найти экстремум (решить задачубезусловной оптимизации), достаточно проверить условиестационарности:∇f (x) = 0Предположим, что нам необходимо найти экстремумфункции при ограничениях:f (x) → extrxg(x) = 0Поверхность ограниченияЛекция 3.
МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]Метод опорныхвекторов длязадачирегрессии, [2]БеспризнаковоераспознаваниеобразовЗаметим, что ∇g(x) ортогонален поверхности ограниченияg(x) = 0. Пусть x и x + ε — две близкие точки поверхности.Тогдаg(x + ε) g(x) + εT ∇g(x)Т.к. g(x + ε) = g(x), то εT ∇g(x) 0. При стремленииε → 0 получаем εT ∇g(x) = 0. Т.к. ε параллеленповерхности g(x) = 0, то ∇g(x) является нормалью к этойповерхности.Функция ЛагранжаЛекция 3. МетодопорныхвекторовНеобходимым условием оптимальности являетсяортогональность ∇f (x) поверхности ограничения, т.е.:Ветров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]Метод опорныхвекторов длязадачирегрессии, [2]∇f + λ∇g = 0Здесь λ = 0 — коэффициент Лагранжа.
Он может бытьлюбого знака.Функция ЛагранжаБеспризнаковоераспознаваниеобразовL(x, λ) f (x) + λg(x)Тогда∇x L = 0∂L=0∂λ⇒ условие (1)⇒ g(x) = 0(1)Функция Лагранжа. Пример.x2Лекция 3. Методопорныхвекторов**(x 1,x 2)Ветров,Журавлевx1Ликбезg(x1,x2)=0Метод опорныхвекторов длязадачиклассификации,[2]Метод опорныхвекторов длязадачирегрессии, [2]f (x1 , x2 ) = 1 − x21 − x22 → maxx1 ,x2g(x1 , x2 ) = x1 + x2 − 1 = 0Функция Лагранжа:БеспризнаковоераспознаваниеобразовL(x, λ) = 1 − x21 − x22 + λ(x1 + x2 − 1)Условия стационарности:− 2x1 + λ = 0− 2x2 + λ = 0x1 + x2 − 1 = 0Решение:(x∗1 , x∗2 )=( 12 , 12 ),λ = 1.Ограничение в виде неравенстваЛекция 3.
Методопорныхвекторовf (x) → maxВетров,Журавлевxg(x) ≥ 0ЛикбезМетод опорныхвекторов длязадачиклассификации,[2]Метод опорныхвекторов длязадачирегрессии, [2]БеспризнаковоераспознаваниеобразовРешениеОграничениеВнутриобластиg(x) > 0На границе g(x) = 0неактивноактивноУсловие дополняющей нежесткости:λg(x) = 0Условиестационарности∇f (x) = 0, ∇x L =0, λ = 0∇f (x) = −λ∇g(x),∇x,λ L = 0, λ > 0Теорема Каруша-Куна-ТаккераЛекция 3. МетодопорныхвекторовВетров,ЖуравлевПусть fi : X → R, i = 0, 1, . .
. , m — выпуклые функции, отображающиенормированное пространство X в прямую, A ∈ X — выпуклое множество.Рассмотрим следующую задачу оптимизации:f0 (x) → min;ЛикбезМетод опорныхвекторов длязадачиклассификации,[2]Метод опорныхвекторов длязадачирегрессии, [2]Беспризнаковоераспознаваниеобразовfi (x) ≤ 0, i = 1, . . .
, m, x ∈ A(2)Теорема1. Если x̂ ∈ absmin (2) — решение задачи, то найдется ненулевой вектормножителей Лагранжа λ ∈ Rm+1 такой, что для функции ЛагранжаmL(x) =i=0 λi fi (x) выполняются условия:a) стационарности minx∈A L(x) = L(x̂)b) дополняющей нежесткости λi fi (x̂) = 0, i = 1, . . . , mc) неотрицательности λi ≥ 02. Если для допустимой точки x̂ выполняются условия a)–c) и λ0 = 0, тоx̂ ∈ absmin (2)3.
Если для допустимой точки x̂ выполняются условия a)–c) и∃x̃ ∈ A : fi (x̃) < 0, i = 0, . . . , m (условие Слейтера), то x̂ ∈ absmin (2)Задача классификацииЛекция 3. МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]МетодпотенциальныхфункцийСлучай линейноразделимыхданныхСлучай линейнонеразделимыхданныхЯдровой переходЗаключительныезамечанияМетод опорныхвекторов длязадачирегрессии, [2]Беспризнаковоераспознаваниеобразов• Рассматривается задача классификации на два класса.Имеется обучающая выборка (X, t) = {xi , ti }ni=1 , гдеx ∈ Rd , а метка класса t ∈ T = {−1, 1}.• Необходимо с использованием обучающей выборкипостроить отображение A : Rd → T , которое длякаждого нового входного объекта x∗ выдает его меткукласса t∗ .План лекцииЛекция 3.
МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]МетодпотенциальныхфункцийСлучай линейноразделимыхданныхСлучай линейнонеразделимыхданныхЯдровой переходЗаключительныезамечанияМетод опорныхвекторов длязадачирегрессии, [2]Беспризнаковоераспознаваниеобразов1 Ликбез2 Метод опорных векторов для задачи классификации, [2]Метод потенциальных функцийСлучай линейно разделимых данныхСлучай линейно неразделимых данныхЯдровой переходЗаключительные замечания3 Метод опорных векторов для задачи регрессии, [2]4 Беспризнаковое распознавание образовОсновная методика беспризнакового распознавания образоПостроение функции, задающей скалярное произведениеМетод потенциальных функций, [1]Лекция 3.
МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]МетодпотенциальныхфункцийСлучай линейноразделимыхданныхСлучай линейнонеразделимыхданныхЯдровой переходЗаключительныезамечанияМетод опорныхвекторов длязадачирегрессии, [2]БеспризнаковоераспознаваниеобразовВ каждом объекте xi помещен электрический заряд ti qi . Вкачестве разделяющей функции используется потенциалсоздаваемого поля:nf (x) =ti qi K(x, xi )i=1Алгоритм обучения:⎧⎨ f (x) + K(x, xk ), если tk = 1 и f (xk ) ≤ 0f (x) − K(x, xk ), если tk = −1 и f (xk ) ≥ 0f new (x) =⎩f (x),иначеПлан лекцииЛекция 3.
МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]МетодпотенциальныхфункцийСлучай линейноразделимыхданныхСлучай линейнонеразделимыхданныхЯдровой переходЗаключительныезамечанияМетод опорныхвекторов длязадачирегрессии, [2]Беспризнаковоераспознаваниеобразов1 Ликбез2 Метод опорных векторов для задачи классификации, [2]Метод потенциальных функцийСлучай линейно разделимых данныхСлучай линейно неразделимых данныхЯдровой переходЗаключительные замечания3 Метод опорных векторов для задачи регрессии, [2]4 Беспризнаковое распознавание образовОсновная методика беспризнакового распознавания образоПостроение функции, задающей скалярное произведениеРазделяющая гиперплоскостьЛекция 3. Методопорныхвекторов<z,x>+b=0Ветров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]МетодпотенциальныхфункцийСлучай линейноразделимыхданныхСлучай линейнонеразделимыхданныхЯдровой переходЗаключительныезамечанияМетод опорныхвекторов длязадачирегрессии, [2]Беспризнаковоераспознаваниеобразовz0• Гиперплоскость задается направляющим векторомгиперплоскости z и величиной сдвига b:{x ∈ Rd |z, x + b = 0}, z ∈ Rd , b ∈ R• Если вектор z имеет единичную длину, то величинаz, x определяет длину проекции вектора x нанаправляющий вектор z.
В случае произвольной длиныскалярное произведение нормируется на z.Каноническая гиперплоскостьЛекция 3. МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]МетодпотенциальныхфункцийСлучай линейноразделимыхданныхСлучай линейнонеразделимыхданныхЯдровой переходЗаключительныезамечанияМетод опорныхвекторов длязадачирегрессии, [2]Беспризнаковоераспознаваниеобразов• Если величину направляющего вектора z и величинусдвига b умножить на одно и то же число, тосоответствующая им гиперплоскость не изменится.• Пара (z, b) задает каноническую гиперплоскость длянабора объектов x1 , . . .
, xn ∈ Rd , еслиmin |z, xi + b| = 1i=1,...,n(3)• Условие (3) означает, что ближайший вектор кканонической гиперплоскости находится от нее нарасстоянии 1/z:xi : |z, xi + b| = 1, x : z, x + b = 0 z1, xi − x =|z, xi − x| = 1 ⇒ zz• Каноническая гиперплоскость определена однозначно сточностью до знака z и bКлассификаторЛекция 3. МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]МетодпотенциальныхфункцийСлучай линейноразделимыхданныхСлучай линейнонеразделимыхданныхЯдровой переходЗаключительныезамечанияМетод опорныхвекторов длязадачирегрессии, [2]Беспризнаковоераспознаваниеобразов• Будем искать классификатор в виде разделяющейгиперплоскости:t̂(x) = sign(y(x)) = sign(z, x + b)• Предположим, что исходные данные являются линейноразделимыми, т.е.∃(z, b) : t̂(xi ) = ti ∀i = 1, .
. . , nОптимальная разделяющая гиперплоскостьЛекция 3. МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]МетодпотенциальныхфункцийСлучай линейноразделимыхданныхСлучай линейнонеразделимыхданныхЯдровой переходЗаключительныезамечанияМетод опорныхвекторов длязадачирегрессии, [2]Беспризнаковоераспознаваниеобразов• Зазором гиперплоскости данной точки (x, t) называетсявеличина:ρ(z,b) (x, t) =t(z, x + b)zЗазором гиперплоскости называется величина:ρ(z,b) = min ρ(z,b) (xi , ti )i=1,...,n• Для корректно распознаваемого объекта его величиназазора соответствует расстоянию от этого объекта догиперплоскости. Отрицательная величина зазорасоответствует об ошибочной классификации объекта.• Оптимальная разделяющая гиперплоскость —гиперплоскость с максимальной величиной зазораОптимальная разделяющая гиперплоскость.Пример 1.Лекция 3. МетодопорныхвекторовВетров,ЖуравлевЛикбезМетод опорныхвекторов длязадачиклассификации,[2]МетодпотенциальныхфункцийСлучай линейноразделимыхданныхСлучай линейнонеразделимыхданныхЯдровой переходЗаключительныезамечанияМетод опорныхвекторов длязадачирегрессии, [2]Беспризнаковоераспознаваниеобразов• Предположим, что все объекты тестовой выборкиполучены путем небольших смещений относительнообучающих объектов, т.е.
Характеристики
Тип файла PDF
PDF-формат наиболее широко используется для просмотра любого типа файлов на любом устройстве. В него можно сохранить документ, таблицы, презентацию, текст, чертежи, вычисления, графики и всё остальное, что можно показать на экране любого устройства. Именно его лучше всего использовать для печати.
Например, если Вам нужно распечатать чертёж из автокада, Вы сохраните чертёж на флешку, но будет ли автокад в пункте печати? А если будет, то нужная версия с нужными библиотеками? Именно для этого и нужен формат PDF - в нём точно будет показано верно вне зависимости от того, в какой программе создали PDF-файл и есть ли нужная программа для его просмотра.