Лекция 5 (1185270), страница 2
Текст из файла (страница 2)
Данная оценка близости формируется наоснове введённых ранее функций близости и, возможно,дополнительных параметровАлгоритмы вычисления оценока)ω (S* , S ) ω (S* , S )б) ω (S* , S ) pωω (S*, S ), где pω - параметр, характеризующийинформативность опорного множества с характеристическимвектором ω .nВ)ω ( S* , S ) ( p j j )ω ( S* , S ) , где - параметр,j 1характеризующий информативность эталонного объекта S ,параметры ( p1, , pn ) характеризуют информативностьотдельных признаков.Алгоритмы вычисления оценокОценка объекта S* за класс K j по заданной ω - части.j1Функция Γω ( S* , K j ) miω( S* , S ) является оценкой близостиSK jраспознаваемого объекта к классу K j по опорномумножеству, характеризуемому бинарным вектором ω .Оценка объекта S* за класс K j .
Данная функция вычисляетсуммарную степень близости распознаваемого объектаS* к классу K j . Приведём обычно используемые выражения:a)Γ j ( S* , K j ) jΓ ω (S*, K j )ω A(1)Алгоритмы вычисления оценокjб) Γ ( S* , K j ) v jω AΓωj ( S* , K j ), где – “вес” классаKjПараметр v j позволяют регулировать точность распознаванияПрямое вычисление оценок за классы по формуле (1) в случаях,K j когда в качестве систем опорных множеств используютсянаборысфиксированнымчисломвсевозможные наборы признаков,невозможнымприскольлибопризнаковилиоказывается практическивысокойразмерностипризнакового пространства из-за необходимости вычисленияогромного числа значений функций близости.Алгоритмы вычисления оценокОднако при равенстве весов всех признаков существуютэффективные формулы для вычисления оценок поформуле(1).Предположим,чтооценкираспознаваемого объекта S* к эталону S ω - части вычисляются по формуле (а).Тогда оценка по формуле (1) принимает видΓ j ( S* , K j ) m1i SK j ω Aω( S* , S )близостипо заданнойАлгоритмы вычисления оценокРассмотрим суммуω Aω( S* , S ) .
Предположим, что общее числопризнаков, по которым объект S* близок к объекту S равноd(S* , S ) .Иными словамиd(S* , S ) | D(S* , S ) | , гдеD(S* , S ) {t :| x*t xt | t } . Очевидно функция близости ω (S* , S ) 1тогда и только тогда, когда опорное множество, задаваемоехарактеристическим вектором ω , полностью входит вмножество D(S* , S ) . Во всех остальных случаях ω (S* , S ) 0 .Алгоритмы вычисления оценокПредположим, что система опорных множеств удовлетворяетусловию A {ω : | ω | k} . Очевидно, что число опорныхмножеств в A , удовлетворяющих условию ω (S* , S ) 1 , равноCdk( S* ,S ) .
Откуда следует, чтоk(S,S)C ω * d( S* ,S ) . Следовательноω Aоценка по формуле (1) может быть записана в видеΓ j ( S* , K j ) m1ikC d( S* ,S )SK jАлгоритмы вычисления оценокПредположим, что система A включает в себя всевозможныеопорные множества. В этом случае число опорных множеств вd ( S ,S ) A , удовлетворяющих условию ω (S* , S ) 1 , равно 2 * 1. Следовательно оценка по формуле (1) может быть записана ввиде.Γ ( S* , K j ) j1mi [2d ( S* , S )SK j 1]Алгоритмы вычисления оценокДля обучения алгоритмов АВО в общем случае может бытьиспользован тот же самый подход, который используетсядля обучения в методе «Линейная машина».Предположим, что решается задача обучения алгоритмовдля распознавания объектов , принадлежащих классам K1, , K LПри правильного распознавания объектавыполняться система неравенствΓ j (Si ) Γ j ( Si ),гдеj {1, , L} \ jSi K j должнаАлгоритмы вычисления оценокВ наиболее общем из приведённых выше вариантовмодели АВО обучение может быть сведено к поискумаксимальной совместной подсистемы системынеравенств Si K j Stnn11 ( ptt )ω ( Si , S ) ( ptt )ω ( Si , S ) (2)m j S K jm j S K j t 1t 1j {1, , L} \ jАлгоритмы вычисления оценок• Поиск максимальной совместной подсистемы системы(2) может производиться с использованиемэвристического релаксационного метода, аналогичноготому, что был использован при обучении алгоритма«Линейная машина»..