_учебник_ Журавлев Ю.И. Распознавание. Математические методы. Программная система. Практические применения (2005) (1185318), страница 13
Текст из файла (страница 13)
Пусть - случайно выбранный объект таблицы обучения (будем называть его «опорный» эталон). В работе /77/ описан метод поиска множества логических закономерностей
класса
таких, что
. Поиск оптимального предиката
для опорного эталона
(т.е. значений параметров
) осуществляется сначала на некоторой неравномерной сетке пространства
, которая задается числом интервалов разбиения значений каждого признака (для некоторых признаков, например k-значных, в реальности число интервалов будет меньше заданного). После нахождения оптимального предиката
на заданной сетке, происходит поиск оптимального предиката
на более мелкой сетке, в окрестности ранее найденного
, и т.д. Процесс оптимизации заканчивается и задача поиска множества логических закономерностей, связанных с заданным опорным объектом считается решенной, если при переходе к более мелкой сетке не удается найти предикат
с более высоким значением критерия качества
.
Рис.19. Геометрическая интерпретация логической закономерности класса. Символами «звездочка» отмечены объекты класса, для которого вычисляются логические закономерностями, символами «круг» - эталонные объекты остальных классов
Задача поиска оптимального на каждой сетке состоит в поиске максимальной совместной подсистемы некоторой системы неравенств, при линейных ограничениях относительно бинарных переменных, и некоторого ее решения. Последняя задача сводится к решению аналогичной задачи относительно вещественных переменных, которая решается с помощью релаксационного метода /24, 46/. В конечном итоге задача поиска оптимального предиката
для опорного эталона
заканчивается вычислением множества локально оптимальных предикатов
со свойством
, причем конъюнкции (3.2) являются несократимыми (из них нельзя удалить какой-либо сомножитель).
Далее все вычисления повторяются для k случайно выбранных «опорных» эталонов класса , а все найденные логические закономерности объединяются в одно множество
. Значение параметра k определяется из соотношения
где g – параметр «уровень значимости» (0<g<1).
Результат работы алгоритма поиска логических закономерностей класса формулируется следующим образом: «В вычисленном множестве логических закономерностей
={
} класса
с вероятностью не менее g имеется логическая закономерность
, для которой
h ». Естественно, данный результат может быть получен при условии самого существования
, для которого
h.
Значение параметра k является важным фактором быстродействия программы. Например, при g=0.9 и h=0.1 из (3.3) следует k22. Значение k=22 вполне приемлемо для задач большой размерности.
ПРИМЕЧАНИЕ. Предположение h служит лишь для автоматической оценки и выбора параметра k. При работе программы здесь возможны три результата: вычисленное множество
={
} содержит
, для которого
h, вычисленное множество
={
} не содержит
, для которого
h, множество
={
} оказывается пусто. Последний вариант соответствует ситуации, когда логических закономерностей нет ни для одного из выбранных опорных объектов. В данном случае следует выбрать большее число интервалов (более мелкую сетку) и повторить запуск программы, или искать частичные закономерности.
Найденные логические закономерности класса могут быть «статистически значимыми» или нет. Для этого используется «перестановочный тест». Выполняется серия из следующих t однотипных расчетов (t – параметр «количество случайных перестановок»). Осуществляется случайная перестановка строк таблицы обучения, при этом, как и ранее, первые
строк новой таблицы
считаются эталонами первого класса, следующие по порядку
строк - эталонами второго класса, и т.д. (т.е. проводится случайное изменение номеров классов эталонных объектов с сохранением общего числа эталонов класса). Для таблиц
находятся наилучшие закономерности
с соответствующими оценками качества
. Тогда логическая закономерность
из множества
={
} считается статистически значимой, если из неравенств
, i=1,2,…,t, выполнено не менее чем 100*g% .
При обработке неполных данных возможно использование двух методов обработки прочерков (неизвестных значений признаков): «жадный подход» и «осторожный подход». При жадном подходе считается, что все пары значений признаков сравниваемых объектов, одно или оба из которых неизвестны, близки (если объекты одного класса) и далеки (если объекты из разных классов), в то время как при осторожном, соответственно, – далеки и близки. Такой «прямой» способ позволяет автоматически обрабатывать пропущенные значения и получать хорошие решения, не прибегая к дополнительной обработке и преобразованиям прочерков.
Найденные множества логических закономерностей используются для вычисления информационных весов признаков и синтеза логических описаний классов.
Информационным весом признака считается величина , где
- общее число логических закономерностей, в которые входит признак
, N – общее число логических закономерностей.
Оценки распознаваемых объектов за классы вычисляются следующим образом.
Пусть - логическая закономерность класса
. Считается, что логическая закономерность выполняется на объекте S и объект получает «голос» за класс
, если предикат
удовлетворяет условию 2) (условию 2 при работе с частичными закономерностями). Оценка S за класс
вычисляется как сумма числа голосов по всем закономерностям данного класса, деленная на общее число закономерностей класса. Классификация объекта проводится с помощью простейшего решающего правила.
Множества логических закономерностей задают логические описания классов , в качестве которых рассматриваются функции
, где дизъюнкции берутся по множествам
={
}. Данные функции принимают значение 1 только на эталонах «своего» класса и 0 на всех эталонах «чужих» классов. Они могут рассматриваться как приближения характеристических функций классов
.
Кратчайшим логическим описанием класса Kj назовем логическую сумму , суммирование в которой проводится по подмножеству множества
, содержащему минимальное число конъюнкций Pt(S), и совпадающей с функцией Dj(S) на эталонных объектах.
Минимальным логическим описанием класса Kj назовем логическую сумму , суммирование в которой проводится по подмножеству множества
, содержащую минимальное общее число символов x1(S),x2(S),...,xn(S) в своей записи, и совпадающей с функцией Dj(S) на эталонных объектах.
Логические (кратчайшие, минимальные) описания классов являются аналогами представлений частичных булевых функций в виде сокращенных дизъюнктивных нормальных форм (кратчайших, минимальных), а геометрические образы логических закономерностей классов - аналогами максимальных интервалов /25, 59/.
Если найдено множество логических закономерностей класса Kj, то кратчайшее и минимальное логические описания класса находятся как решения задач поиска покрытий множества эталонов класса соответствующими предикатам Pt(S) гиперпараллелепипедами.
Пусть ={ P1(S), P2(S),…, PN(S) }, причем для каждого эталона класса Kj существует хотя бы один предикат из
, выполняющийся на данном эталоне.
Рассмотрим задачу:
Тогда, при at =1 единичные компоненты решения задачи (3.4-3.5) определяют предикаты кратчайшего логического описания класса Kj , а при at , равных числу переменных в Pt(S), - предикаты минимального логического описания.
Исходные множества могут содержать равные или близкие элементы, мощность
может быть весьма велика (что однако является благоприятным в процедурах распознавания). Данные свойства множеств
существенно зависят от длины обучающей выборки и самого алгоритма их поиска. В то же время, кратчайшие и минимальные логические описания классов образуют уже неизбыточные подмножества
, выражающие как основные свойства данных множеств, так и свойства самих классов. Поэтому вычисление
и
может рассматриваться как один из подходов к проблеме сортировки логических закономерностей классов, а входящие в
и
предикаты - как наиболее компактные представления о классах, включающие как наиболее представительные знания (предикаты, покрывающие большое число эталонов), так и уникальные или редкие (предикаты, покрывающие малое число эталонов или отдельные из них).
Рис. 20. Визуализация множества | Рис. 21. Визуализация множества логических закономерностей кратчайшего описания класса Kj |
3.4. Метод статистически взвешенных синдромов
Метод статистически взвешенных синдромов (СВС) основан на использовании процедуры взвешенного голосования по системам так называемых “синдромов” /37, 70, 78/. Под синдромом мы в данном случае понимаем подобласть пространства прогностических признаков принадлежащую разбиению этого пространства, обладающему разделяющей способностью. Мы будем говорить, что разбиение признакового пространства обладает разделяющей способностью, если долевые содержания объектов одного из классов в различных его областях значительно отличаются друг от друга. В методе СВС используются только одномерные и двумерные синдромы. Под одномерным синдромом, задаваемым признаком , мы понимаем подобласть признакового пространства, для точек которой признак
удовлетворяет неравенствам
, где
,
вещественные граничные точки. Соответственно под двумерным синдромом, задаваемым признаками
и
, понимается подобласть векторов признакового пространства, для которой признак
удовлетворяет неравенствам
, а признак
удовлетворяет неравенствам
.
Одномерные синдромы в методе СВС ищутся для каждого из классов по исходной обучающей выборке с помощью стабильных одномерных разбиений областей допустимых значений каждого из признаков. Соответствующие двумерные синдромы задаются как всевозможные пересечения одномерных синдромов.