135844 (722683), страница 8
Текст из файла (страница 8)
di (X) = X/ Zi - 1/2 Zi/ Zi, i = 1,2,...,M,
где образ Х относится к классу Wi, если условие di (X) > dj (X) справедливо для всех j i.
Пример:
z1 . . . z5
z1/ = ( 1 2 6 3 1 ) z2/ = ( 6 4 3 2 1 )
x/ = ( 1 3 5 2 1 )
d1(x) = ( 1 3 5 2 1 ) -1/2 ( 1 2 6 3 1 ) = ( 1+6+30+6+1 ) - 1/2 ( 1+4+36+9+1 ) =
= 44 - 1/2 51 = 18.5;
d2(x) = (6+12+15+4+1) - 1/2 (36+16+9+4+1) = 38 - 1/2 66 =5
d1(x) > d2(x) , поэтому образ х принадлежит первому классу.
Меры сходства не исчерпываются расстояниями. В качестве примера можно привести не метрическую функцию сходства
z x/
s(x,z) = -----------,
|| x || || z ||
представляющую собой косинус угла, образованного векторами X и Z. Этой мерой целесообразно пользоваться, когда кластеры располагаются вдоль главных осей или растянуты вдоль лучей, направленных от начала координат.
Однако использование данной меры связано с определенными ограничениями: достаточное отстояние кластеров друг от друга и от начала координат.
Для двоичных признаков (признаки принимают значения либо `` 0`` либо ``1``) может использоваться мера Танимото
z x/
s(x,z) = ------------------- .
x/ x + z/ z - x/ z
Перечисленные меры близости не учитывают корреляционные связи между признаками. Устранить этот недостаток позволяет критерий известный по названием расстояние Махаланобиса, определяемое для образов x и m как
d = ( x - m ) / с -1 ( x - m ),
где c - ковариационная матрица совокупности образов, m - вектор средних значений, а х - представляет образ с переменными характеристиками(классифицируемый образ).
-
ЛОГИЧЕСКИЕ МЕТОДЫ
Объекты классов и реализация представляются в виде булевых функций:
Ωi = fi (x1, . . . , xn) , i = 1, . . . ,k
и G = (x1 , . . . , xn).
Заданы правила использования булевых функций при распознавании:
W = (w1 , . . . , wn).
Процедура распознавания состоит в определении неизвестной функции
F(Ω1 , . . . ,Ωk),удовлетворяющей уравнению
_
G (x1,. . . , xn ) + F(Ω1 , . . . , Ωk)= I, (1)
Где F - совокупность булевых функций априорного описания.
Пример:
F(Ω1) = x1x2+x3 или 110 + 001
Ωi = f1i + f2i
F(Ω2) = x1x3+x2 или 101 + 010
Правило классификации:
_ _
G ЄΩi, если G + f1 = I или G + f2 = I .
_
Пусть G = x1 x2 или 110 ( G = 001).
Найти F такую, чтобы выполнялось равенство 1.
_
G + f1 = 001 + 110 = 111 = I
Ω1 : _
G + f2 = 001 + 001 = 001 I
_
G + f1 = 001 + 101 = 101 I
Ω:2: _
G + f2 = 001 + 010 = 011 I
Вывод: G принадлежит Ω1.
-
СТРУКТУРНЫЕ МЕТОДЫ
При структурном подходе к распознаванию признаками служат образы, называемые непроизводными элементами, а также отношения между ними, характеризующие структуру образа.
Для описания образов через непроизводные элементы и их отношения специальный язык образов.
Правила такого языка, позволяющие составлять образы из непроизводных элементов, называется порождающей грамматикой.
Пример:
Заданы непроизводные элементы:
в d
а с
и правило объединения: головная часть присоединяется к хвостовой по прямым углом и записывается, например, ав, т.е.
в
а
Фигура будет иметь следующую грамматическую структуру: авсd.
В основе процедур(алгоритмов) распознавания лежат правила грамматического разбора.
-
ВЕРОЯТНОСТНЫЕ МЕТОДЫ
Статистический подход основывается на математических правилах классификации, которые формулируются и выводятся в терминах математической статистики.
Пример. Пусть совокупность объектов подразделена на два класса -Ω1 и Ω2, а для характеристики объектов используется один признак х. Известны описания классов - условные плотности распределения вероятностей значений признака объектов 1-го и 2-го классов, т.е. функции f1(x) и f2(x), а также априорные вероятности появления объектов 1-го и 2-го классов: р(Ω1) и р(Ω2).
В результате эксперимента определено значение признака распознаваемого объекта, равное х0.
Определить, к какому классу относится объект ?
Обозначим через х0 некоторое пока не определенное значение признака х и условимся о следующем правиле принятия решений:
-
если измеренное значение признака распознаваемого объекта х0>х0, то объект будем относить ко второму классу;
-
если х0< х0 - к первому.
Система
связи веро-
ятного про-
тивника
Подсистема поиска
Распозна-вание объектов
П/система ТА
П/система
РПХ
П/система
МО
Предвари- тельная
обработка










Система выделения признаков
Реализация
Эталоны
База решаю-щих правил
Алгоритм распознавания
Алгоритм оптимизации
Априорная информация
Оценка качества решения
Учитель














Распознавае-мые объекты
Система вы-
деления признаков
Алгоритм
самообучения
Обучающая выборка




Блок
формирования реализации
Классификация
Оценка правильности классификации
Накопление статистики
Оценка качества системы
Принятие решения об изменении параметров системы






Априорная информация



















1
2
6
3
1







R1
1
2
6
3
1
R2


Q2 x0 Q1


x
f(x)


















Если объект относится к первому классу, а его считают объектом второго класса, то совершена ошибка, которая называется ошибкой 1-го рода.
Условная вероятность ошибки 1-го рода равна
∞
Q1 = ʃ f1(х) d(x)
x0
Если объект относится ко второму классу, а его считают объектом 1-го класса, то совершена ошибка, которую называют ошибкой второго рада.
Условная вероятность ошибки 2-го рада равна
x0
Q2 = ʃ f2(x)
-∞
Для определения значения х0 введем понятие платежной матрицы
=
|| с || = с11 с12 ,
с21 с22
где с11 и с22 - потери, связанные с правильными решениями, а с12 и с21 - потери, связанные с совершением ошибок первого и второго рода соответственно.
Значение х0 определяется в зависимости от значения коэффициента правдоподобия
(x) = f2(x)/f1(x).
Значению х0 соответствует критическое (пороговое) значение (x) = 0
р(Ω1)(c12-c11)
0 =
p(Ω2)(c21-c22)
Значение х0 позволяет оптимальным образом (в смысле минимума среднего риска) разделить признаковое пространство на две области: R1 и R2.
Область R1 состоит из значений х ≤ х0, для которых (x) ≤ 0 а R2 - из значений х > х0, для которых (x) > 0
Поэтому решение об отнесении объекта к первому классу следует принимать, если значение коэффициента правдоподобия меньше его критического значения, и ко второму классу, если больше.
На практике при построении систем распознавания возможны ситуации, когда известны:
а) f1(x), f2(x), р(Ω1), р(Ω2) и ||с|
б) f1(x), f2(x) и платежная матрица, но не известны р(Ω1), р(Ω2).
в) f1(x), f2(x), но не известны ни р(Ω1), р(Ω2) ни платежная матрица.
В каждой из этих ситуаций применяются свои критерии распознавания, а именно - критерий Байеса, минимаксный критерий, критерий Неймана-Пирсона.
Признаковая информация представляется в виде таблиц распознавания вида
Классы | Градации признака хi | |||
хi1 | xi2 | ... | xim | |
А1 | 0.6 | 0.5 | ... | 0.1 |
А2 | 0.7 | 0.4 | ... | 0.2 |
... | ... | ... | ... | |
An | 0.1 | 0.2 | ... | 0.1 |
Наиболее часто используется критерий Байеса, который выражается формулой
p(Aj) p(bk/Aj)
p (Aj/bk) =
M
p(Ai) p(bk/Ai)
i=1
где
p(Aj/bk) - вероятность гипотезы о принадлежности реализации bк к j-му классу.
Bk = { x1l, . . . , xnk, . . . , xNp},
хi - признаки классов, l,k,p - градации признаков,
p(Aj) - априорная вероятность проявления j-го класса(Aj);
p(bk/Aj) - условная вероятность проявления признаков реализации bk у класса Aj.
M - количество классов.
P(Aj) = mj / F ( mj - количество объектов j-го класса, F - суммарное количество объектов всех классов).
N
P(bk/Aj) = П p(xil/Aj), где p(xil/Aj) - вероятность проявления l-ой градации i-го
i=1
признака у класса Aj.
N - количество признаков в рабочем словаре.
В результате вычислений по формуле Байеса получим значения p(Aj/bk) для каждого класса.
Решение о принадлежности реализации к конкретному классу принимается по максимуму вычисленной вероятности.
ЭКСПЕРТНЫЕ СИСТЕМЫ
КОНЦЕПЦИЯ ЗНАНИЙ
При изучении интеллектуальных систем традиционно возникает вопрос, – что же такое знания и чем они отличаются от обычных данных, десятилетиями обрабатываемых ЭВМ.
Можно предложить несколько рабочих определений, в рамках которых это становится очевидным.
Данные – это отдельные факты, характеризующие объекты, процессы и явления в предметной области, а также их свойства. Данные интерпретируются специальными программами. Они пассивны. Нет содержательной информации.
При обработке на ЭАМ данные трансформируются, условно проходя следующие этапы:
-
данные как результат измерений и наблюдений;
-
данные на материальных носителях информации (таблицы, протоколы, справочники);
-
модели (структуры) данных в виде диаграмм, графиков, функций;
-
данные в компьютере на языке описания данных;
-
базы данных на машинных носителях.
Знания связаны с данными, основываются на них, но представляют собой результат мыслительной деятельности человека, обобщают его опыт, приобретенный в ходе выполнения какой-либо практической деятельности. Они получаются эмпирическим путем.