Лекции (549047), страница 3
Текст из файла (страница 3)
Человек использует:
Понятия – базовые понятия, элементы (могут быть простыми и сложными), которые используются для описания ситуации.
Суждения – некоторые конструкции из понятий, которые имеют статус истинности или ложности, или неопределенности.
Умозаключения – конструкции: если есть , то , возможно введение коэффициента уверенности.
Семиотика:
- синтктика
- семантика
- прагматика
Кондент
(смысл)
Денотат (то множ-во реальн.
объектов, к-ые обозначают это понятие)

Индикатор
(имя, идентификатор)
Смысл
Пример: понятие — дорожный знак «кирпич»
Образ
Имя

Представление

-
Структурированность
Данные не структурированные или слабо структурированные в отличии от знаний.
I
Компьютер
SA – иерархия, отношение (множ-во/подмнож-во; класс/подкласс; вид/подвид)Компьютер
PC WS MFr
Intel Athlon
A ISA B Ext(A) Ext(B)
Ext (PC) = Компьютер Ext(MFr) = Компьютер
Частный случай ISA - Instance Of
Отношения Part of
A part of B A B
- объект, именуемый А есть часть объекта, именуемого В.
Данные либо не имеют структуры, либо обладают простой структурой (массив спсок)
-
Ситуативность (возможность изменения в зависимости от ситуации)
* пространственно-временных,
* причинно-следственных.
Отношения:
-
Симметричность: a=b b=a
-
Рефлективность: a=a
-
Транзитивность: a=b & b=c a=c
Вводя какое-то понятие, мы можем менять эти св-ва (сим-ть, рефл-ть, транз-ть и др. св-ва) в зависимости от ситуации.
Например: 1) вводим отношение «быть рядом» и транзитивность:
А «рядом» В & В «рядом» С А «рядом» С
- не всегда истинно, т.е. в зависимости от ситуации мы можем менять выполняется ли транзитивность.
2) пусть расстояние 4 м, тогда слон «рядом» муравей
- с т. зр. муравья false, а с т. зр. слона true.
-
Наличие статуса истинности, наличие степени правдоподобия
Д – достоверность
Зн – правдоподобие
Природа неопределенности:
-
в исходной ситуации
-
в знаниях
-
в целях
-
Активность знаний
-
Решение = Д + Алгоритм
Знания порождают другие, новые знания.
06.10.02.
Обработка плохооопределеннлой информации в ЭС (СОЗ)
Природа неопределенности
-
Неопределенность исходной информации (данных).
-
Неопределенность в знаниях, с коэффициентом правдоподобия.
-
Неопределенность при задании цели.
1) Для принятия более качественных решений желательно снять неопределенность:
* получение доп. информации
* использование субъективных предпочтений ЛПР
2) Выбор адекватной логики обработки неопределенностей
- вероятностные методы
- интервальная вероятность
- n-арные логики
- непрерывнозначные (нечеткие) логики
- субъективные коэффициенты уверенности и операции над ними.
Теоретико-вероятностные методы обработки неопределенностей
- степень принадлежности, уверенности
Метод Байеса
Pi Сi Ri
P i E H
P(H/E) – апостериорная вероятность истинности H при свидетельстве E или коэффициент правдоподобия.
- истин. (наличия) Х
O R(H/E) ∞
R(H/E) = 1 – гипотеза не влияет на свидетельство
R(H/E) < 1 – контр свидетельство
R(H/E) > 1 – свидетельство
Определение: Ei Ej R(H/E) > R(H/E)
Обычно вводят пороговое значение R, ниже к-го гипотеза false, выше – true.
Д ля случая одного свидетельства E
P(H/E) – вероятность, при к-ой гипотеза не принимается.
Психологи установили для человека.
1 – инт. по правдоп.
2 – надо считать.
3 – интервал правдоподобия H.
P(H(E1…En)), E1…En – свидетельства
Если E1…En – независимы
- т.к. ф-ла учитывает как свидетельства, так и контр свидетельства.
W – важность свидетельства
{Hj} j=1…m – мн-во гипотез
{Ei} i=1…n – мн-во свидетельств
Если Ei взаимно независемы, то справедливо:
PP(H); Pi+ = P(E/H); Pi–P(Ei/H)
Пример: с-ма диагностики.
{Hj} j=1…m - множ-во диагнозов;
{Ei} i=1…n - множ-во свидетельств.
Информация (знания) о гипотезах
БЗ
БД Информация о симптомах
Пример:
I путь. Отсутствие эпидемии.
- в БЗ:
- в БД: <1; t0; запрос>
P(H) = 0,01
-
Пусть имеется только 1 симптом E1 (t0 ):
II путь. Эпидемия, P(H) = 0,1
-
E1 (t0) P(H/E1) = 0,9
-
E2 (H) P(H/E2) = 0,5
-
E1, E2 (t0 и насморк) P(H/E1, E2) ≈ 1
Если есть статистика, то все свидетельства определяются след. образом:
Ограничения на схемы Байеса:
бывают разные шкалы
a{0, 1} a{0, 100} a{1, 0.5}
Лингвистическая шкала:
0 – не присутствует
1 – очень слабо
2 – слабо
3 – средне
5 – очень сильно
Вместо P(H/E) используем P(H/А)
P(H/A) = P(H/E) P(E/A) + P(H/E) P(E/A)
13.11.02
-
Использование к-значной и непрерывной логики.
Невыполн. закона искл. третьего в человеческих рассуждениях.
P(X) + P(X) = 1 не выполн.
О тсутствие зоны неопределенности:
Поскольку в человеческих рассуждениях P(Н) + P(Н) не всегда = 1, возможна ситуация неопределенности:
Логики трехзначные: {0; ½; 1}
четырехзначные: {t; f; 0; r}0 - противоречие, r - неoпределенность
шестизначные: { t; f; +½; -½; 0; r }
Интервальные вероятности:
Мы можем гарантировать, что вероятность попадает в интервал P(H) P(H) P(H)
Когда гипотеза сложная
P (H) = P(Hi) P(H) = UP(Hi)
Метод обработки неопределенности на основе субъективных коэффициентов уверенности (метод MYCIN).
Определили 2 коэффициента:
-
Мд(H, E) – мера доверия гипотезе H при условии E:
-
Мн(Н,Е) – мера недоверия:
К – коэффициент уверенности Н при наличии условий Е1 и Е2
К(Н,Е) = МД(Н,Е) – Мн(Н,Е)
0 Мд, Мн 1, то -1 К 1
Если Е1 и Е2 независимы, то справедливо:
Возможен случай с несколькими гипотезами:
{Hj} j=1…m
{Ei} i=1…n
Мд (Н1& Н2, Е) = min {Мд(Н1,Е), Мд(Н2,Е)} Мн(Н1& Н2, Е) = max {Мн(Н1,Е), Мн(Н2,Е)} | Мд (Н1U Н2, Е) = max {Мд(Н1,Е), Мд(Н2,Е)} Мн (Н1U Н2, Е) = min {Мн(Н1,Е), Мн(Н2,Е)} |
Вполне возможны ситуации, когда свидетельства приходят с определенной степенью уверенности.
МдI(Н,Е) = Мд(Н,Е)·max{К(Е,А), 0}
МнI (Н,Е) = Мн(Н,Е)·max{К(Е,А), 0}
Кпор(Н,Е) = 0,2 у человека
Метод обработки неопределенности в GURU
Pi = (Сi ri, ki)
k(Сi)
k(ri) = f(k(Сi), ki)
a b
Сi Pi = (Сi ri, ki)
Pj = (Сj rj, kj)
Логика | (&) CFJO | (U) CFCO |
M: P: A: B: | min(a,b) a·b (+ )/2 … | Max(a,b) a+b - a·b (+ )/2 … |
E·FCR = TRU 0 CF 100
Пороговое значение E·ONKN=20
Пример: надежность поставщика.
P1 = (С1 r, 0.9)
P2 = (С2 r, 0.8)
P31 = (С3 = кооператив r, 0.5)
.
.
.
P4 = (С4 r, 0.7)
P5 = (С4 r, 0.8)
РР итого k(r) = 0,96
MM k(r) = 0,7
RULE: R4
PRIORITY: 100
IF FIN = TR
THEN NAD+= TR сf 90
RULE: R5
PRIORITY: 100
IF FIN = F
THEN NAD-= TR сf 90
20.11.02
Обработка плохоопределенной информации
с использованием Дерева Решений
ДР – дерево решений (целей)
R
P,k
ci cj
k(ci) k(cj)
2 Основных подхода:
1) Максиминный
K(R)=min {k(Ci), k(Cj), k}
2)Вероятностный
K(R)=k(Ci), k(Cj), k
R
Pi,ki Pj,kj
ci cj
1) Максиминный
K(R)=max{ki k(Ci), kj k(Cj)}
2)Вероятностный
K(R)=k(Ci)ki + k(Cj)kj - k(Ci) k(Cj)ki kj
Общая формула:
K(R)= k(Ci)ki + k(Cj)kj + k(Cr)kr –
-k(Ci) k(Cj)ki kj - k(Ci) k(Cr)ki kr - k(Cr) k(Cj)kr kj +
+ k(Ci) k(Cj) k(Cr) ki kj kr
Пример:
{Сi} – множ-во промежуточных заключений;
{Fj}– множ-во факторов;
P1 = (F1 C1, 0.8)
P2 = (F2 C1, 0.7)
P3 = (F3 C2, 1)
P4 = (F4 & F5 C3, 0.9)
P5 = (F6 C6, 1)
P6 = (F7 C6, 0.7)
P7 = (F8 & F9 C4, 0.4)
P8 = (C1 & C2 & C3 C5, 0.9)
P9 = (C4 C6 , 0.8)
P10 = (C5 & C6 R, 1)
М ожно решить задачу оптимизации
Поиск решения
S н = (0,9; 0; 1; 0,8; 0,9; 0,1; 0,8; 0,7; 0,5)
F1 F2 F3 F4 F5 F6 F7 F8 F9
а) ab, a+b – ab
б) max{a,b}{a,b}, max{a,b}
Ответы:
а) k(C1) = 0,90,8 = 0,72
k(C2) = 1
k(C3) = 0,80,90,9 = 0,65
k(C4) = 0,70,50,4 = 0,14
k(C6) = 0,80,7 = 0,56
k(R) = 0,420,56 = 0,65
б) k(C1) = 0,8
k(C2) = 1
1>