Лекции 2 Макашова (549044), страница 2
Текст из файла (страница 2)
R
P10 ; 1
C
6 C6
P8 ; 0.8 P5 ; 1 P6 ; 0.7 P9 ; 0.8
C
1 C2 C3 F6 F7 C4
P1 ; 0.8 P2 ; 0.7 P3 ;1 P4 ; 0.9 P7 ; 0.4
F1 F2 F3 F4 F5 F8 F9
В дереве проиллюстрировано, что есть связь между наблюдаемыми вершинами и целевым заключением.
, i =
k( )
- коэффициент уверенности наблюдаемого фактора
k(
), k(
) Є [0,1]
Sн = (0,9; 0; 1; 0,8; 0,9; 0,1; 0,8; 0,7; 0,5)
F1 F2 F3 F4 F5 F6 F7 F8 F9
а) maxmin
k(C1) = max{(0.9*0.8); (0.7*0)} = 0.72
k(C2) = 1
k(C3) = min{0.8; 0.9)*0.9 = 0.72
k(C4) = min{0.7; 0.5)*0,4 = 0.2
k(C5) = min{0.72; 1; 0.72)*0.9= 0.65
k(C6) = max{(0.7*0.8); (0,8*0.2)} = 0.56
k(R) = min{0.65; 0.56)*= 0.56 (56%)
б) вероятностная логика
k(C1) = 0.8*0.9 = 0.72
k(C2) = 1
k(C3) = 0.9*0.8*0.9 = 0.65
k(C4) = 0.5*0.7*0.4 = 0.14
k(C5) = 0.72*1*0.65*0.9 = 0.42
k(C6) = 0.8*0.7 + 0.14*0.8 – 0.56*0.12 = 0.57
k(R) = 0,42*0.57*1 = 0.24 (24%)
Пусть теперь нашли ещё одного эксперта, который считает по своим правилам:
Тогда:
а) k(R) = 0.6
k(R) = max{0.56*0.6} = 0.6
а’) k(R) = 0.5
k(R) = max{0.56*0.5} = 0.56
б) k(R) = 0.6
k(R) = 0.24 + 0.6 – 0.24*0.6 = 0.7
б’) k(R) = 0.5
k(R) = 0.7 + 0.5 – 0.7*0.5 = 0.85
В случае maxmin привлечение дополнительных правил ничего не изменило, а в случае вероятностной логики – существенно повлияло. Значит, надо тщательнее выбирать логику.
Теория свидетельств Демпстера-Шефера
(A.Dempster – G.Shafer)
A Mathematical Theory of Evidence (G.Shafer, 1976)
Минусы схемы Байеса:
1. p(H) + p(¬H) = 1
2. Свойство индифферентности:
Если не известна вероятность гипотезы (события), то все гипотезы считаются равновероятностными.
3. Точечная оценка (оценку получают в виде точки).
Аксиомы ТВ Колмогорова:
1. 0 ≤ P(H) ≤ 1;
2. P(true) = 1; P(false) = 0;
3. P(H∪Q) = P(H) + P(Q) – P(H&Q) => 4
4. P(H∪¬H) = P(H) + P(¬H) = 1
Посылки теории свидетельств
(слабее посылок ТВ)
-
Использование субъективных свидетельств (субъективных вероятностей)
-
Использование правила объединения свидетельств
-
Различаются ситуации неопределённости (uncertainty) и незнания (ignorence):
Т.е. если эксперт выступает “за” гипотезу с уверенностью a, то это не значит, что он отвергает её с уверенностью (1-a)
-
Вместо точечных вероятностей используется вероятностный интервал доверия.
В 1967г. Dempster ввёл значения:
P*(H) – верхнее значение вероятности события или гипотезы
(H) – нижне значение вероятности события или гипотезы
Интервал доверия [P*(H), (H)]
Shafer:
Bel(H) – мера (функция) доверия к H
Pl(H) – мера правдоподобия гипотезы H
Pl(H) = 1- Bel(H)
Bel – ф-я, т.к. для неё возможен аппарат вычислений
[Bel(H), Pl(H)]
Bel – нижняя граница, мера необходимости
Pl – верхняя граница, уровень возможности, при котором гипотеза ещё может иметь место
Пример
Н – покупать акции
-
Эксперт А:
) = 0.9
Эксперту А можно верить с вероятностью 0.9
) = 0.1
Эксперт А советует покупать, т.е. он за гипотезу H.
Bel(H) = 0.9
Pl(H) = 1 – Bel(¬H) = 1-0 = 1
Нет информации, что не следует покупать акции.
Вероятностный интервал доверия [0.9; 1.0]
-
Эксперт B:
) = 0.8,
) = 0.2
Нужно объединить результаты.
а) A,B → H
Вероятность, что обоим можно верить:
Bel(H) = 0.98
Pl(H) = 1
[0.98; 1]
б) A → H, B → ¬ H
- нормирующее
Bel(H) =
= 0.645
Bel(¬H) =
= 0.286
[Bel(H); Pl(H)= 1- Pl(¬H)]
Вероятностный интервал доверия H: [0.643; 0.714]
Pl(¬H) = 1- Bel(H) = 0.357
Вероятностный интервал доверия ¬H: [0.286; 0.357]
Если ,
, то вероятностный интервал [0.99; 1
Если эксперты говорят одно и то же, то следует купить акции.
Если эксперты противоречат друг другу, то вероятность гипотезы не 0.5, а [0.47; 0.53].
Здесь не работает принцип P(H) + P(¬H) =1.
Лекция №9 (8.11.11)
Правило объединения свидетельств.
Для разных гипотез могут быть одни и те же свидетельства. Но предполагается, что эти гипотезы взаимоисключающие. Используется метод объединения свидетельств.
Рассмотрим ситуацию конфликта свидетельств. Субъективные вероятности: учитывается то, что известно. Неопределённость и неизвестность – не одно и то же.
{H} – множество гипотез (простудные заболевания)
- множество всех подмножеств из множества {H}
⊆ H – подгипотезы гипотезы H (грипп, ангина, ОРЗ)
Задаётся базовое распределение вероятностей (мер) на множестве :
0 ≤ m(H) ≤ 1
Ф-я (мера) доверия к гипотезе H:
Мера правдоподобия H: Pl(H) =
[Bel(H), Pl(H)]
Правило объединения свидетельств Демпстера:
- конфликт свидетельств.
Пример
Задача медицинской диагностики.
Пусть H – сложная гипотеза, которая содержит 4 подгипотезы:
-
шок (k1)
-
грипп (k2)
-
мигрень (k3)
-
менингит (k4)
-
Свидетельство – у пациента лихорадка
{ } с вероятностью 0.6
= 0.6
= 0.4
H – всё, что осталось
Свидетельство лихорадка подтверждает гипотезы с вероятностью 0.6. Значит, вероятность всего остального 0.4.
-
Свидетельство – рвота
{ } с вероятностью 0.7
= 0.7
Нужно объединить свидетельства.
Как получить правило объединения свидетельств, зная и
?
X – мн-во гипотез, на которых мера принимает нулевое значение
Y – мн-во гипотез, на которых мера принимает нулевое значение
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1.00 |
-
Подключаются результаты анализа. Они дают свидетельства в пользу менингита.
= 0.8
= 0.2
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1.00 |
Если гипотезы альтернативные => конфликты свидетельств:
|
|
Знаменатель: 1 – 0.56 = 0.44
|
|
|
|
|
/1.00
Метод был реализован в системе INFERNO (J.Quinlan)
Лекция №10 (15.11.11)
Вероятностная логика
W – мн-во событий (некоторая точка в соответствующем пространстве)
i(A) – инциденция A, - подмножество мн-ва W, включая все элементарные события, где A – истина
i(T)=W
i(F) = Ø
i(¬A) = W\i(A)
i(A&B) = i(A) ∩ i(B)
i(A∪B) = i(A) ∪ i(B)
i( )
i(AS)
i(∃xA)
i(AS) – конкретный случай, где S – подстановка
Вероятность p(A) =
W – вся область рассуждений
LA – “вероятно A”
A является правдоподобной гипотезой относительно имеющихся знаний
Можно строить следующие конструкции: LLA
Если E, то
Снимает жёсткие ограничения ТВ.
Оперирование с неопределённостью лингвистического характера
(L.Zadeh)
Заде ввёл понятие лингвистической переменной
Лингвистическая переменная - L = <N,U,T,Р1,Р2> , где
N – имя лингвистической переменной (“возраст”)
U – область рассуждений(универсум) ([0,150] лет)
T – терм-множество - некоторые базовые конструкции {“старый”, ”молодой”}
Р1– правила синтаксиса
A, (U): U → [0, 1] – ф-я принадлежности к мн-ву A
Р2 – правила семантики (вывода)
МP: A → B
A____
B
Если сила тока I большая, то сопротивление R - малое.
А если
A → B
____
B
то получится приближение к B, тогда применяется правило композции:
A → B
____
(A → B)
Чем ближе А к , тем ближе результат к B. Если А ближе к ¬А, то неизвестно.
Гауссово нормальное распределение
Пример 1
“молодой”
“старый”
График:
“очень” А
“очень” А CON(A) =
т.е., если мы считаем, что X принадлежит к понятию “молодой” со степенью принадлежности 0.6, то Х принадлежит к понятию “очень молодой” с принадлежностью 0.36.
“более или менее” А DK(A) =
Пример 2
“несколько”
Область рассуждений: U =[1,10]
= 0.2/2 + 0.6/3 + 0.9/4 + 1/5 + 0.9/6 + 0.3/7