Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика (778918), страница 20
Текст из файла (страница 20)
В диаг. ностических нечетких системах часто применяются нисходящие выводы Рассмотрим механизм подобного вывода. Пусть задано полное пространство предпосылок Х = (хн х„) и полное пространство заключений У = (уь, у,) Между х, и у, существуют нечеткие причинные отношения к, -+ у» которые можно представить в виде некоторой матрицы й с элементами гг е [О, 1], ( = 1...т, ! = 1...п. Предпосылки и заключения можно рассматривать как нечеткие множества А и В на пространствах Хи У, отношения которых можно представить в виде: В=А ° В, где «»», как и раньше, обозначает правило композиции нечетких выводов, например гпах-т(п-композицию.
В данном случае направление выводов является обратньа для правил, т. е. задана матрица й (знания эксперта), наблюдаются выходы В (заключения) и определяются входы А (предпосылки) Пусть задана модель диагностики системы, состоящая из двух предпосылок и трех заключений: Х = (х,, кз), У = (ун уъ уз), а матрица нечетких отношений имеет вид: 0,8 0,2 0,3 0,7 0,4 0,5 Допустим в результате диагностики системы были получены следующие заключения В = 0,8/у1 + 0,2/уз + 0,3/уь Необходимо найти приведшие к этому предпосылки. А = а,lх, + а~!ха С учетом конкретных данных отношения между предпосылками и заключениями будут представлены следующим образом: (08 02 03]=(а1 аг1 ° ~ Г0,8 0,2 0,31 ~0,7 0,4 0,5) либо в транспонированном виде 0,2 0,4 ° ]0,3 0,5] При использовании гпах — т)п-композиции последнее соотно- шение преобразуется к виду.
08=(08ла,) (07ла), 0,2 = (0,2 л а,) ч (0,4 л аз), 120 0,3 = (0,3 и а,) (0,5 л а,), При решении данной системы заметим, что в первом уравнении второй член правой части не влияет на левую часть, поэтому 0,8 = 0,8 л аь а, > 0,8. Из второго уравнения получим: 0,2 > 0,4 л аг, аг < 0,2. Полученное решение удовлетворяет третьему уравнению.
Таким образом: 0,8 < а, < 1, 0 < а, < 0,2 При решении практических задач могут одновременно использоваться различные правила композиции нечетких выводов, сама схема выводов может быть многокаскадной. В настоящее время общих методов решения подобных задач, по-видимому, не существует. 3.3. Эффективность нечетких систем принятия решений Возможность использования аппарата нечеткой логики базируется на следующих результатах. 1) В 1992 г Чуап9 показал, что нечеткая система является универсальным аппроксиматором, т е. может аппроксимировать любую непрерывную функцию на компакте 0 с произвольной точностью, если использует набор п (и -+ о) правил.
П,. если х, есть А, и у, есть В„тогда з, есть С„) = 1, ..., и, при следующих условиях: ° гауссовых функциях принадлежности А,(х) = ехр -- — ", В,(у) = ехр-- С,(з) = ы~ —— композиции в виде произведения: [Я(х) апо' В(у)) = А(х) В,(у), ° импликации в форме ((.агзеп): [А(х) апо' В(у)) -+ С(з) = А,(х) ВАу) СЯ, ° центроидном методе приведения к четкости: 121 г„а, А,В, ,=1 ' го= у.д,в, 1и где аз — центры С,. Иначе говоря, )й/апд доказал теорему: для каждой вещественной непрерывной функции д, заданной на компакте 0 и для произвольного с>О существует нечеткая система, формирующая выходную функцию /(х) такую, что зир((д(х) — /(х)(( < с, кои г де (( ° (( — символ принятого расстояния между функциями 2) В 1995 г. Сав(го показал, что логический контроллер Мап1- бап) также является универсальным аппроксиматором при: ° симметричных треугольных функциях принадлежности: 1-(е, — х(/а„если (а, — х( < а„ А,(х) = О, если (е, — х( > а,, в,(у) = 1-(Ь, — у(/Д„если (Ь, — у( < ])„ О, если (Ь, — у( > [)„ ( 1-(с, — г(/т„если (с, — г( < т„ О, если (с, — г(< т„ < ° композиции с использованием операции пип: [А(х) апо' В(у)] = пип(А(х), В~у)), ° импликации в форме Ма/паап) и центроидного метода приведения к четкости; ~ с, пип(А,(х),В,(у)) ги гО ~лип(А,(х),В,(у)) где с,— центры С,.
Вообще говоря, системы с нечеткой логикой целесообразно применять в следующих случаях: ° для сложных процессов, когда нет простой математической модели; ° если экспертные знания об объекте или о процессе можно сформулировать только в лингвистической форме. 122 Системы, базирующиеся на нечеткой логике, применять нецелесообразно: ° если требуемый результат может быть получен каким- либо другим (стандартным) путем, ° когда для объекта или процесса уже найдена адекватная и легко исследуемая математическая модель Отметим, что основными недостатками систем с нечеткой логикой являются то, что ° исходный набор постулируемых нечетких правил формулируется экспертом-человеком и может оказаться неполным или противоречивым, ° вид и параметры функций принадлежности, описывающих входные и выходные переменные системы, выбираются субъективно и могут оказаться не вполне отражающими реальную действительность.
3.4. Синтез нечетких нейронных сетей Различные типы интеллектуальных систем имеет свои особенности, например, по возможностям обучения, обобщения и выработки результатов, что делает их наиболее пригодными для решения одних классов задач и менее пригодными — для других. Например, нейронные сети хороши для задач распознавания образов, но весьма неудобны для объяснения, квк они такое распознавание осущесгпвляют Они могут автоматически приобретать знания, но процесс их обучения зачастую происходит достаточно медленно, а анализ обученной сети весьма сложен (обученная сеть представляет обычно черный ящик для пользователя) При этом какую-либо априорную информацию (знания эксперта) для ускорения процесса ее обучения в нейронную сеть ввести невозможно. Системы с нечеткой логикой, напротив, хороши для объяснения получаемых с их помощью выводов, но они не могут авгпоматичвски приобрвтвть знания для использования их в механизмах выводов.
Необходимость разбиения универсальных множеств на отдельные области, как правило, ограничивает количество входных переменных в таких системах небольшим значением. Вообще говоря, теоретически, системы с нечеткой логикой и искусственные нейронные сети подобны друг другу, однако, в соответствии с изложенным выше, на практике у них имеются свои собственные достоинства и недостатки. Данное соображение легло в основу создания аппарата нечетких нейронных сетей, в котоРых выводы делаются на основе аппарата нечеткой логики, но со- 123 ответствующие функции принадлежности подстраиваются с использованием алгоритмов обучения нейронных сетей, например, алгоритма обратного распространения ошибки. Такие системы не только используют априорную информацию, но мокнут приобретать новые знания, являясь логически прозрачными.
3.4.1. Основные понятия и определения нечетких нейронных сетей Для пояснения сущности нечетких нейронных сетей, рассмотрим простую нейронную сеть, состоящую из одного нейрона с двумя входами Входные сигналы х, «взаимодействуют» с синаптическими весами в;. р,= в,к„ /«1, 2. Эти частные произведения суммируются, образуя значение пе( нейрона пег = р, + рг = в, х, + вг хг Выход нейрона образуется в результате преобразования значения пег некоторой активационной функцией б у = Ф~е() = ((в1 х1 + вг хг), Рассмотренная однонейронная сеть, в которой используются операции умножения, суммирования и сигмоидная функция активации является стандартной нейронной сетью. В случае применения вместо операций умножения, суммирования и активации таких операций, как Рнорма или Г-конорма (см.
разд 3 1.2) данную нейронную сеть будем называть нечеткой. Нечеткая нейронная сегпь — зто нейронная сеть с четкими сигналами, весами и активационной функцией, но с объединением х, и в„р, и рг с использованием операций Г-нормы, Г-конормы или некоторых других непрерывных операций. Входы, выходы и веса нечеткой нейронной сети — вещественные числа, принадлежащие отрезку (О, 1) Рассмотрим примеры элементарных нечетких нейронных сетей. Нечеткий нейрон «И».
Сигналы х, и веса в, в данном случае объединяются с помощью Рконормы: р,=8(в„к,), ~«1,2, а выход образуется с применением Рнормы (рис. 3.15, а): У = А(чгг(рь Рг) = Т(Р1 Рг) = Т(8(вь х,), 8(вг„хг)). Если принять Т - "т)п, 8 = гпах, то нечеткий нейрон «И» реализует композицию т)п-гпах. у т!п(в! ч хь вг ' хг). 124 Х2 а) ,), Т(и и 1«2)) Х2 Рис.
3.15 Структуры нечетких нейронов а — «И»; б-«ИЛИ» Нечеткий нейрон «ИЛИ». Сигналы х, и веса в, здесь объединяются с помощью Г-нормах р, н Т(и» х,), лв 1, 2, а выход образуется с применением Г-конормы (рис. 3 15, б): у= Ой(р1, р,) = 5(р1, р2) = 3(Т(и21, х,), Т(уу2, х2)). Если принять Т = гп1, 3 = тах, то нечеткий нейрон «ИЛИ» Реализует композицию гпах-т1п: у = глах(уу, л х1, уу2 л х2) 3.4.2. Алгоритмы обучения и использования нечетких нейронных сетей Опишем типовой подход к построению алгоритмов обучения и использования нечетких нейронных сетей.
Предположим, что нечеткой нейронной сетью должно быть Реализовано (неизвестное) отображение: у" = г(х") = г(х,", х,",..., х„"), й = 1, ..., 1'1', при наличии обучающего множества: ((х', у ), ..., (х~, у'»)). Для моделирования неизвестного отображения г используем упрощенный алгоритм нечеткого вывода (см.
разд 3.2), применяя следующую форму записи предикатных правил: П,: если х, естьА„их»естьАа и ... их„естьА«» тоу= г» /=1,, гп, где А„— нечеткие числа треугольной формы, г, — вещественные числа Степень истинности рго правила определяется с помощью операции умножения (( агзеп): а, = ПА„(х,") !=1 (можно использовать и другие представления для моделирования логического оператора «И»).
Выход нечеткой системы определяется в соответствии с центроидным методом (дискретный вариант): Уа,г, о«- =1 ~а, ~=1 Введение функции ошибки для (г-го предъявленного образца вида: Е» = — (о" — у") позволяет, далее, как в обычных нейронных сетях использовать градиентный метод для подстройки параметров заданных предикатных правил.
Так, величины г, можно корректировать по соотношению: оЕ„ а, г,:=з, -и — = г, — гг(о — у ) !=1,...,т, Оз, а1»а2»" »а где д- константа, характеризующая скорость обучения. Более детально алгоритм настройки рассмотрим на примере системы, включающей два правила П,:если хестьЯ,, тоу=г1, Пз. если х есть Аг, то у = зг, при атом предполагается, что нечеткие понятия А, («малый») и Аг («большой») имеют сигмоидные функции принадлежности: 1 1 А,(х) = Аз(х) = 1-» ехр(Ь1(х — а,)) ' 1 + ехр(Ь,(х — а, )) 126 1 а,= А,(х)= 1+ ехр(Ь,(х — а,)) ' 1 аг= А,(х) = 1» ехр(Ь,(х — а )) ' а выход системы — выражением: а,г, +аггг А|(х)г, + Аг(х)гг о= а1+аг А1(х)+ Аг(х) Предположим, что имеется обучающее множество ((х', у ), (х', уг),..., (х, ун)), отображающее неизвестную функцию б Требуется: осуществить такую настройку параметров сис- темы аь аь Ьь Ьг, гь г,, при которой обеспечивается наилучшая аппроксимация данной функции.
Решеное. Для данного случая функция ошибки может быть записана в форме: 1(, »)2 Е„= Е„(а,,Ььаг Ьг,гьгг) = — (о (а,,Ььаг,Ьг,гьгг) — у ) . 2 Используя далее тот же подход, как и при выводе алгоритма обратного распространения ошибки (см. разд. 1.4), запишем: дЕ„„„а, г,:=г,-п — =г,— П(о — у ) дг, а, +аг ~ ' .") =г, — г)(о -у ) дЕ„ „ » аг гг:=гг-П вЂ” =гг-Ч(о -у ) дгг а, +аг » Аг(х" ) Аналогичным образом мокнут быть получены выражения для коррекции коэффициентов аь аг, Ьь Ьг. Исходные соотношения таковы дЕх а,:= аг -»)— да, дЕ» Ьг = Ьг Ч дь, ' дЕ„ а, =а,-г) —, да1 дЕ„ Ь1 '= Ь1 — Ч дЬ, характеризующиеся параметрами аь аг, Ьь Ьг.