Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика (778918), страница 21
Текст из файла (страница 21)
Степени истинности правил определяются в данном случае соотношениями: 127 0,5 х 1 2 Рис. 3.16 Симметричные функции принедпемности Конечные выражения являются достаточно громоздкими, но могут быть упрощены в случае, если функции принадлежности имеют вид: А,(х) = 1 Аз(х) 1 1+ ехр(-Ь(х — а)) 1е ехр(Ь(х — а)) Данные функции характеризуются всего двумя параметрами (а и Ь), в определенном смысле являются симметричными (рис.
3 16) и удовлетворяют уравнению: А,(х) е А,(х) = 1. Заметим, что из последнего и ранее полученных уравнений следует: а:=а где дЕ„(а,Ь) и и до" е х д( и =(о — У ) — =(Π— У ) — ~г1А,(х )е гзАз(х и)1 да да да = (о" — У") — (г,А,(х )е г,(1 — А,(х")))= М дА1(х ) = (о — У )(г1 — гг) да 128 дЕи х г,:ы г -дг — = г — л(о 1 дЕ, гз .= гз — 'ч — = ге — ц(о дгз Последующие выкладки у" ) ' = г, — г)(о" — У~)А,(х"), "1 наг У) м аз = гз — ~1(о — У )А,(х ) х м и а, еаз таковы: дЕ„(а, Ь) да ехр(Ь(х" — а)) у ~~ гг ) 1г + ехр(Ь(х — а))) = (о" — у" )(г, — г )ЬА,(х" )(1 — А,(х" )) = =(о" — у")(з, — зг)ЬА,(х")А,(х") сЕ,(а, Ь) дЬ где дЕ(аЬ) „х с~ 1 = (о — у )(г~ — гг )— сЬ сЬ(1+ ехр(Ь(х" — а))~ = (о' — у")(г, — г, Кх" — а)А,(х")(1- А,(х")) = = (о" — у")(з, — г,)(х" — а)А,(х")А,(х").
Приведенные выкладки, как представляется, полностью ил- люстрируют идеи алгоритмов обучения и использования нечеткой нейронной сети. Рассмотрим другой пример нечеткой системы, имеющей следующую базу знаний; П, если х, есть(„ихгестьбгих,есть бз, тоуестьб, Пг если х~ есть Н, и хг есть Нг и хз есть! з, то уесть Р, Пз.' если х, есть Н, и х, есть Нг их, есть Н,, то уесть (з', где хп хъ х, — входные переменные, у — выход системы, (., (.г Ьз, Нн Нг, Н,, б, Р, Я вЂ” некоторые нечеткие множества с функциями принадлежности сигмоидного типа: (-,(х,) = , Н,(х ) = 1 1 1+ ехр(Ь;(х, — с, )) ' ' ' 1-~ ехр(-Ь, (х, — с; )) ' )=1,2,3, 1 1 б(г~) = Р(гг) 1+ехр(-Ь4(г,-с4 +сз)) 1+ехр( — Ьз(гг — с4)) 1 %зз) = 1 + ехр(Ь4 (гз — сз )) Для определения выходной переменной используется алго- Ритм вывода Тзцкагпо1о (см.
Равд. 3.2), в соответствии с которым ° подсчитываются значения истинности предпосылок для каждого правила: а, =1,(х,)ЛЬг(хг)ЛЬз(хз) аг = Н,(х,) Л Нг(хг) Л "-з("з) 129 Правиро 1 ф 1 и Правило 2 Л 1 77 правило 3 р 1 к, к к к 1 К Рис 3 17 ИллюстрациЯ Влгорвтма ВЫВОДИ Таихал1010 В начаткОЙ наЙроннОЙ сити 17з — Н,(х,) Л Н,(х,) Л Н,(х,), где х1, хв хз — текущие значения входов системы, ° для каждого правила определяются частные выходы -1 1 1 — а, г1 = Я (а1) = с4 + сз 4- — 1и Ь4 а\ 1 1 — аз гз в Р (а,)=с,а — 1и (З 4 1 1 — аз гз = )1т (аз ) = С4 -1- — 1п (14 аз ° находится общий выход системы акг1 4-аггг 4 азгз го а1 + аг + аз Изложенный процесс иллюстрируется рис. 317.
130 Слой 1 Слой 2 Слой 3 Слой 4 Слой 5 х1 хг з Рис 3 15 Структуре нечеткой нейронной сети (ерхитектура АМТВ) Нечеткая нейронная сеть, реализующая приведенный механизм вывода, представлена на рис 3 18 Заметим, что сети с подобной архитектурой в англоязычной литературе получили название А)чг(Я (Аеарбче )к)ецго-Рцггу(п(егепсе Яуз(егп) Данная сеть может быть описана следующим образом ° Слой 1 Выходы нейронов этого слоя представляют собой значения функций принадлежности при конкретных (заданных) значениях входов ° Слой 2 Выходами нейронов этого слоя являются степени истинности предпосылок каждого правила базы знаний системы, вычисляемые по формулам а, = (.,(х,)Л (.г(хг)Л (.з(хз), аг = Нз(х,) Л Нг(хг) Л (з(хз) аз — — Н,(х,) Л Нг(хг) Л Нз(хз) Все нейроны слоя обозначены буквой Т, что означает, что они мокнут реализовывать произвольную (-норму для моделирования операции «И» ° Слой 3 Нейроны этого слоя вычисляют величины а! аг аз у), = угг = Фз = а1+аг еаз а, ч- аз ч.
а з ак еаг ч аз е Слой 4 Нейроны данного слоя выполняют операции 131 А21 = 7716 (а1) Ргкг = Р27» '(аг) У7зкз = »727»' (аз) ° Спой 5 Единственный нейрон этого слоя вычисляет вы. ход сети: 20 = 77121 +»7222 +»7222 Корректировка параметров системы дпя функций принад пежности 8, Р и 77 производится в соответствии с ранее рассмот ренным подходом Так, например, настройка коэффициентов дпя функций принадлежности Ь4.
с, и сз осуществляется по формулам. '7 - а» 4 аз аз Ь4 .= Ь4 — а — = Ь4 — — д» ГЬ4 Ь42 а1+ аг + аз йЕ» а14аг+аз с4 .— с4»7 = с4 + 27д» = с4 +»7а», СС4 а!+ а2 + аз сЕ„а, сз .'= Сз»7 = сз + 27д» ссз а1+ аг "аз где д'„= у — о » Соответствующие выражения могут быть получены и дпя остальных коэффициентов: Ь, и с„7' = 1, 2, 3 Генерация нечелгкик правил Можно выделить два подхода к модификации топологии нечеткой нейронной сети на этапах обучения и использования. Первый, традиционный подход основан на введении дополнительньж продукционных правил в базу знаний системы При этом следует учитывать непротиворечивость ее пополнения Другой подход предполагает генерацию новых продукционных правил, не противоречащих правилам из базы знаний системы, исходя из анализа экспериментальных данных об объекте на основе предложенной одним из авторов книги процедуры, которая рассмотрена ниже.
Предположим, что исследуемый объект имеет и входов (иначе, векторный вход х) и один выход у и имеет «истинное» (неизвестное) описание у=у(х) + е. где 7(к) — функция неизвестного вида, е — случайная аддитивная помеха (отражающая действие не учитываемых факторов) с нулевым средним значением и произвольным (неизвестным) распре. делением на (-е, к ). Предположим далее, что на объекте может быть реализован эксперимент, заключающийся в регистрации д7 пар значений <х, у>, !'= 1, ..., И, при этом величины (векгоры) х, измеряются без ошибок, значение И при необходимости допускает модификацию Алгоритм построения системы может быть теперь описан следующим образом.
ШАГ 1. Из т (гп < М) произвольных значений <х,, у, > составпяется начальная база знаний модели, отображаемая матрицей ц,ч„,п со строками вида <х,, у, > = <х„, х„, ..., х„, у> т Такое представление, очевидно, зквивапентно набору продукционных правип вида: П,. если х, есть А„их, есть А„и ... и к„есть А,„, то у = у„ (=1,, гп, ШАГ 2. Дпя каждой новой зкспериментапьной точки <х, у> рассчитывается прогнозируемое значение по формуле, соответствующей рассмотренному центроидному методу. ~ у, р(((х — х, (() у=' ~ р(((х — х, ()) где д( ° ) — функция копокопообразной ипи экспоненциапьной формы.
р~)х — х,(/)= ехр(-Л~)х, — х„!), 1=1 ! 2 — параметр функций. ШАГ 3. Проверяется неравенство > г(, где б — заданная константа, определяющая погрешность аппроксимации. При выполнении неравенства база знаний системы пополняется путем расширения матрицы У (добавлением строки <к, у ).
В противном случае матрица достается без изменений ШАГ 4. Проверяется правило останова В данном варианте алгоритма построение модели считается законченным, если в соответствии с шагами 2 и 3 перебраны все И экспериментальных точек (без учета значений начальной базы знаний). Если не все экспериментальные точки использованы, то Осуществляется переход к шагу 2, в противном случае — останов. В процессе реализации алгоритма параметры Я и о считаются априори заданными. 133 Слой 2 Слой 3 Слой 1 х, Хг Рис.
3.19 Нечеткая нейронная сеть для рецкения задач классификации При использовании системы заданными считаются матрица 0 (на этапе использования модели она не изменяется), отмеченные параметры 2 и й, и расчет у производится в соответствии с шагом 2 приведенного алгоритма. Нетрудно видеть, что описанный алгоритм, в сущности, соответствует упрощенному алгоритму нечеткого логического вывода (см. разд. 3 2), но отличается от последнего тем, что база знаний не остается фиксированной, а модернизируется по мере поступления экспериментальных данных Причем непротиворечивость нового продукционного правила относительно набора правил из базы знаний гарантируется предложенной процедурой ее пополнения.
3.5. Нечеткий классификатор Рассмотрим, как с помощью нечеткой нейронной сети может быть решена задача классификации. Допустим, что объекты ха. рактеризуется двумя признаками х, и хг и относится к одному иг двух классов — С, или Сг Каждый вход представляется двумя пин. гвистическими понятиями, что позволяет ограничиться всего че тырьмя правилами. Одна из возможных структур нечеткой нейронной сети дпг решения подобной задачи приведена на рис.
3.19. Сеть состоит из трех слоев нейронов. ° Слой 1. Выходы нейронов данного слоя определяют сте пени принадлежности входных переменных к соответствующие' нечетким множествам Ян Яь Вн Вг 134 А,(х~) = ехР—— 2 1 х2 э12 ~ 2( Ьз В,(хг) =ехр )'=1,2, с набором параметров а»ч ая, Ьн, Ьв. Значения этих параметров корректируются в процессе обучения сети, основанном на градиентном методе. ° Спой 2. Каждый нейрон этого слоя является нечетким нейроном «И». ° Спой 3. Нейроны данного слоя являются обычными нейронами, осуществляющими взвешенное суммирование значений выходов нейронов предыдущего слоя А их выходы формируются с использованием активационных функций, например, сигмоидного типа.
Эти выходы трактуются как степени принадлежности предъявленного объекта первому ипи второму классу. Алгоритм обучения данной сети не отличается от ранее рассмотренного. 3.6. Генетические алгоритмы 3.6.1. Естественный отбор в природе Согласно эволюционной теории каждый биологический вид цепенаправпенно развивается и изменяется дпя того, чтобы наилучшим образом приспособиться к окружающей среде Эволюция в этом смысле представляет процесс оптимизации всех живых организмов Природа решает зту задачу оптимизации путем естественного отбора. Его суть состоит в том, что более приспособленные особи имеют больше возможностей дпя выживания и размножения и, спедоватепьно, приносят больше потомства, чем плохо приспособленные особи.