Главная » Просмотр файлов » Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика

Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика (778918), страница 21

Файл №778918 Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика (Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика) 21 страницаКруглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика (778918) страница 212017-12-21СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 21)

Степени истинности правил определяются в данном случае соотношениями: 127 0,5 х 1 2 Рис. 3.16 Симметричные функции принедпемности Конечные выражения являются достаточно громоздкими, но могут быть упрощены в случае, если функции принадлежности имеют вид: А,(х) = 1 Аз(х) 1 1+ ехр(-Ь(х — а)) 1е ехр(Ь(х — а)) Данные функции характеризуются всего двумя параметрами (а и Ь), в определенном смысле являются симметричными (рис.

3 16) и удовлетворяют уравнению: А,(х) е А,(х) = 1. Заметим, что из последнего и ранее полученных уравнений следует: а:=а где дЕ„(а,Ь) и и до" е х д( и =(о — У ) — =(Π— У ) — ~г1А,(х )е гзАз(х и)1 да да да = (о" — У") — (г,А,(х )е г,(1 — А,(х")))= М дА1(х ) = (о — У )(г1 — гг) да 128 дЕи х г,:ы г -дг — = г — л(о 1 дЕ, гз .= гз — 'ч — = ге — ц(о дгз Последующие выкладки у" ) ' = г, — г)(о" — У~)А,(х"), "1 наг У) м аз = гз — ~1(о — У )А,(х ) х м и а, еаз таковы: дЕ„(а, Ь) да ехр(Ь(х" — а)) у ~~ гг ) 1г + ехр(Ь(х — а))) = (о" — у" )(г, — г )ЬА,(х" )(1 — А,(х" )) = =(о" — у")(з, — зг)ЬА,(х")А,(х") сЕ,(а, Ь) дЬ где дЕ(аЬ) „х с~ 1 = (о — у )(г~ — гг )— сЬ сЬ(1+ ехр(Ь(х" — а))~ = (о' — у")(г, — г, Кх" — а)А,(х")(1- А,(х")) = = (о" — у")(з, — г,)(х" — а)А,(х")А,(х").

Приведенные выкладки, как представляется, полностью ил- люстрируют идеи алгоритмов обучения и использования нечеткой нейронной сети. Рассмотрим другой пример нечеткой системы, имеющей следующую базу знаний; П, если х, есть(„ихгестьбгих,есть бз, тоуестьб, Пг если х~ есть Н, и хг есть Нг и хз есть! з, то уесть Р, Пз.' если х, есть Н, и х, есть Нг их, есть Н,, то уесть (з', где хп хъ х, — входные переменные, у — выход системы, (., (.г Ьз, Нн Нг, Н,, б, Р, Я вЂ” некоторые нечеткие множества с функциями принадлежности сигмоидного типа: (-,(х,) = , Н,(х ) = 1 1 1+ ехр(Ь;(х, — с, )) ' ' ' 1-~ ехр(-Ь, (х, — с; )) ' )=1,2,3, 1 1 б(г~) = Р(гг) 1+ехр(-Ь4(г,-с4 +сз)) 1+ехр( — Ьз(гг — с4)) 1 %зз) = 1 + ехр(Ь4 (гз — сз )) Для определения выходной переменной используется алго- Ритм вывода Тзцкагпо1о (см.

Равд. 3.2), в соответствии с которым ° подсчитываются значения истинности предпосылок для каждого правила: а, =1,(х,)ЛЬг(хг)ЛЬз(хз) аг = Н,(х,) Л Нг(хг) Л "-з("з) 129 Правиро 1 ф 1 и Правило 2 Л 1 77 правило 3 р 1 к, к к к 1 К Рис 3 17 ИллюстрациЯ Влгорвтма ВЫВОДИ Таихал1010 В начаткОЙ наЙроннОЙ сити 17з — Н,(х,) Л Н,(х,) Л Н,(х,), где х1, хв хз — текущие значения входов системы, ° для каждого правила определяются частные выходы -1 1 1 — а, г1 = Я (а1) = с4 + сз 4- — 1и Ь4 а\ 1 1 — аз гз в Р (а,)=с,а — 1и (З 4 1 1 — аз гз = )1т (аз ) = С4 -1- — 1п (14 аз ° находится общий выход системы акг1 4-аггг 4 азгз го а1 + аг + аз Изложенный процесс иллюстрируется рис. 317.

130 Слой 1 Слой 2 Слой 3 Слой 4 Слой 5 х1 хг з Рис 3 15 Структуре нечеткой нейронной сети (ерхитектура АМТВ) Нечеткая нейронная сеть, реализующая приведенный механизм вывода, представлена на рис 3 18 Заметим, что сети с подобной архитектурой в англоязычной литературе получили название А)чг(Я (Аеарбче )к)ецго-Рцггу(п(егепсе Яуз(егп) Данная сеть может быть описана следующим образом ° Слой 1 Выходы нейронов этого слоя представляют собой значения функций принадлежности при конкретных (заданных) значениях входов ° Слой 2 Выходами нейронов этого слоя являются степени истинности предпосылок каждого правила базы знаний системы, вычисляемые по формулам а, = (.,(х,)Л (.г(хг)Л (.з(хз), аг = Нз(х,) Л Нг(хг) Л (з(хз) аз — — Н,(х,) Л Нг(хг) Л Нз(хз) Все нейроны слоя обозначены буквой Т, что означает, что они мокнут реализовывать произвольную (-норму для моделирования операции «И» ° Слой 3 Нейроны этого слоя вычисляют величины а! аг аз у), = угг = Фз = а1+аг еаз а, ч- аз ч.

а з ак еаг ч аз е Слой 4 Нейроны данного слоя выполняют операции 131 А21 = 7716 (а1) Ргкг = Р27» '(аг) У7зкз = »727»' (аз) ° Спой 5 Единственный нейрон этого слоя вычисляет вы. ход сети: 20 = 77121 +»7222 +»7222 Корректировка параметров системы дпя функций принад пежности 8, Р и 77 производится в соответствии с ранее рассмот ренным подходом Так, например, настройка коэффициентов дпя функций принадлежности Ь4.

с, и сз осуществляется по формулам. '7 - а» 4 аз аз Ь4 .= Ь4 — а — = Ь4 — — д» ГЬ4 Ь42 а1+ аг + аз йЕ» а14аг+аз с4 .— с4»7 = с4 + 27д» = с4 +»7а», СС4 а!+ а2 + аз сЕ„а, сз .'= Сз»7 = сз + 27д» ссз а1+ аг "аз где д'„= у — о » Соответствующие выражения могут быть получены и дпя остальных коэффициентов: Ь, и с„7' = 1, 2, 3 Генерация нечелгкик правил Можно выделить два подхода к модификации топологии нечеткой нейронной сети на этапах обучения и использования. Первый, традиционный подход основан на введении дополнительньж продукционных правил в базу знаний системы При этом следует учитывать непротиворечивость ее пополнения Другой подход предполагает генерацию новых продукционных правил, не противоречащих правилам из базы знаний системы, исходя из анализа экспериментальных данных об объекте на основе предложенной одним из авторов книги процедуры, которая рассмотрена ниже.

Предположим, что исследуемый объект имеет и входов (иначе, векторный вход х) и один выход у и имеет «истинное» (неизвестное) описание у=у(х) + е. где 7(к) — функция неизвестного вида, е — случайная аддитивная помеха (отражающая действие не учитываемых факторов) с нулевым средним значением и произвольным (неизвестным) распре. делением на (-е, к ). Предположим далее, что на объекте может быть реализован эксперимент, заключающийся в регистрации д7 пар значений <х, у>, !'= 1, ..., И, при этом величины (векгоры) х, измеряются без ошибок, значение И при необходимости допускает модификацию Алгоритм построения системы может быть теперь описан следующим образом.

ШАГ 1. Из т (гп < М) произвольных значений <х,, у, > составпяется начальная база знаний модели, отображаемая матрицей ц,ч„,п со строками вида <х,, у, > = <х„, х„, ..., х„, у> т Такое представление, очевидно, зквивапентно набору продукционных правип вида: П,. если х, есть А„их, есть А„и ... и к„есть А,„, то у = у„ (=1,, гп, ШАГ 2. Дпя каждой новой зкспериментапьной точки <х, у> рассчитывается прогнозируемое значение по формуле, соответствующей рассмотренному центроидному методу. ~ у, р(((х — х, (() у=' ~ р(((х — х, ()) где д( ° ) — функция копокопообразной ипи экспоненциапьной формы.

р~)х — х,(/)= ехр(-Л~)х, — х„!), 1=1 ! 2 — параметр функций. ШАГ 3. Проверяется неравенство > г(, где б — заданная константа, определяющая погрешность аппроксимации. При выполнении неравенства база знаний системы пополняется путем расширения матрицы У (добавлением строки <к, у ).

В противном случае матрица достается без изменений ШАГ 4. Проверяется правило останова В данном варианте алгоритма построение модели считается законченным, если в соответствии с шагами 2 и 3 перебраны все И экспериментальных точек (без учета значений начальной базы знаний). Если не все экспериментальные точки использованы, то Осуществляется переход к шагу 2, в противном случае — останов. В процессе реализации алгоритма параметры Я и о считаются априори заданными. 133 Слой 2 Слой 3 Слой 1 х, Хг Рис.

3.19 Нечеткая нейронная сеть для рецкения задач классификации При использовании системы заданными считаются матрица 0 (на этапе использования модели она не изменяется), отмеченные параметры 2 и й, и расчет у производится в соответствии с шагом 2 приведенного алгоритма. Нетрудно видеть, что описанный алгоритм, в сущности, соответствует упрощенному алгоритму нечеткого логического вывода (см. разд. 3 2), но отличается от последнего тем, что база знаний не остается фиксированной, а модернизируется по мере поступления экспериментальных данных Причем непротиворечивость нового продукционного правила относительно набора правил из базы знаний гарантируется предложенной процедурой ее пополнения.

3.5. Нечеткий классификатор Рассмотрим, как с помощью нечеткой нейронной сети может быть решена задача классификации. Допустим, что объекты ха. рактеризуется двумя признаками х, и хг и относится к одному иг двух классов — С, или Сг Каждый вход представляется двумя пин. гвистическими понятиями, что позволяет ограничиться всего че тырьмя правилами. Одна из возможных структур нечеткой нейронной сети дпг решения подобной задачи приведена на рис.

3.19. Сеть состоит из трех слоев нейронов. ° Слой 1. Выходы нейронов данного слоя определяют сте пени принадлежности входных переменных к соответствующие' нечетким множествам Ян Яь Вн Вг 134 А,(х~) = ехР—— 2 1 х2 э12 ~ 2( Ьз В,(хг) =ехр )'=1,2, с набором параметров а»ч ая, Ьн, Ьв. Значения этих параметров корректируются в процессе обучения сети, основанном на градиентном методе. ° Спой 2. Каждый нейрон этого слоя является нечетким нейроном «И». ° Спой 3. Нейроны данного слоя являются обычными нейронами, осуществляющими взвешенное суммирование значений выходов нейронов предыдущего слоя А их выходы формируются с использованием активационных функций, например, сигмоидного типа.

Эти выходы трактуются как степени принадлежности предъявленного объекта первому ипи второму классу. Алгоритм обучения данной сети не отличается от ранее рассмотренного. 3.6. Генетические алгоритмы 3.6.1. Естественный отбор в природе Согласно эволюционной теории каждый биологический вид цепенаправпенно развивается и изменяется дпя того, чтобы наилучшим образом приспособиться к окружающей среде Эволюция в этом смысле представляет процесс оптимизации всех живых организмов Природа решает зту задачу оптимизации путем естественного отбора. Его суть состоит в том, что более приспособленные особи имеют больше возможностей дпя выживания и размножения и, спедоватепьно, приносят больше потомства, чем плохо приспособленные особи.

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6418
Авторов
на СтудИзбе
307
Средний доход
с одного платного файла
Обучение Подробнее