Главная » Просмотр файлов » Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение

Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912), страница 48

Файл №778912 Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение) 48 страницаБодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912) страница 482017-12-21СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 48)

324 Рис. 22.3 — Структура последовательно-параллельной идентификации Модель в пространстве состояний имеет вид с х(/с+1) = Ч'(х(7с),и(й)), И(й) = Ф(х(Ус)), (22.2) априори неизвестные. На рис. 22.4 приведена схема системы идентификации объекта управления, заданного в пространстве состояний, особенностью которой является наличие двух нейронных сетей, одна из которых аппроксимирует неизвестное отображение 'Р( ° ), а вторая — Ф( ° ). При этом предполагается, что все состояния х(й) измеримы, а сам объект устойчив (2461. В качестве ИНС~ и ИНС~ в этой схеме могут быть использованы те же нейросети, что применяются в структурах на рис.

22.2, 22.3, однако более предпочтительным для идентификации в пространстве состояний является использование [321 рекуррентных сетей Элмена и Джордана (подразделы 9.3, 9.4), в которых в контекстные слои «встроена» обратная связь с задержкой на один такт. 32б где х(Й),и(®), сУ(Й), — (и х1), (г х1), (т х1) - векторы состояний, управлений и выходов соответственно; Ч'(е)„Ф(е) — статические нелинейные отображения, 22 НЕЙРОСЕТЕВАЯ ИДЕНТИФИКАЦИЯ ДИНАМИЧЕСКИХ СИСТЕМ вЂ” х(й+ 1) — у(й+ 1) Рис.

22.4 — Система идентификации в пространстве состояний Главным недостатком рассмотренных схем, в основе которых лежат ставшие уже традиционными архитектуры и алгоритмы обучения, является низкая скорость настройки, определяемая большим числом синаптических весов, которое растет геометрически в зависимости от количества входных сигналов л,т+ п„л. В связи с этим Э. Бэком и А. Цоем 1392 — 3951 в развитие идей Э. Вана (раздел 19) были предложены локально-рекуррентные нейронные сети, архитектура которых приведена на рис.

22.5 и практически совпадает с архитектурой прогнозирующей многослойной ИНС (см. рис. 19.1). х® = п=п, т=п,„ Рис. 22.5 — Многослойная локально-рекуррентная нейронная сеть Основное отличие этой сети состоит в конструкции нейронов, образующих многослойную архитектуру, чьи синапсы являются цифровыми адаптивными рекуррентными фильтрами с бесконечной импульсной характеристикой (БИХ— фильтры, ПК -фильтры) 154, 396~. Для обучения этих сетей была предложена группа градиентных алгоритмов 1394, 3951, в основе которых лежит концепция обратного распространения ошибок.

Необходимо отметить широкие функциональные возможности локально рекуррентных сетей. Так кроме исходной ХАКМАХ-модели, данные сети «перекрывают» популярные в теории нелинейной идентификации модели Винера 327 Гаммерштейна у(Й) = Н(2 )я(х(/с)) (22.4) и Урысона (22.5) где,[,(е) — некоторая статическая нелинейная функция; Н(~ ') = В(~ ')А '(~ ')— линейная компонента модели, образованная полиномами от оператора сдвига назад е '. Базовым элементом локально-рекуррентной нейронной сети является динамический БИХ-нейрон (22.6), синапсы которого являются по сути адаптивными БИХ-фильтрами (рис.

22.7). Отображение, реализуемое БИХ-синапсами и динамическим нейроном 1- го слоя сети, в целом может быть записано в виде ив[ "1 (22.6) [и[](~о) ~ [й-ц(~о) [=о (22.7) х[ [® х['[([) Рис. 22.6 — Динамический БИХ-нейрон 328 22 НЕЙРОСЕТЕВАЯ ИДЕНТИФИКАЦИЯ ДИНАМИЧЕСКИХ СИСТЕМ .к~ !(7с) Рис. 22.7 — Синапс-БИХ-фильтр ""ц(~) = "'( !"цж)) (22.8) где р=! (22.9) !ьц(® 1) !г+ц(~, ш))т Можно заметить, что динамический БИХ-нейрон является объединением линейного адаптивного рекуррентного фильтра со стандартным нелинейным статическим нейроном, при этом для линейной части справедливы соотношения, реализуемые БИХ-фильтрами и(Й) = ~ м р(А)х(7с — р)+ ~ 7р(А)и(Ус — р), (22.10) 329 р=О (22.11) 1 — ~1„ р=1 где и(/с), х(й) - выходной и входной сигналы фильтра соответственно; ь„(/с)- настраиваемые коэффициенты скользящего среднего (МА); ~ (1) настраиваемые коэффициенты автор егрессии (АК); ы - установившееся значение на выходе фильтра после окончания процесса настройки.

Отметим также, что адаптивный БИХ-фильтр представляет собой настраиваемую модель авторегрессии-скользящего среднего вида Ъ'(/с,~ ')и(lс) = Ис(1с, - ')х(/с). (22.12) Таким образом, каждый синапс содержит п~," = п~," + п"'+1 настраиваемых параметров, каждый нейрон - и"',, = и, (п",' + и„",' + 1) +1, каждый слой с и'„'~~, =л„,(л,(л~,"+п~" +1)+1), а Е-слойная сеть имеет ~) и„, нейронов с с=1 Е~ =~~) Е(сс) = — ~ '1е(й)() = — ~ ~~ с,.ф), г,, 2..., (22.13) где е(х) = (е, (1с), е2 (1с),..., е„(сс)); е,. (1с) = с1,. Я) — х~.'"л (1с) = И,. (1с) — у,. (1с); И,.

(й) внешний обучаю1ций сигнал, в качестве которого в задаче идентификации используют текущее значение выхода идентифицируемой системы. Для синтеза алгоритма обучения необходимо ввести в рассмотрение ошибку обратного распространения (ь.ц(~,) дх" л(ус) ~1 (22.14) и локальную ошибку 330 и., =1 (и„,(и,(в,',л +п~" + 1)+1)) настраиваемыми синаптическими весами. 1=1 Наиболее эффективным алгоритмом настройки локально-рекуррентных нейронных сетей на сегодня является процедура рекурсивного обратного распространения ошибок (Кеспгяче еггог Ьас1сргорада11оп — КВР (397)), обеспечивающая минимизацию критерия обучения 22 НЕЙРОСЕТЕВАЯ ИДЕНТИФИКАЦИЯ ДИНАМИЧЕСКИХ СИСТЕМ ~[[.~-1] (1 ) .l д [1+1] (У ) (22.15) связанные между собой соотношением о['"]Ж) = ""]Ж)]~[" ( ""' Ж)).

.[ "] (22.16) где [, ди[~м](~,) д [']Ж)- !']Ж 1) []]Ж)= „[']Ж) дЕ д' ( )- ди,'."" (Ус) ди,",.„' ди[,' ~(Й) = у[" ®Ф'"]® 1 д]]'" (22,18) — изменение весов на одном такте настройки. Для коэффициентов авторегрессии используем аналогичные соотношения (22.19) ди [."'] (]1) Д[ ['[ (к) = и "](кЯ'~](1[) ,,р ] дг[.'.] [[р (22.20) Вводя общее обозначение для синаптических весов [[~~], можно записать алгоритм настройки отдельного параметра (22.21) и синапса в целом з[,"(И+ 1) = ~,",] ®)+]1 "] И)И,""" Ж)~, и',"л Ж) = = К"](®)+г)[" (аде[ив](~)]1 '" ( ["л(~))][]', [""ж), (22.22) 331 Применяя цепное правило дифференцирования, можно записать вариацию параметров скользящего среднего за эпоху обучения в виде для реализации которого необходимо вычислить производные в (22.18) и (22.20), локальную ошибку д,ь л(й), а также задать параметр шага т1"'(й) .

Используя известное соотношение из теории адаптивной фильтрации 154, 68, 3731 для фильтра (22. 10) диж) " ди(ж- ) дир,, д»»р ъ'(й,~ ) (22.23) '"' ди(У» — ») 1 р) + ~~1 =, и(/» — р), д», ъ'(й,. ) ди(/с) д„ (22.24) а также с учетом того, что д",''лж) ди,", лж) (22.25) И,И дх,,„дю,,„ получаем (22,26) д~...,, ды,,„ (22.27) др» ». л' дЕ» ди ~ "л (1») е,'.""(Ж) = — = — Ъ вЂ” и,л(„) — /,Ед и.л(у,) д „,л(у,) (22.28) для всех 1< Ь. С учетом ошибки выходного слоя можно окончательно записать е,.(Й), если1=Е„ ди (Й+ г) (22.29) где частные производные во втором соотношении имеют вид [3741 332 Для вычисления локальной ошибки д,"."'(»») можно воспользоваться соотношением (22.16), в котором ошибка обратного распространения е',."л(й) в общем случае имеет вид 22 НЕЙРОСЕТЕВАЯ ИДЕНТИФИКАЦИЯ ДИНАМИЧЕСКИХ СИСТЕМ дх~'+л Ж) 0 е ггротггенолг случае Р=! " дл,"+л Ж) Вводя обозначение Ч !'! (и!'""Ж))С7, игг"'гж) = у,"гж), (22.31) перепишем (22,22) в виде Я!'гЖ+1) =5!!(~)+ кгпв) "гФ)1"гЖ) (22.32) после чего, используя технику преобразования алгоритма ЛевенбергаМаркварта (382, 3901 и обеспечивая процедуре обучения сглаживающие свойства, окончательно приходим к достаточно простому выражению типа (19.27) Я!!!И+1) = ггггй)+ ',, 1<1< Е„ А!!!(г„) Рвай+1) =аР,"М+)!.~гл(1-))(, О<а <1.

(22.33) 333 Таким образом процесс обучения многослойной локально-рекуррентной сети может быть реализован в виде следующей последовательности шагов: )~ вычисление ошибки обратного распространения е',.'"'!(й) в соответствии с (22.29) для всех й =1,2,..., У; г вычисление локальной ошибки о," ."(к) в соответствии с (22.16) для всех й = 1,2,...,М; ) вычисление производных сигнала внутренней активации и,!."'!(й) по настраиваемым синаптическим весам в соответствии с (22.2б), (22.27); )г' вычисление оптимального значения параметра шага г)'~г(/с) = (р',кг(1г)) ' с помощью второго соотношения (2233); ) уточнение вектора параметров каждого синапса 5,'.,".(й) с помощью первого соотношения (22,33); ~' вычисление локальных приращений весов в соответствии с (22.18), (22.20); уточнение синаптических весов за эпоху в соответствии с (22.17), (22.19).

Несмотря на некоторую численную громоздкость процесса обучения локально-рекуррентных сетей, сокращение числа настраиваемых весов позволяет повысить скорость процесса идентификации, что особенно важно при работе с нестационарными динамическими объектами управления. 23 УПРАВЛЕНИЕ НА ОСНОВЕ НЕЙРОННЫХ СЕТЕЙ Управление динамическими объектами и системами в условиях структурной и параметрической неопределенности является еще одним важным направлением в приложениях нейронных сетей, которому в настоящее время уделяется достаточно много внимания [22, 23, 25, 28, 29, 31, 34, 38, 90, 246, 398- 4031. Нейросетевые системы управления, или нейрорегуляторы имеют ряд существенных преимуществ перед обычными системами автоматического управления, среди которых особенно следует выделить возможности обработки больших объемов сенсорной информации [321, высокое быстродействие, достигаемое благодаря распараллеливанию вычислений [231, возможность работы с существенно нелинейными объектами, о структуре и параметрах которых практически ничего неизвестно [2461.

Как показано в [404-4061, нейрорегуляторы являются развитием адаптивных систем управления [65, 98-102~ и подобно им условно могут быть разбиты на два класса: непрямые и прямые системы 1подразделы 4,2.4). На рис.23.1, 23.2 приведены основные схемы адаптивного управления, а на рис.23.3, 23.4 — структура непрямого и прямого нейрорегуляторов. Рис.

23.1 — Адаптивная непрямая система управления На вход любой из систем управления поступает внешний задающий сигнал д(1), который подается параллельно на регулятор и эталонную модель, определяющую желаемое поведение объекта управления. Заметим, что наличие эталонной модели не является обязательным, при этом цель управления определяется требованием устойчивого и точного слежения выходом объекта у(/с) за внешним сигналом (уставкой) И(/с) . 334 В адаптивной непрямой системе управления параллельно объекту подключена настраиваемая модель, параметры которой непрерывно уточняются с помощью того или иного алгоритма адаптивного оценивания, минимизирующего в реальном времени целевую функцию от ошибки идентификации е, (й) = у(й) — у(1), где у(й) — выходой сигнал реального объекта, у(й) - выход настраиваемой модели, Рис.

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
7021
Авторов
на СтудИзбе
260
Средний доход
с одного платного файла
Обучение Подробнее