Главная » Просмотр файлов » Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение

Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912), страница 44

Файл №778912 Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение) 44 страницаБодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912) страница 442017-12-21СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 44)

На рис. 18.1 приведена схема модифицированной искусственной нейронной сети Т. Сэнгера, набранной из нейронов Э. Оя и реализующей алгоритм (18.9). Первый слой сети образован нейронами-кодерами, осуществляющими предварительную обработку сигналов путем их центрирования и нормирования с помощью соотношений (17.3) и (17.9).

Далее сигналы х,(ус),х,(ус),...„х„(ус) путем решения задачи нелинейного программирования с помощью неопределенных множителей Лагранжа. Однако если обработка данных должна производиться в реальном времени, на первый план выходят нейросетевые технологии, среди которых следует отметить правило самообучения и нейрон Э. Оя, подробно рассмотренные в подразделе 4.7.5. Именно с помощью правила Оя в виде Няйрон Оя 'Х П ° Оя: ~+)- ',с,' я„(/с) Оя Рис. 18.1 — Нейронная сеть Т. Сэнгера обрабатываются во втором скрытом слое, образованном т нейронами Э.

Оя, после чего поступают на выходной слой, сформированный элементами с 300 18 НЕЙРОСЕТЕВАЯ КОМПРЕССИЯ ДАННЫХ активационными функциями-выпрямителями с зоной нечувствительности (рис. 1.3) и, если и >О, у(и) = 0 в противном случае, (18.10) что позволяет выделить информативные сигналы у,.

(й) и отсеять шум. Нейронная сеть Сэнгера является эффективным средством сжатия информации с минимальными потерями точности, однако ее возможности ограничены тем, что реализуя по сути стандартную технику факторного анализа, она решает линейную задачу, в то время как основным преимуществом нейросетевых технологий является возможность работы в сугубо нелинейных ситуациях.

Задача нелинейного факторного анализа эффективно может быть решена с помощью автоассоциативного трехслойного персептрона [27, 33, 236~, известного еще под названием «Бутылочное горлышко» (Вой1е пес1). На рис. 18,2 приведена схема автоассоциативного обучения многослойного персептрона, в процессе которого минимизируется модификация глобальной целевой функции (4.323) в виде Е' =~Е(lс) = — ~~(х,.(Й) — о','(Й)) = — ~~с,(Й). г„,, ' ' г...' (18.11) Рис. 18.2 — Автоассоциативный трехслойный персептрон 301 Обучение может быть осуществлено с помощью любой процедуры обратного распространения ошибок с тем отличием, что в качестве обучающего образа Ы(А) используется сам входной сигнал хай), подлежащий сжатию.

Возвращаясь к схеме трехслойного персептрона на рис. 2.4, отметим, что на нулевой слой поступает и-мерный вектор входных сигналов хай) (и, =и), первый скрытый слой содержит и, =и нейронов, второй скрытый слой— и, = и < и нейронов и выходной слой - и, = и нейронов. Целью ассоциативного обучения является восстановление на выходе сети сигнала о'"(й), наилучшим образом аппроксимирующего входной сигнал х(1). Собственно же сжатие информации происходит во втором скрытом слое, содержащем меньшее число нейронов, чем первый и выходной слои.

Именно с выхода второго скрытого слоя снимается «сжатый» сигнал у(Ус) = о' '~Ус), при этом в результате такого подхода к компрессии информации достигается оптимальное решение задачи нелинейного факторного анализа ~33). Заметим также, что если в качестве нейронов персептрона «Бутылочное горлышко» использовать адаптивные линейные ассоциаторы, приходим к решению стандартной задачи компонентного анализа, решаемой нейросетью Сэнгера, имеющей тем не менее преимущество перед многослойным персептроном по скорости обучения. 302 19 ПРОГНОЗИРОВАНИЕ ВРЕМЕННЫХ РЯДОВ С ПОМОЩЬЮ НЕЙРОННЫХ СЕТЕЙ 19 ПРОГНОЗИРОВАНИЕ ВРЕМЕННЫХ РЯДОВ С ПОМОЩЬЮ НЕЙРОННЫХ СЕТЕЙ В настоящем разделе рассмотрена задача прогнозирования многомерных стохастических временных рядов в условиях структурной и параметрической неопределенности, кратко отмеченная в подразделе 4.2.5 (рис.

4.8). Поскольку в общем случае природа наблюдаемой последовательности неизвестна, наиболее адекватным для прогнозирования в данной ситуации является применение искусственных нейронных сетей, позволяющих по прошлым наблюдениям восстанавливать нелинейное отображение вида [333 — 34Ц х(Ус) = Г(х(Ут — 1),х(Й вЂ” 2),...,х(Ус — ил))+е(Ус) = х(Ус)+е(Ус), (19.1) где х(Ут) — оценка (прогноз) значения х(Ус), полученная на выходе нейросети, представляющей в данном случае нелинейную авторегрессионную (МАК) модель; е(Ус) - ошибка прогнозирования. Возможность и эффективность использования МАК-модели (19.1) в задачах прогнозирования определяется теоремой Тэкенса о диффеоморфизме 1342], устанавливающей существование порядка модели п.

„который обеспечивает сколь угодно малое значение ошибки е(Ус), и универсальными аппроксимирующими свойствами ИНС. В качестве основы для построения 1ЧАК-моделей чаще всего используются многослойные сети с прямой передачей информации, входной (нулевой) слой которых образован линиями элементов чистой задержки;, ' с отводами. На рис. 19.1 приведена архитектура многослойной сети, а на рис. 19.2— схема стандартного формального статического нейрона! — го слоя, У = 1,2,...,У., с точностью до обозначений совпадающие со схемами на рис. 1.2, 2.4 б. и, х1 и, х! пп ~ х1 п,х1 п, х1 Выхолной скрытый слой Второй скрытый слой Первый скрытый слой Рис.

19.1 — т.-слойная нейронная сеть с прямой передачей информации На первый скрытый слой сети поступает л = п, = л = лш — мерный вектор х~ ~, сформированный в нулевом слое с помощью элементов задержки (т. 'хЖ) =х(й — 1)) и образованный прошлыми значениями прогнозируемого временного ряда х(й — 1),.х(Ус — 2),..., х(Ут — ~г"') . Выходным сигналом первого скрытого слоя является (лтх1) — вектор х~ ~, подающийся на вход второго скрытого слоя и т.д. На выходе т.-го (выходного) слоя появляется прогнозный 303 и = и„„-мерный вектор х.

Таким образом, каждый слой имеет и, входов и и„, выходов и характеризуется (и„, х(л, + 1)) -матрицей синаптических весов И" ш и (и„, х и„, ) -диагональным оператором Ч'"', образованным нелинейными активационными функциями у1.", / = 1,2,..., и„,. П 2 х Л Рис. 19.2 — Статический нейрон «Строительным блоком» такой сети является стандартный статический нейрон, реализующий нелинейное отображение (19.2) л, +1 синаптических весов и',.',.' которого подлежат уточнению в процессе обучения нейронной сети.

Всего сеть содержит ~~ (п, + 1)и,„, неизвестных параметров, настраиваемых l =! с помощью процедуры обратного распространения ошибок (подраздел 4.6), и состоит по сути из двух частей: статической ИНС, отвечающей за нелинейное отображение, и динамической памяти на элементах задержки, позволяющей сформировать на выходе сигнал, являющийся функцией времени. Именно эти сети известные также как ИНС с временными задержками (подраздел 9.5) получили наиболее широкое распространение в задачах прогнозирования временных последовательностей самой различной природы.

Общим недостатком прогнозирующих нейронных сетей на статических нейронах является чрезвычайно большое число настраиваемых весов и низкая скорость обучения, что, естественно, вызывает серьезные проблемы, особенно при работе в реальном времени. 304 19 ПРОГНОЗИРОВАНИЕ ВРЕМЕННЫХ РЯДОВ С ПОМОЩЬЮ НЕЙРОННЫХ СЕТЕЙ х!'М [и[! (~) Рис. 19.3 — Синапс — КИХ-фильтр Несложно видеть, что (19.3) или [! -[! ()с) [...[[[[: Х [[[~,с (19.4) где И~.'.ц =(и'..'„и"..[„...,и''„,); Х''(Ф) =(х-''(/с),х" (Й вЂ” 1),...,х''(1с — п'')) — ((и''+ +1)х1) - векторы. Тогда нелинейное отображение, реализуемое динамическим КИХ- нейроном, условное изображение которого приведено на рис.

19.4, можно записать в виде Л~ Ю~ х',"'[(Ус) =Ч/['"[(и["пж)) =Чl,"! Еи[!"[(й) =Чу[[! ЕИГ[l[тх![[(Ус) (19.5) 1=0 [=О 305 В связи с этим Э. Ваном было предложено [343-346) в прогнозирующих нейронных сетях вместо статических нейронов использовать их динамические аналоги (подразделы 1.7, 9.5), у которых синаптические веса образованы цифровыми адаптивными нерекурсивными фильтрами с конечной импульсной характеристикой (КИХ-фильтры, НК-фильтры) [68~ так, как это показано на рис. 19.3. Рис.

19.4 — Динамический КИХ-нейрон И хотя динамический нейрон содержит п,(п,'"+1)+1 параметров, что превышает количество синаптических весов обычного нейрона, сеть, построенная из таких узлов, содержит много меньше параметров, чем стандартная архитектура на статических нейронах с линиями задержки на входе. В [3441 было доказано, что в сети на статических нейронах с линиями задержки количество параметров растет в геометрической зависимости от пх, в то время как в ИНС на динамических нейронах число настраиваемых синаптических весов есть линейная функция от и„ и ~, кроме того такая сеть обладает универсальными динамическими аппроксимирующими свойствами [347). Для обучения ИНС на динамических нейронах в [343, 345) была введена градиентная процедура, получившая название обратного распространения ошибок во времени (Тетрога1 еггог Ьас1ргорадабоп — ТВР).

Используя стандартный одношаговый критерий обучения Е(Ж) = — ((еИ)1 = — ()஠— х(~)1 2 2 (19.6) (19.7) где параметр шага ц"'(й), определяющий скорость обучения, в ТВР-процедуре обычно принимается постоянным [343-346). Применяя далее цепное правило дифференцирования в виде (19.8) 306 (здесь И(й) - обучающий сигнал, в качестве которого в задачах прогнозирования принимается текущее значение х(й)), можно записать в общем виде алгоритм его минимизации 19 ПРОГНОЗИРОВАНИЕ ВРЕМЕННЫХ РЯДОВ С ПОМОЩЬЮ НЕЙРОННЫХ СЕТЕЙ получаем Ч'У'Ж+ 1) = И'У'Ж) -""'Ж) дЕ 'с) г~ '"ц Ж) я + — р ди (19.9) после чего с учетом очевидных соотношений й~ П( и+ц 11с) ~ и -ц1®) ~,' шт и11с) ф // ! (19.10) ю'=О ю'=О .'::ж) = Хи'ж) ~Ф (19.11) можно ввести локальную ошибку дай) ~и.ц(, ) ди ~'"ц (7с) (19.12) и окончательно представить алгоритм обучения (19.9) в форме 1+и1~+1) ~~,и1®), ~ц11с ~и-цхи111,) (19.13) Процесс вычисления локальных ошибок, следуя обычной методике обратного распространения, начинается с выходного слоя, выходной сигнал которого является и выходом сети в целом, т.е.

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Зачем заказывать выполнение своего задания, если оно уже было выполнено много много раз? Его можно просто купить или даже скачать бесплатно на СтудИзбе. Найдите нужный учебный материал у нас!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
7046
Авторов
на СтудИзбе
259
Средний доход
с одного платного файла
Обучение Подробнее