Главная » Просмотр файлов » Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение

Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912), страница 40

Файл №778912 Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение) 40 страницаБодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912) страница 402017-12-21СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 40)

(7с) !! ',Ж)+г1Ж)(хЖ) —,Ж))!! принадлежат одной клетке, и,. (/с) — т)(/с)(х(й) — и, (к)) если х(Й) и и,(/с) !!и', И) — 7И)(хЖ) — '; Ж))!! (14.8) и,. (/с+1)— пранадлежат рссзным клеткам, и,. (/с) для нейронов, не победивших в момент 1с. !!- !! Инициализация алгоритма обучаемого векторного квантования может быть осуществлена различными способами, из которых в качестве простых, но достаточно эффективных можно отметить: )' выбор в качестве и,.(0), 1=1,2,...,т любых т векторов х(1с), принадлежащих разным клеткам Вороного; )' случайный выбор и,(0) в заданном интервале изменения входных сигналов. Условия останова алгоритма обучения в стационарном случае связаны, как правило, со стабилизацией положения прототипов всех кластеров; в нестационарном же случае процесс обучения протекает непрерывно.

Весьма интересным и перспективным приложением нейронных сетей векторного квантования является адаптивное распознавание образов с помощью схемы, приведенной на рис. 14.3 [9, 235]. 272 т.е, алгоритм (14.5) превращается в стандартную процедуру стохастической аппроксимации. При а с 1 алгоритм приобретает следящие свойства, необходимые в случае, если центроиды кластеров дрейфуют во времени. Отметим также, что нормирование выходных сигналов х(1с) вовсе не гарантирует того, что прототипы кластеров будут отвечать условию !!и,! =1, а невыполнение этого условия делает невозможным в качестве оценки расстояния использовать скалярное произведение (14.5). Обойти данное затруднение несложно, модифицировав правило обучения (14.6) следующим образом: 14 НЕЙРОННЫЕ СЕТИ ВЕКТОРНОГО КВАНТОВАНИЯ Классы образов х(й) Рис.

14З вЂ” Гибридная схема адаптивного распознавания образов на основе БОМ и 1.ЧЯ 273 Как видно, данная гибридная схема состоит из двух последовательно соединенных однотипных архитектур, первая из которых (карта Кохонена) работает в режиме самообучения, а вторая (нейросеть векторного квантования) — контролируемого обучения.

Из поступающего на вход системы вектора- образа х(к) достаточно высокой размерности карта Кохонена выделяет относительно малый набор признаков )ч'к), т.е. фактически осуществляет понижение размерности входного пространства без существенной потери информации.

На втором этапе 1 ЧЯ-сеть обучается классификации поступающих образов у(й) с помощью внешнего обучающего сигнала. Такая организация процесса распознавания позволяет увеличить его быстродействие и надежность. 15 НЕЙРОННЫЕ СЕТИ ВСТРЕЧНОГО РАСПРОСТРАНЕНИЯ и(й) = И~ ~х(А), (15.1) где и(И) =(и,(й),и,(/с),...,и„ф))'; И'к =(и;",), 1=1,2,..., Ь; 1=1„2,...,л — (йхп)— матрица настраиваемых синаптических весов. Выходной слой, именуемый также слоем Гроссберга, образован т выходными звездами и реализует преобразование я(() = Ъ'ви(А), (15.2) где ~'и =(»~), ~'=12,...,иг; 1=1,2,...„6 — (лгхй) — матрица настраиваемых синаптических весов. Поскольку в качестве нейронов сети обычно 274 Еще одним примером гибридных ИНС являются нейронные сети встречного распространения (Сопл(егргорада6оп пепга1 пе1ъ оголя), предложенные Р.

Хехт-Нильсеном 1314-3161 в качестве альтернативы многослойным сетям с прямой передачей информации, обучаемым на основе обратного распространения ошибок. Эти сети сокращают время обучения, как минимум, на порядок по сравнению с многослойными персептронами 14, 7, 2351, хотя несколько проигрывают им по точности. Исходно эти сети были разработаны для аппроксимации по экспериментальным данным некоторого отображения у=Г(х) и нахождения обратного оператора х=Г '(у), хотя впоследствии применялись в основном в задачах распознавания образов, компрессии данных, а также в качестве ассоциативной памяти. В простейшем случае сеть встречного распространения представляет собой гибрид самоорганизующейся карты Т.

Кохонена (раздел 13) и звезд С. Гроссберга (подразделы 4.7.2, 4.7З) и соответственно сочетает в себе конкурентное самообучение с контролируемым обучением с учителем. К настоящему времени известен ряд вариантов сетей встречного распространения, простейшим из которых является однонаправленная ИНС, чья архитектура приведена на рис.

15.1. Данная сеть предназначена для аппроксимации некоторого априори неизвестного оператора Г:Х вЂ” ~У, отображающего п — мерное пространство входов в и — мерное пространство выходов, по данным обучающей выборки х(1), у(1);х(2), у(2);...;х(М), у(Ф). Как видно из рисунка, нулевой слой сети содержит л+т рецепторов и условно может быть разбит на две секции, одна из которых передает на скрытый слой образ х(й) = (х,(/с),х,(/с),...,х„(/с))', а другая — на выходной слой образ у(/с) =(у,(/с),у.,(/с),...,у„,(7с))'. Скрытый слой, называемый также слоем Кохонена, представляет собой по сути самоорганизующуюся карту, содержит 6 нейронов и реализует преобразование 15 НЕЙРОННЫЕ СЕТИ ВСТРЕЧНОГО РАСПРОСТРАНЕНИЯ используются адаптивные линейные ассоциаторы, несложно записать преобразования, осуществляемые отдельными нейронами и, (/с) = и~~~ х(1с), 1 = 1,2,..., Ь; у,.

(1с) = г,.л и(й), 1 = 1,2„... т (15.3) и сетью в целом у(х) = Ъ'~И~~ х(х). (15.4) х, (1с) у,® х,(1с) у, (/с) хз® уз ('() х„® у,„(/с) у„(1с) ! Нулевой слой 1 ! ! в + т рецепторов ! ! 1 Рис. 15.1 — Однонаправленная нейронная сеть встречного распространения Обучение сети встречного распространения осуществляется в два этапа. На первом этапе по данным выборки х(1),х(2),...,х(М) в слое Кохонена происходит процесс самоорганизации, в результате которого входное пространство разбивается на множество кластеров, при этом, как правило, реализуется стратегия самообучения типа «победитель получает все»: 275 у,Ж) у.

Ф) у,.® ! Слой Кохонена ! ~Слой Гроссберга Ь нейронов ! т нейронов ! ! и, (Ус)+тУ (Ус)(х(Ус) — и,~(Ус)), если У вЂ” тый нейрон победил, и,~(Ус+!) = (15.5) и! (Ус) в противном случае. На втором этапе по выборке х(1)„у(1);х(2)„у(2);...;х(М),у(Ж) настраивается выходной слой в соответствии с правилом обучения выходной звезды (4,403) а,, (Ус + !) = ч,,' (!с) + тУ,(Ус)и, (!с)(ут(Ус) — 1,, (Ус)), (15.6) где 1, если! — тый нейрон побес)ил, и,(Ус) = О в противном случае, (15.7) Рис. 15.2 — Трехслойная сеть встречного распространения Еще более простым решением, позволяющим непрерывно обучать стандартную архитектуру сети встречного распространения, является использование в слое Кохонена биполярных функций соседства и соответственно алгоритма обучения (13.12).

Тогда общее правило обучения ИНС можно записать в виде с и,~(Ус+1) = и х(Ус)+ту .(Ус)и,(й)(х(й) — яу (Ус)), У =1,2,...,Уь ( 5.8) 1".(Ус+1) =1'У(Ус)+тУ,,(Ус)и(Ус)'..>''(у (Ус)Е, — и~т(Ус)), У' =1,2,...,т, 27б т.е. фактически происходит уточнение только тех весов, которые связывают нейроны слоя Гроссберга с нейроном-победителем слоя Кохонена. В результате, если на обученную сеть подать образ х(р), не принадлежащий обучающей выборке, то сначала в слое Кохонена будет установлена его принадлежность определенному кластеру, после чего нейрон- победитель «возбудит» выходные звезды так, что на их выходах появятся сигналы, соответствующие координатам прототипа (центроида) этого кластера. В принципе не возникает особых затруднений и в том случае, если обучение сети встречного распространения необходимо производить в реальном времени.

Для этого с целью обеспечения условия (15.7) достаточно между слоями Кохонена и Гроссберга подключить сеть МАХНЕТ (раздел 11) так, как это показано на рис. 15.2. 15 НЕЙРОННЫЕ СЕТИ ВСТРЕЧНОГО РАСПРОСТРАНЕНИЯ где ń— (6х1) — вектор, состоящий из единиц. Несложно заметить, что в этом случае слой Кохонена состоит из входных звезд, а слой Гроссберга — из выходных. В качестве примера такого подхода можно привести архитектуру автоассоциативной памяти, приведенную на рис. 15.3 и обучаемую с помощью правила (15.8), принимающего в данном случае вид ь, (/с+1) = ь, (1с)+г)„,(1с)ц(1с)(х(/с) — и, (/с)), 1=1,2,...,6; и~(1+1) = и~(1с)+т1,,(1с)и(1с) )(х,.(1с)ń— и~(1)), с =1,2„...,п. (15.9) х,(й) х, (Й) х,®) х, (1с) хз( ) х, (1с) х„й) х„(/с) Рис. 15.3 — Автоассоциативная память на основе ИНС встречного распространения Е,И)= — (у,Ж) — ~, ий)), (15.10) 277 Скорость обучения сетей встречного распространения может быть увеличена, если слой Гроссберга настраивать не с помощью правила обучения выходной звезды (4.403), а путем минимизации стандартной локальной целевой функции т,".ф+1) = ~ ,'.'(й)+т),,Я)нЯ)(У,.

(й) — и',.'"(й)и(й)), п„,(~) =!)и®! (15.11) где (15.12) обеспечивает процессу настройки весов выходного слоя высокие «скоростные» характеристики. Развитием архитектуры, приведенной на рис. 15.1, являются сплайн-сети встречного распространения [41, общий вид которых показан на рис. 15.4. х,1й х,(й) х, (Ус У,Ж) т„Ж) Рис. 15.4 — Сплайн-сеть встречного распространения 278 что ведет к оптимальному по быстродействию алгоритму Качмажа-Уидроу- Хоффа 15 НЕЙРОННЫЕ СЕТИ ВСТРЕЧНОГО РАСПРОСТРАНЕНИЯ Данная сеть обладает улучшенными аппроксимирующими свойствами за счет того, что в скрытый слой дополнительно введены сплайн-нейроны, в качестве которых могут выступать либо адаптивные линейные ассоциаторы, либо радиально-базисные элементы, либо любые иные формальные нейроны с нелинейными функциями активации.

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Зачем заказывать выполнение своего задания, если оно уже было выполнено много много раз? Его можно просто купить или даже скачать бесплатно на СтудИзбе. Найдите нужный учебный материал у нас!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
7028
Авторов
на СтудИзбе
260
Средний доход
с одного платного файла
Обучение Подробнее