Главная » Все файлы » Просмотр файлов из архивов » Файлы формата DJVU » Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение

Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение, страница 7

DJVU-файл Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение, страница 7 Нейросетевое моделирование сложных технических систем (1759): Книга - 11 семестр (3 семестр магистратуры)Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение: Нейросетевое моделирование сложных технических систем - DJVU, страница 7 (1759) -2017-12-21СтудИзба

Описание файла

DJVU-файл из архива "Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение", который расположен в категории "". Всё это находится в предмете "нейросетевое моделирование сложных технических систем" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "книги и методические указания", в предмете "нейросетевое моделирование сложных технических систем" в общих файлах.

Просмотр DJVU-файла онлайн

Распознанный текст из DJVU-файла, 7 - страница

возбуждается только один выходной нейрон — «победитель». Наиболее яркими примерами сетей, использующих это правило, являются сети адаптивного резонанса (АКТ) и самоорганизующиеся карты (БОМ). Более подробно правила обучения, порождаемые ими алгоритмы и соответствующие им архитектуры нейросетей будут рассмотрены в последующих разделах. 4.2 Задачи обучения В настоящем подразделе рассмотрены некоторые прикладные инженерные задачи, решаемые нейросетями, обученными соответствующим образом. Естественно, что этот список далеко не полон и включает только проблемы, которые традиционно интересуют специалистов в области компьютерных наук, инженерии и управления.

4.2.1 Распознавание образов Наряду с обучением, распознавание является одной из основных функций биологического мозга. Получая данные из окружающего мира с помощью биологических сенсоров, мозг достаточно просто распознает источник данных и выделяет из него требуемую информацию. Так человек без особых проблем узнает знакомое лицо, хотя видел его давно и оно успело измениться, голос, искаженный телефонными помехами, город, в котором не был много лет. Это узнавание и есть результат обучения, причем в идеальном случае нейросеть должна узнавать предъявляемые ей образы не хуже, чем это делает живой организм.

Формально распознавание образов определяется как процесс, в результате 44 4 ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ которого получаемый образ (сигнал) относится к одному из априори назначенных классов (категорий) ~33, 94-97). В процессе обучения нейросети предъявляются различные образы с известной классификацией (обучающая выборка), а в результате сеть должна распознать объект, который ранее не предъявлялся, но который принадлежит той же совокупности, что и обучающая выборка. Задача распознавания статистична по своей природе, при этом образы представляются случайными векторами в многомерном пространстве признаков, а результат обучения состоит в построении решающих гиперповерхностей, разделяющих «в среднем» пространство признаков на соответствующие классы.

Как правило, нейросетевые распознающие системы состоят из двух частей: первая — это самообучающаяся сеть, решающая задачу селекции и выделения признаков, а вторая — это сеть, настраиваемая с помощью внешнего обучающего сигнала, содержащего информацию о принадлежности образов обучающей выборки определенным классам. В принципе такая последовательность решения задачи характерна для большинства распознающих систем: сначала понижение размерности вектора признаков с помощью, например, традиционного преобразования Карунена-Лоэва, а затем собственно построение разделяющих гипер поверхностей.

Преимущество нейросетевого подхода перед другими методами распознавания образов состоит в том, что нейросети способны восстанавливать разделяющие гиперповерхности сколь угодно сложной формы, не опираясь на гипотезы о компактности или линейной разделимости классов. 4.2.2 Ассоциация и кластеризация Биологическим системам наряду с обучением и распознаванием присуща также способность к ассоциациям, т.е. восстановлению ~воспоминанию) ранее предъявленных образов по некоторым косвенным стимулам. Любому человеку знакомы случаи, когда какой-то случайный звук или запах вызывал в воображении сложные зрительные образы. В нейросетях ассоциации реализуются в двух формах: автоассоциация и гетероассоциация.

В случае автоассоциации сеть обрабатывает множество последовательно предъявляемых ей образов, причем эти образы могут быть зашумлены либо искажены. Выделяя и запоминая основные признаки предъявляемых образов, сеть приобретает способность восстанавливать (вспоминать) ранее показанные ей примеры. Гетероассоциация отличается тем, что произвольное множество входных образов связывается (ассоциируется) с произвольным множеством выходных примеров. Основное отличие между этими формами состоит в том, что автоассоциация реализуется на основе парадигмы самообучения, а гетероассоциация — обучения с учителем.

Пусть х(к) - входной образ-вектор (стимул), в общем случае произвольно взятый из обучающей выборки и предъявленный сети ассоциативной памяти, а у(й) — запомненный (выходной) образ-вектор. Ассоциация образов, 45 выполняемая сетью, описывается отношением х(/с) — > у(й), й =1,2,...,%, где Ж— число образов, запомненное ИНС. Входной образ х(й) действует как стимул, вызывающий отклик у(1), а в последствии служит ключом к восстановлению. В автоассоциативной памяти у(й) = х(й), т.е. входное и выходное пространство сети совпадают. В гетероассоциативной памяти у(й) ~ х(й), при этом размерности пространств, как правило, также не совпадают.

В работе ассоциативных нейросетей выделяют две фазы: накопления, которая соответствует периоду обучения, и восстановления, которая предполагает воспоминание запомненного образа после предъявления зашумленного или искаженного стимула. Число й образов, накопленных в ассоциативной памяти, является мерой емкости сети. При проектировании таких сетей основной проблемой является выбор и обеспечение максимальной емкости, выраженной как отношение числа запоминаемых примеров М к общему числу нейронов сети при минимальном числе некорректно восстанавливаемых образов.

К проблеме автоассоциации тесно примыкает задача кластеризации (автоматической классификации), когда сеть, анализируя обучающую выборку х(й), размещает «похожие» образы по группам-кластерам. Предъявляемый зашумленный образ, ранее не показанный сети, по ассоциации с уже запомненными должен быть отнесен к «родному кластеру». Сети, реализующие кластеризацию образов, используются обычно для сжатия данных и извлечения из них знаний. 4.2.3 Аппроксимация функций (4.1) д = 1(х), где д и х — (тх1) и (лх1) — векторы выходов и входов соответственно; 1'(е)— неизвестная вектор-функция, которую необходимо оценить с помощью заданной обучающей выборки (х(1), И(й)1, й = 1,2,..., М.

Задача обучения аппроксимирующей нейросети состоит в нахождении функции Г(х) в некотором смысле достаточно близкой к 1 (х) такой, что )(Г(х) — /'(х)(! < е для всех х(/с), /с = 1,2,..., У, (4.2) где Г(х) — отображение, реализуемое сетью; е — малое положительное число. Если объем выборки М достаточно велик, а сеть имеет достаточное число 4б С проблемой обучения тесно связана достаточно часто возникающая на практике задача аппроксимации функций, заданных на некотором множестве точек. Рассмотрим нелинейное отображение «вход-выход», описываемое функциональным соотношением 4 ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ вх Рис.

4.4 — Схема системы идентификации Второе приложение — это обратное моделирование, используемое в некоторых адаптивных системах управления [98-10Ц и состоящее в том, что для объекта управления (4.1) требуется построить «обратную систему», которая генерирует вектор х(й) как отклик на входной сигнал И(й).

В общем виде обратная система имеет форму х= 1 ~(с1), (4.3) однако, поскольку функция 1' либо не известна, либо слишком сложна, разумным выходом представляется использование ИНС в качестве обратной модели так, как это показано на рис. 4.5. 47 настраиваемых синаптических весов, ошибка аппроксимации ь может быть сделана сколь угодно малой, хотя здесь есть опасность превращения сети из аппроксимирующей в интерполирующую, рассмотренную в третьем разделе.

Несложно видеть, что проблема аппроксимации в данном контексте полностью совпадает с задачей обучения с учителем, где последовательность х(1) играет роль входного сигнала ИНС, а И(й) — обучающего сигнала. Способность нейросетей аппроксимировать неизвестные отображения «вход-выход» находит два важнейших приложения в задачах интеллектуального управления [23, 28, 291. Первое из них — идентификация объектов управления [45, 46, 651, или эмуляция — в терминах нейроуправления [34~. Схема системы идентификации (эмуляции) приведена на рис. 4.4, при этом предполагается, что многомерный статический объект описывается соотношением (4.1), а нейронная сеть, включенная параллельно объекту, обучается в реальном времени, «подгоняя» свои выходные сигналы к выходам реального объекта.

еф) = х(Ус) — у(й)— ошибка обратного моделирования Рис. 4.5 — Схема обратного моделирования В этой схеме роли сигналов х®) и д(А) поменялись: вектор И1й) используется как вход сети, а х(й) — как желаемый отклик (обучающий сигнал). Подобно системе идентификации сигнал ошибки е(й) = х(й) — у(й) используется для обучения ИНС. 4.2.4 Управление и оптимизация Управление объектами в условиях структурной и параметрической неопределенности — еще одна задача, связанная с обучением нейросетей. На рис. 4.6 приведена схема управления с обратной связью, при этом предполагается, что в распоряжении проектировщика системы управления нет информации ни о структуре нелинейного объекта, ни тем более о его параметрах.

Рис. 4.6 — Система управления с обратной связью Целью управления является выработка управляющих сигналов и(1), обеспечивающих устойчивое слежение выхода объекта у(й) за внешним задающим сигналом (желаемой траекторией движения) с~(~с) . Поскольку об объекте управления ничего не известно, в качестве регулятора можно использовать нейросеть, входом которой является вектор ошибок управления е(1) =И(й) — у(й), а выходом — сигнал управления и(й), подаваемый на объект. Синтез оптимального управления связан с оценкой якобиана объекта У = (ду, /д и, ) ~102~, для определения которого опять-таки могут быть 48 4 ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ использованы аппроксимирующие свойства обучаемой ИНС. В теории адаптивного управления сформировалось два основных направления.

Первое — непрямой или идентификационный подход, при котором в схему вводится настраиваемая модель, обучаемая в темпе с процессом управления и параметры которой в линейном случае являются оценками элементов матрицы-якобиана. В нашем случае в систему управления дополнительно вводится нейросеть-эмулятор, оценивающая частные производные ду,/ди,, которые далее используются нейросетью-регулятором. Альтернативой идентификационному является прямой подход к синтезу регулятора, при котором предполагается, что проектировщику доступна информация о знаках частных производных ду, /ди, .

В прямой системе управления присутствует одна нейросеть-регулятор, обучаемая с помощью алгоритмов, использующих только знаки обрабатываемых сигналов. Вплотную к задаче управления примыкает задача оптимизации, когда требуется определить экстремум многомерной неявно заданной функции при наличии ограничений. И хотя для решения проблемы оптимизации спроектированы специальные архитектуры нейросетей (271, достаточно большой класс задач может быть решен в рамках систем нейроуправления (34~, когда в качестве целевой функции используется лагранжиан, учитывающий всевозможные ограничения, накладываемые на переменные объекта.

4.2.5 Фильтрация, сглаживание, прогнозирование Системы обработки «зашумленных» сигналов в условиях неопределенности в настоящее время находят широкое применение в самых разнообразных приложениях (54-56, 681. Собственно понятие «обработка сигналов» традиционно включает в себя три задачи: фильтрация, сглаживание и прогнозирование.

Если в распоряжении исследователя есть выборка «загрязненных» наблюдений х(1),х(2),...х(й),...,х(У), то задача фильтрации сводится к нахождению наилучшей оценки процесса х(У ) Х) в момент времени %по информации об М наблюдениях, сглаживания — оценки х(й ~ М) при й < М и прогнозирования — х(М + I! Х), где 1 > 1 — горизонт упреждения. Последние годы внимание исследователей привлечено еще к одной нетрадиционной задаче обработки — «слепой» сепарации и идентификации сигналов (1031.

Свежие статьи
Популярно сейчас
Зачем заказывать выполнение своего задания, если оно уже было выполнено много много раз? Его можно просто купить или даже скачать бесплатно на СтудИзбе. Найдите нужный учебный материал у нас!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5184
Авторов
на СтудИзбе
435
Средний доход
с одного платного файла
Обучение Подробнее