Главная » Просмотр файлов » Боровиков В.П. - SNN Нейронные сети

Боровиков В.П. - SNN Нейронные сети (778914), страница 4

Файл №778914 Боровиков В.П. - SNN Нейронные сети (Боровиков В.П. - SNN Нейронные сети) 4 страницаБоровиков В.П. - SNN Нейронные сети (778914) страница 42017-12-21СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 4)

Для некоторых типов сетей (например, сетей Кохонена) большиезначения приводят к большим ошибкам, а решение о классификации принимается,если выходное значение оказалось ниже порога принятия (рис. 9.6 и 9.7).Рис. 9.6Рис. 9.7Редактор сети дает возможность менять некоторые другие параметры сети.Так, можно изменить тип функции ошибок, которая используется при обучении сетии для оценки качества ее работы. Можно также выбрать конкретные слои сети иизменить в них функции активации и постсинаптические потенциальные (PSP)функции.

Имеется также возможность добавлять или удалять элементы сети. Какправило, это можно делать только с промежуточными слоями, поскольку входные ивыходные элементы привязаны к переменным пре– и постпроцессирования (придобавления или удалении переменных будут добавляться или удалятьсясоответствующие элементы).Исключите составляют сети Кохонена, где можно добавлять и удалятьвыходные элементы. Чтобы добавить или удалить скрытые элементы, нужно зайтина вкладку Слои и удалить элементы скрытого слоя.

Можно также использоватьсредства вырезания, копирования и вставки столбцов таблицы весов, которуюможно редактировать на вкладке Веса. Все это позволяет экспериментировать сразличными архитектурами сетей, не создавая сеть каждый раз заново. Из сетиможно удалить некоторый слой целиком. Это требуется в редких случаях, например,для отделения препроцессирующей половины автоассоциативной сети припонижении размерности.В таблице весов показаны все веса и пороги либо для выделенного слоя, либодля всей сети. При желании веса и пороги можно редактировать непосредственно,однако это весьма нехарактерно (значения весов устанавливаются алгоритмамиобучения).

Эти данные выводятся главным образом для того, чтобы значения весовможно было переслать в другую программу для дальнейшего анализа.ОБУЧЕНИЕ СЕТЕЙПосле того, как сеть построена, ее нужно обучить на имеющихся данных. Впакете STATISTICA Нейронные сети для обучения сетей каждого типа имеютсяспециальные алгоритмы, сгруппированные по типам в меню Обучение (этипараметры доступны только при использовании Конструктора сетей).Многослойный персептронДля обучения многослойных персептронов в пакете STATISTICA Нейронныесети реализовано пять различных алгоритмов обучения. Это хорошо известныйалгоритм обратного распространения, быстрые методы второго порядка – спуск посопряженным градиентам и Левенберга–Маркара, а также методы быстрогораспространения и «дельта–дельта с чертой» (представляющие собой вариацииметода обратного распространения, которые в некоторых случаях работаютбыстрее).

Все эти методы являются итерационными и способы их применения вомногом схожи.В большинстве ситуаций следует остановиться на методе сопряженныхградиентов, так как здесь обучение происходит значительно быстрее (иногда напорядок величины), чем методом обратного распространения. Последний следуетпредпочесть только в том случае, когда в очень сложной задаче требуется быстронайти удовлетворительное решение, или когда данных очень много (порядкадесятков тысяч наблюдений) и даже есть известный их избыток.

Метод Левенберга–Маркара для некоторых типов задач может оказаться гораздо эффективнее методасопряженных градиентов, но его можно использовать только в сетях с однимвыходом, среднеквадратичной функцией ошибок и не очень большим числом весов,так что фактически область его применения ограничивается небольшими по объемузадачами регрессии.Итерационное обучениеАлгоритм итерационного обучения последовательно проходит ряд такназываемых эпох, на каждой из которых на вход сети подается – наблюдение занаблюдением – весь набор обучающих данных, вычисляются ошибки и по нимкорректируются веса сети. Алгоритмы этого класса подвержены нежелательномуявлению переобучения (когда сеть хорошо учится выдавать те же выходныезначения, что и в обучающем множестве, но оказывается неспособной обобщитьзакономерность на новые данные).

Поэтому качество работы сети следует проверятьна каждой эпохе с помощью специального контрольного множества (кросс–проверка).За ходом обучения можно следить в окне График ошибки обучения, где награфике изображается среднеквадратичная ошибка на обучающем множестве наданной эпохе. В случае, если включена кросс–проверка, выводится такжесреднеквадратичная ошибка на контрольном множестве. С помощьюрасположенных под графиком элементов управления можно менять масштабизображения, а если график целиком не помещается в окне, под ним появляютсялинейки прокрутки (рис. 9.8).Рис. 9.8Если требуется сопоставить результаты различных прогонов обучения, тонужно нажать кнопку Дополнительно в окне обучения, а затем снова нажать кнопкуОбучить (повторное нажатие кнопки Обучить без инициализации простопродолжит обучение сети с того места, где оно было прервано).

По окончанииобучения с помощью кнопок, расположенных над полем условных обозначений,график можно переслать в систему STATISTICA (кнопка).Важно, что на графике можно легко заметить эффект переобучения. Поначалуи ошибка обучения, и контрольная ошибка убывают. С началом переобученияошибка обучения продолжает убывать, а ошибка контроля начинает расти. Ростпроверочной ошибки сигнализирует о начале переобучения и свидетельствует о том,что алгоритм обучения начинает быть деструктивным (и одновременно о том, чтоболее подходящей может оказаться сеть меньшего размера).Если наблюдается переобучение, то процедуру обучения можно прервать,нажав кнопку Стоп – Stop в окне обучения или клавишу Esc.

Можно также задатьавтоматическую остановку программы STATISTICA Нейронные сети с помощьюусловий остановки.Условия остановки задаются в одноименном окне, доступ к которомуосуществляется через меню Обучение–Окончание анализа.Кроме максимального числа эпох, отводимого на обучение (которое задаетсяна вкладке Быстрый), здесь можно потребовать, чтобы обучение прекращалось придостижении определенного уровня ошибки или когда ошибка перестаетуменьшаться на определенную величину.

Целевое значение и минимальноеуменьшение могут задаваться раздельно для ошибки обучения и контрольнойошибки.Самое лучшее средство борьбы с переобучением – задать нулевой уровеньминимального улучшения (т.е. не допускать ни малейшего ухудшения). Однако,поскольку при обучении присутствует шум, обычно не рекомендуется прекращатьобучение только потому, что на одной очередной эпохе ошибка ухудшилась.Поэтому в системе введен специальный параметр улучшения Окно, в которомзадается число эпох, на протяжении которых должно наблюдаться ухудшение, итолько после этого обучение будет остановлено.

В большинстве случаев для этогопараметра вполне подходит значение 5.Сохранение лучшей сетиНезависимо от того, применяется ли ранняя остановка, в результатепереобучения вы можете получить сеть, которая уже успела ухудшить своисвойства. В таком случае вы можете восстановить наилучшую конфигурацию сетииз всех, полученных в процессе обучения, с помощью команды Лучшая сеть (менюОбучение–Дополнительно) (рис. 9.9).Рис. 9.9Если функция Лучшая сеть включена, программа STATISTICA Нейронныесети автоматически сохраняет наилучшую из сетей, полученных в ходе обучения(по показателю контрольной ошибки).

При этом учитываются все прогоныобучения. Таким образом, программа STATISTICA Нейронные сети автоматическихранит наилучший результат всех ваших экспериментов.Можно также установить штраф за элемент (Unit Penalty) с тем, чтобы присравнении штрафовать сети с большим числом элементов (наилучшая сеть обычнопредставляет собой компромисс между качеством проверки и размером сети).Обратное распространениеПеред применением алгоритма обратного распространения необходимо задатьзначения ряда управляющих параметров. Наиболее важными управляющимипараметрами являются скорость обучения, инерция и перемешивание наблюдений впроцессе обучения (заметим здесь, что преимущество метода сопряженныхградиентов заключается не только в скорости, но и малом числе управляющихпараметров) (рис.

Характеристики

Тип файла
PDF-файл
Размер
2,69 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
А знаете ли Вы, что из года в год задания практически не меняются? Математика, преподаваемая в учебных заведениях, никак не менялась минимум 30 лет. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
7045
Авторов
на СтудИзбе
259
Средний доход
с одного платного файла
Обучение Подробнее