Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика (778918), страница 30
Текст из файла (страница 30)
Общее суждение о нейропакете Рассмотренный нейропакет несомненно удобен для изучения и использования по следующим причинам ° является русскоязычным, ° прост в изучении, ° имеет такие достоинства, как возможности упрощения сети и выявление наиболее (или наименее) значимых входов В то же время есть и ряд недостатков, из которых наиболее существенным представляется (по крайней мере, в имеющейся альфа-версии) невозможность сохранения результатов опроса обученной сети К другим недостаткам можно отнести скромные интерфейсные и сервисные удобства 6.3.
Нейропакет (".Ьи1КМе132 Нейропакет Очпкне132 разработан С Зепзеп (9935 МЕ 1251п (.и №4, К~гк(апг(, ЧЧА 98034, е-гпай с)епвепЯНа9~ согп), 1паьверсия (версия для ознакомления с ограниченным сроком использования) пакета доступна в Интернет по адресу п((р //тмме впп1е( пе(/зкпте) пе1/тип95/пеигакрге )т(пт( 6.3.1. Общая характеристика и интерфейс Нейропакет Оиккне132 (версия 2 1) предназначен для работы в среде ~Мпоочтз и особых требований к вычислительным ресурсам не предъявляет В Оипкне1 реализуется лишь один тип нейронной сети — многослойная сеть прямого распространения с числом скрытых слоев до 5 и с набором из 6 алгоритмов обучения (модификации алгоритма обратного распространения ошибки) Вид контрольной панели программы после ее запуска приведен на рис 5 27 В верхней ее части расположено меню, включающее следующие пункты Ейе (Файл) с подпунктами Меиг Ме1ччогН (Новая сеть), Орел МеЬчогН (Открыть сеть), Ваче МеЬчогН (Сохранить сеть), Заче Ме(ччогН ав ...
(Сохранить сеть как ) — сохранение структуры сети но не ее весов, уугйе петччогН ав С соде (Записать сеть в кодах языка С), Ехй (Выход) 188 Пе Упи 5дде ЕМ!еде Нее ОфЯ ~~~Я ! с аепд Рсииаее Ееапапд Йае (Ма! М. и НМ! )О Еие Иеиопе ьеи Иьк Ниде«Ение 1! Л Ннр Т нор г Г Меде 5 ( Нпиеп 4 ( Нпи«п 5 Г С р Ти ГО О! М аиии д Е инне Епи Мндп (О \ Р ееп Ори«д Тспидпди4 и ОИ Еа Трпр Ьринии )О Ое дн Оесер ГО с дамм.! Те ддсае Тип«Ори ьре „'ьь 'М вЂ” Оа!а !ее« вЂ”вЂ” рома Те«сир Оаа !рос« ТММ Й!45 Епи Мап ЙМ5 Епи Мап Епи Ииппи Сопеи Рисеи С«пес! Тнеоюц ГЗО- а р яп«ем 5 анап« Ри Мир и Рис 5 27 Контрольнап панель нейропакета Одакие! 189 Ч(еи (Вид) с подпунктами ° )т(е1итог)е (Сеть) — графическое изображение созданной сети, ° Тга!п)пд Еггог Р)о1 (График ошибки обучения) — график, показывающий изменение общей ошибки нейронной сети в процессе обучения, ° Соп(оцг Р(о1 (Контурный график) — трехмерный график, отображающий выход сети в зависимости от двух выбранных входов — дпя нормированных значений, ° Ме(ддог(е Апа!ув!в Р!о1 (График анализа сети) — гистограмма, показывающая уровни средних ошибок по каждому образцу обучающей ипи тестовой последовательности, ° Тга(п)пд Н(в1огу (История обучения) — протокол обучения сети — текстовая информация Зса(е (Масштабирование) имеет единственную опцию Зса(е Оа1а Р)(е (Масштабировать файл данных) — используется дпя масштабирования данных (см ниже) ВеШп9в (Установочные параметры) также имеет только одну опцию Агггапсег! Ве!(!пдв (Расширенные установочные параметры), позволяющую задать параметры процесса обучения.
Не1р (Справка) с подпунктами. Не)р (Справка); йе9!в!тат!оп 1пго (Информация о регистрации программы); йе9!в!ег Отк!кМе~ (Регистрация Отг)кМе1) — для регистрации легальной копии нейропакета; АЬоцт (О программе) — информация о программе и вычислительных ресурсах компьютера. Ряд подпунктов меню дублируется кнопками в левой верхней части контрольной панели Правее от отмеченных расположены еще две кнопки — Тга(п Мепмогй (Запуск обучения) и 8(ор Тга!и!пд Ме!ткогк (Принудительное прекращение обучения).
Эти кнопки продублированы в правой нижней части панели (кнопки Тга)п и Втор). Справа от них расположена кнопка Тев( (Запуск тестирования сети) Назначение других кнопок ° Тга)п!пд Оа!а и Тевбп9 Ра!в позволяют подключать к программе (загружать) файлы с обучающей и тестовой последовательностями данных, ° (.оаг! Фе!ВЬтв и Вауе ууе!9Ь!в позволяют загрузить и сохранить в текстовом файле (например, для последующего анализа) веса и смещения обученной сети; ° Рапг!опнае производит установку начальных (случайных) значений весов сети перед ее обучением; ° РегтцгЬ позволяет случайным образом варьировать веса сети в процессе ее обучения и, тем самым, избегать останова процесса в точках локального, а не глобального минимума ошибки. Диалоговые мини-окна контрольной панели (рис. 5.27) позволяют задать структуру нейронной сети, выбрать алгоритм и параметры ее обучения.
В окне МцгпЬег от Н)к!г!еп (.ауегв (Число скрытых слоев) задается число скрытых слоев (до пяти) сети. В правой части контрольной панели — Мевкгогк Торо!оду (Топология сети) — для каждого скрытого слоя отдельно указывается число нейронов в нем (окна Н!г!г!еп 1 — НЫбеп 5/ Мецгопв) и вид функции активации (окна Н!гЫеп 1 — Н!г!г!еп 5/ Ас!!уабоп Гипс!1оп).
В нейропакете реализован следующий набор функций активации: ° з!9пюк! (сигмоидная), ° 1апп (гиперболический тангенс), ° йпеаг (линейная), ° Оаизз)ап (функция Гаусса). 190 В центральной части панели диалоговое окно Тга!л!пд А!допФгп (Алгоритм обучения) позволяет выбрать один из шести алгоритмов обучения нейронной сети: ° Оп!!пе Васхргор; ° Оп))пе Васкргор-йапо; ° Ва1сл Вас)гргор; ° Ое!1а-Ваг-Ое!1а; ВРВОР; ° ОшсКРгор; зписание которых можно найти в прил. 3. По умолчанию устанавливается алгоритм Опйпе Васхргор — алгоритм обучения по методу обратного распространения ошибки в режиме реального времени— модификация алгоритма обучения по методу обратного распространения ошибки, когда веса и смещения сети корректируются после предъявления каждого нового образа (вектора) обучающей выборки.
Группа диалоговых окон в левой части панели Тга!п!пд Ргорег(!ев (Опции обучения) позволяют установить следующие параметры алгоритма обучения: ° Ееагп!пд йа1е — коэффициент скорости обучения (темп обучения), который определяет скорость изменений величин весов и смещений сети в процессе ее обучения, обычно при использовании алгоритма обратного распространения ошибки. Чем больше темп обучения, тем быстрее обучается сеть. Допустимые значения параметра — от 0,0 до 1,0; хорошим начальным приближением считается величина 0,1.
Если данный параметр велик, процесс обучения может потерять устойчивость. ° Могпеп1цгя — коэффициент импульса — константа, используемая в методе импульса (по умолчанию — О) ° Сопуегдепсе То!. (сопчегдепсе 1о!егапсе) — это максимально допустимая величина ошибки во время обучения. Если 1о!егапсе = О, то выходной результат (оц1ри1), выдаваемый нейронной сетью, должен абсолютно точно совпадать с образцом для бучения (ра((егп). В большинстве случаев это нереально При 1о)- галсе = 0,1 значение выхода оц1ри1 будет рассматриваться как орректное, если оно отличается не более чем на 10% (в среднем вадратическом смысле) от заданного значения (ра((егп).
Процесс учения будет продолжаться до тех пор, пока значение ошибки не низится до установленного параметром 1о!егапсе предела (по молча ни ю — О, 01). ° Мах!пппп в' Еросп (гпахктшт пшпоег о1 ерослв) — макси- мальное число периодов, которые нужно использовать для обуче- 191 ния (по умолчанию 10000) Один период эквивалентен одному полному представлению всех образцов обучающей выборки.
° Еггог Ма«9!и — граница ошибки (по умолчанию — 0,01) Выходы сети, для которых ошибка меньше данной величины будут считаться «обученными», корректными. ° Рак!егп Сйрр)пд — «отсечение» образцов — определяет степень участия «обученных» образцов в последующем обучении сети. Образец считается «обученным», когда связанная с ним ошибка сети менее заданной в опции Еггог Маг9)п. Значение параметра от 0,0 до 1,0. По умолчанию — 1 ° Сговв-)га(Ыаге Тга)п)п9 (обучение с перекрестным пересечением) — когда эта опция установлена, обучающий набор данных автоматически делится на два набора: 90 % — для обучения и 10% — для тестирования. Набор для тестирования используется для проверки качества обучения сети.
Два последних мини-окна в рассматриваемой части контрольной панели )при! г)о)ве (Входной шум) и Фе(ВЬ! !)есау (Разрушение веса) используются для задания параметров, в ряде случаев улучшающих свойства обученной сети (свойства обобщения); задание первого ненулевого параметра обеспечивает добавление гауссовского шума небольшой интенсивности к данным обучающей выборки, задание второго ограничивает большие весовые коэффициенты. Диалоговые окна в части контрольной панели ууе)дИв (Веса) относятся к ранее описанным кнопкам !«ап«)отде и Реггц«Ь и позволяют задавать: ° диапазон случайных вариаций начальных значений весов сети в процентах от некоторой автоматически определяемой программой величины, связанной с количеством входов нейрона (по умолчанию — 100',г»); ° диапазон вариации весов сети при повторном обучении. Диалоговые окна в части панели»)еигоп Ва!агат)оп (Насыщение нейрона) позволяют устранить насыщение нейронов в процессе обучения сети (у насыщенного нейрона сумма входов, умноженных на веса такова, что значение аргумента активационной функции велико и работа проходит на пологом, практически горизонтальном участке данной функции, так что большие изменения входов приводят к незначительному изменению выхода нейрона, т.
е. нейрон становится малочувствительным к входным сигналам) Окно ТЬгевЬо!«! (Порог) определяет минимальный процен~ примеров за эпоху (по умолчанию — 80%), которые должны насытить нейрон Нейрон считается насыщенным, когда данный про. 192 цент примеров обеспечивает выход не менее, чем 99% от максимально возможной величины. Если это происходит, веса входов нейрона уменьшаются на 90%. Окно Ргемеп1 Затцгабоп позволяет установить или убрать режим автоматического предотвращения насыщения нейронов.
Сообщения в правой нижней части контрольной панели Тга)п(п9 81а1в (Статистика обучения) и Тевбпд Зта!в (Статистика тестирования) отображают информацию во время работы программы в соответствующих режимах. Заметим, что по всем элементам интерфейса и режимам работы нейропакета имеются достаточно информативные и удобно организованные разделы справки на английском языке.
6.3.2. Правила работы с нейропакетом Работу с нейропакетом рассмотрим на примере все той же задачи моделирования логической функции «Исключающее ИЛИ». 1) Подготовка исходных данных. Исходные данные готовятся в формате табл. 4.1 и сохраняются в виде текстового файла (разделители — пробелы или табуляции).













