Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика (778918), страница 27
Текст из файла (страница 27)
2 аеа г 1 ! вмиг аамг ) внии Поч ем ВР Г- ев Пав ЬЕ .И 1 ~ т МваЕГРиивиан. Рнвааав Й Има ьм ома сеам Синае Ееав авве ни ~ Кие Пев«наг ~ Г «». ) Ееее И ив Мв М гани Маеиеи Еем Манеев И мивв ,'Риаимив.т) Рис. 5.5. Контрольная панель после подготовки к процессу обучения Останов по второму критерию не очень хорош — он свидетельствует, что сеть не обучилась должным образом. Что же делать в такой ситуации? Вариантов действий здесь четыре: ° изменить (увеличить, если возможно) объем обучающей выборки; ° изменить структуру сети (увеличить число скрытых нейронов); ° изменить параметры процесса обучения; ° и, наконец, «потрясти» сеть нажатием кнопки З)гайе.
При этом небольшим случайным образом изменяются веса сети, и часто зто помогает выбираться из локальных минимумом ошибки в процессе обучения Но в нашем случае все будет удачно, процесс обучения закончится с итоговыми цифрами, например, ОаГа СоцпГ 258, СцггепГ Епог 0.0575. В нижней части контрольной панели при этом появится надпись «Тгагпее(Ь (обучена). 7) Теперь с помощью кнопки Зауе пе1 или опций меню Рйе, Заче или Рйе, Загге ав можно сохранить обученную сеть под каким-либо именем с расширением *.апп, например, как хог,апп, и с 166 помощью соответствующих кнопок С!ове (рис. 5.5) закрыть файлы обучающей выборки и протокола.
Файл протокола содержит достаточно интересную информацию. Откроем его, например, с помощью текстового редактора. для рассматриваемого примера содержимое файла хог.)од примет следующий вид: ое81пео мАтягх; 0.0000 о оооо 1 оооо 1 ОООО гнрцт ЧАтйгх; 1.оооо 1 оооо о.оооо о.оооо 1.оооо о.оооо О ОООО 1 ОООО кз мАтеах 1оооа 1оооа О.оооо ааааа ааааа о.ааоо 1.оооо о оооо 1 оооо о.оооо 1 оооо 1.оооо неоеогк гевропве: гпрсгчес 1.00 1.00 гевропве: 0.009 гпригчес . О.аа О.аа гевропве: 0 046 ~прс1чес: 1 00 0 00 гевропве: 1 020 Мрмчес 0.00 1.00 гевропве.
Ечепг № 10 2 654183 Ечеп1 № 20 2 087392 Ечеп1№гпа 1285267 Ечеп1 № 250 1.110611 Е~паГ Чуегаь1в: 0 ОООО О 0000 -4.3897 -1.6988 0 0000 0 0000 0 0000 0 0000-6.5033-1.7948 0 0000 0 0000 0 ОООО 0 0000 0.0000 0 0000 -2.9008 0 0000 о.оооо о.оооо а.оооо ааааа г 787а о.оооо а.оооо ааааа о.оооо О.оооо о.оооо о.оооо 0.0000 0 0000 06582 1.9572-04847 0.0000 157 Вначале повторяется обучающая выборка ()О МАТЕ)Х), затем требуемые (целевые) значения выхода этой выборки (ОЕЗЯЕО МАТВ)Х), затем — значения входов в обучающей выборке (()чР()Т МАТВ)Х), далее — набор данных, характеризующих изменение ошибки сети в процессе ее обучения (например, запись вида Ечеп( № 250 1,110б11 означает номер итерации процесса обучения и соответствующую ошибку нейронной сети), рассчитанные значения выхода сети по наборам входных данных ((г(е(ччогх геэропэе) и, наконец, приводится итоговая матрица весов сети (Р)па! 'чЧегдп(8).
Каждая строка данной матрицы (кроме нижней) соответствует одному иэ нейронов: первая строка — первому (входному) нейрону, вторая — второму входному нейрону, третья — первому нейрону скрытого слоя, четвертая — второму нейрону того же слоя, пятая — единственному выходному нейрону и шестая (последняя) — смещениям.
Первый столбец матрицы соответствует первому из отмеченных нейронов, второй — второму и т. п. Элементы матрицы (кроме нижней строки) являются весами связей между нейронами. Так, в рассматриваемом примере видно, что первый входной нейрон соединен с третьим и четвертым (т. е. со всеми нейронами скрытого слоя) с весами, соответственно, -4,3897 и -1,6988, третий нейрон соединен с выходным с весом -2,9008 и т и По данным весам можно судить о значимости отдельных входов и связей и попытаться оптимизировать структуру сети, о чем подробнее будет рассказано ниже 8) Использовать обученную сеть достаточно просто Подготовим два текстовых файла первый, содержащий только наборы интересующих нас значений входов, для которых с помощью обученной сети требуется дать оценку выхода или выходов (с расширением * г)а(), другой — пустой (с расширением * )од) для сохранения ответа сети, например, файл хогга( с(а(, с данными и а 09 10 ОО 02 1о ог аа 10 и файл хог(евг!09 Запустим программу ЗШ9 ехе, откроем файл сохраненной и обученной сети (хог апп) и оба подготовленных файла После нажатия кнопки Реп контрольная панель примет вид рис 5 6 Рис 5 б Контрольная панель программы Выо ехе после опроса обученной сети 168 Что иэменилосьт В окошке ()а1а Соип1 появилась цифра 4— по числу предъявленных входных наборов в файле хог(еа1бад а также надпись Вип Согпр)е(е (выполнение завершено) Теперь необходимо закрыть оба файла и ознакомиться с результатами работы сети, сохраненными а файле хог(е91)09 пятя мятя1х 0 9000 1 0000 0 ОООО 0 2000 1 ОООО О 1ООО О ОООО 1 ОООО 090 100 0055 000 020 Оетт 1ОО 010 Оаа1 000 100 1005 Желаемый ответ содержится в третьем столбце нижней матрицы Комментарии, по-видимому, излишни Завершая описание работы с программой укажем на возможность «дозаписи» информации в уже имающийся (и заполненный) )09-файл — с помощью кнопки Аррепк( Это требуется в случае, когда имеется несколько файлов с данными, но желательно использовать один и тот же файл протокола Что можно отметить в заключение1 Нейропакет крайне прост, но, тем не менее, позволяет решать достаточно сложные задачи с использованием нейросетевого подхода $.2.
Нейропакет НейроПро (Меигорго) 5.2.1. Общая характеристика Программа )чецгоРго является свободно распространяемой альфа-версией нейросетевого программного продукта для работы с искусственными нейронными сетями и извлечения знаний из таблиц данных с помощью нейронных сетей в среде УУ1пбокке Разработчик — В Г Царегородцев, Институт вычислительного моделирования СО РАН, 660036, Красноярск-36, Академгородок, е-гпа~) )еаг©сс Кгаес~епсе г991 ги Возможности программы 1) Работа (чтение, запись, редактирование) с файлами данных, представленными в форматах "г)Ь( (СУБД ОВазе, РохРго, Сйррег) и * бЬ (СУБД Рагабох) 169 Создание слоистых нейронных сетей для решения задач прогнозирования ° число слоев нейронов — до 10; ° число нейронов в слое — до 100; ° нейроны: с нелинейной сигмоидной функцией активации /(А) = А/()А) + с), крутизна сигмоиды может задаваться отдельно для каждого слоя нейронов Нейронная сеть может одновременно решать несколько задач прогнозирования; для каждого из выходных сигналов могут быть установлены свои требования к точности прогнозирования.
2) Обучение нейронной сети производится по принципу двойственного функционирования с применением одного из следующих методов оптимизации ° градиентного спуска; ° модифицированного РагТап-метода; ° метода сопряженных градиентов. 3) Тестирование нейронной сети. 4) Вычисление и вывод значимости входных сигналов сети. 5) Внесение случайных возмущений в веса синапсов сети. 6) Упрощение (контрастирование) нейронной сети: ° сокращение числа входных сигналов сети; ° сокращение числа синапсов сети; ° сокращение числа неоднородных входов (порогов) нейронов сети; ° равномерное прореживание структуры синапсов сети; ° бинаризация весов синапсов сети; ° генерация вербального описания нейронной сети.
Установка нейропакета производится после распаковки содержимого архива МецгоРго.г)р на жесткий диск (доступен в Интернет по адресу: Ьйр //ааа.Ь/пз(и.гц/(аси))/)и/)и4/гиз/з(а(/Ьоок4/ МЕОВОРЙО 7!Р). Для установки программы необходимо запустить программу-инсталлятор Зебр ехе, после чего будет произведено копирование следующих файлов: ° )чеыгоРго.ехе — исполняемый файл, ° )чеигорго.Ыр — файл справки; ° ЫецгоРго.спи- служебный файл для справки; ° Веаг)гпе г)ос — краткое описание программы; ° ()вегбцк)е.г)ос — руководство пользователя; ° Во)(г бЬ вЂ” демонстрационный файл данных; ° Е!есбоп.оЬ вЂ” демонстрационный файл данных; ° Распространяемые файлы Вог)апо Оа(аЬазе Епупе. 170 Применение данного программного продукта возможно в традиционных областях, а именно, в медицине, экологии, климатологии, метеорологии, при построении моделей технических объектов и их идентификации, в экономике (прогнозирование курсов валют, акций и т.