Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика (778918), страница 38
Текст из файла (страница 38)
Появится диалоговое окно (рис. 5.57), позволяющее задать тип выходных нейронов: бинарный (для решения задач классификации), линейный (в случай непрерывного выхода) или логарифмический (промежуточный) Выберем линейный тип. Рис 5.67. Окно задании типа выходных нейронов 239 3) Обучение сети Выберем опцию меню ЕхрегУМевг Тга(п В появившемся окне (рис 5 68) укажем имя рабочего листа (ХОР Х(.В) и диапазон ячеек таблицы, используемых для обучения (зададим область ячеек А2 С5) Нажмем кнопку ОК Рис 5 66 Задание области данных для обучения сети В ответ появится небольшое сообщение (рис 569), рекомендующее использовать обучающую выборку большего объема При нажатии кнопки ОК, появится диалоговое окно, позволяющее задать опции обучения (рис 5 70) Рис 5 69 Сообщение о необходимости обучающей выборки большего объема Согласимся с предложенным и подтвердим это нажатием кнопки ОК То же сделаем и в следующем окне (рис 5 71) После этого начнется процесс обучения сети, свидетельством чему будет появление менякицихся цифр в нижней части основного окна программы Достаточно быстро сеть обучится 240 Рис 5 70 Окно задания опций процесса обучения Рис 5 71 Окно задания дополнительных опций процесса обучения 4) Опрос сети Выберем опцию меню ЕхреФАвк Ехрег~ Появится диалоговое окно, идентичное приведенному на рис 5 68 Зададим в нем значения, приведенные на рис 5 ?2, после чего появится окно задания вывода результата (рис 5 73) Согласимся с предлагаемой по умолчанию стандартной формой и нажмем кнопку ОК Искомый результат появится практически мгновенно (рис 5 74) Обратим внимание на то, где оменно выведен ответ сети и сравним это с указанием диапазона ячеек на рис 5 72 241 Рис 5 72 Окно задания области расчета и вывода результата арсену Ьспп о! Ве схрси'в возрос И ф!вазово 4!ар!ау л О1вр1ау суп!Ьо1в ае пв!пьесе С О!вр!ауапвсо1сз потовое Оар!Ву 514дсп позе оп!росс ~ С!КО Свесе! ~ Рис 5 73 Окно задания формата результата Рис 5 74 Результат опроса нейронной сети 242 6) Сохранение результатов.
Здесь все осуществляется стандартным образом, через опции меню Еае/Ваче или Е!!е!Ваче Ав ... 6.7.4. Дополнительные возможности Надстройка Вгаюсе! предоставляет пользователю несколько поистине уникальных дополнительных возможностей. во-первых, определение значимости входов, во-вторых, возможность нахождения сети наилучшей структуры, в-третьих, использование для прогноза нескольких обученных сетей одновременно. Не останавливаясь детально на этих возможностях, отметим, что они реализуются через пункт меню Ехрег(, требуют использования не только обучающей, но и тестовой выборки Стоит указать, что в пункте меню Апа1ув!в можно, после обучения сети, выбрать опции графического представления результатов. 6.7.6. Достоинства и недостатки программы К несомненным достоинствам программы следует отнести ее интегрированность с Ехсе1, простоту в обращении, отмеченные дополнительные возможности, а к недостаткам — ограниченные функциональные возможности (к слову сказать, у авторов выбор опций пункта меню Апа(увив все время приводил к появлению сообщения об ошибках в числовом формате — демо-версия есть демо-версия) 6.8.
Нейропакет Ехсе! Мента! РасМаяе 6.8.1. Общая характеристика Пакет Ехсе) )хейга) Раска9е разработан фирмой «НейрОК» (119899, Москва, Воробьевы горы, Научный Парк МГУ, 5 — 629, е-пса~1: )п(о©пецгокги, адрес в Интернет. аачг пецгок гщ демонстрационную версию программы можно получить на сервере чпчигоо»чп)оао.ги в разделе «Образование, наука, техника — Научно-технические программы») и расширяет функциональные возможности Ехсе1, предоставляя в распоряжение пользователя алгоритмы обработки данных на основе теории нейронных сетей Технически семейство продуктов реализовано как набор надстроек 243 (аг!б-!пз) над М!сгозоз! Ехсе! и не предъявляет особых требований к оборудованию.
Ехсе! й!еига! распаде состоит из двух независимых компонентов уу!ппе1 и Ковопеп Мар. Программа !Аг!ппе1 реализует многослойный персептрон и предназначена для поиска и моделирования скрытых зависимостей в больших массивах численных данных, для которых в явном виде аналитические зависимости не известны, Характеристики 'уугппе1 3.0 приведены в табл 5.2.
Таблица 5 2 Основные ха акте истики уу!ппе! ЗЮ Линейное, сигмоидальное, нормировка на среднее(дисперсию, нормировка на минимум! максимум Преобразования входных данных Обеспечивается благодаря применению энтро- пийного анализа !алгоритм Вохсоцп!!пд! Возможность выявления реле- вантных переменных до стадии обучения нейронной сети Число слоев нейронной сети до 5 Зависит от количества свободной памяти число нейронов в каждом слое Линеиная, гиперболический тангенс Используемые функции активации Возможность использования ней- ронов высоких порядков Позволяет строить более сложные модели данных Васйргорайабоп с адаптивным выбором пара- метров обучения Яргорайа!~оп Используемые алгоритмы обуче- ния Алгоритмы обучения подключаются как внецн ние модули, позтому их число не фиксировано 244 уу!ппе1 3.0 имеет удобный графический интерфейс и обладает хорошими возможностями контроля за процессом обучения.
° отображение в процессе обучения графиков ошибок обучения и обобщения; ° отображение диаграмм рассеяния «реальное значение— предсказанное нейронной сетью» для каждого выхода сети; ° выбор тестового множества; ° остановка обучения по достижении различных критериев останова. Ко!топеп Мар представляет собой программный инструмент для построения и анализа самоорганизующихся карт Кохонена. Среди основных применений следует выделить задачи кластеризации и визуализации многомерной информации.
Пользователь может представить весь массив данных в виде двумерной цветной карты и визуализировать на ней интересующие его характеристи- ки. Характеристики Колопеп Мар 1.0 приведены в табл. 5.3 таблица 5 3 Основные ха акте истики Колопеп Ма 1 0 Линейное, сигмоидапьное, нормировка на сред- нее/дисперсию, нормировка на мини- мум!максимум Преобразования входных дан- ных Метод главных компонент (Рлпс!ра1Согпропеп1з Апа!умз! Дополнительная предобработка входных данных с целью пони- жения размерности Ограничен размерами свободной памяти От 2 до 10 Размер карты Кохонена число градаций цвета на карте Возможность изменения цвето- вой палитры под конкретные задачи пользователя для улучшения наглядности при просмотре и выводе на печать Позволяет быстро находить положение любого примера на карте и просматривать содержимое ячеек карты Возможность поиска по карте 245 6.8.2.
Установка нейропакета Установка пакета требует выполнения следующих действий. 1) Создать директорию для файлов пакета. Например: СЗРгодгагп Р))ез)М)сгозог! Отт)сетЕМР. 2) Скопировать в зту директорию все файлы из директории ... денга! !оо)з расхаде. 3) Запустить Ехсе!. 4) Выбрать Меню!Сервис!Надстройки.
В всплывающем окне Надстройки нажать кнопку Обзор. Далее в открывшемся окне выбрать в созданной папке файл МРасНаде.х)а и нажать кнопку ОК. 5) В списке окна Надстройки появится новый пункт Мента! тоо)а Раскаде. Выбрать его и нажать кнопку ОК.
5) В открывшемся далее окне АцФог)ааг)оп сгзескег в поле ввода ввести персональный код (который содержится, например, в файле рьуб) и нажать кнопку ОК. 7) В левом верхнем углу зкрана появится панель инструментов Мемга! Апа)ув)в, на которой расположены кнопки доступных в данной версии Ехсе! Меига! РасНаде нейроинструментов 5.8.3.
Работа с пакетом %(ппе1 Возможны два варианта работы с пакетом, во-первых, данные вводятся впервые, во-вторых, обученная ранее нейронная сеть используется для работы с новыми данными. В первом варианте необходимо обучить нейронную сеть на заданном наборе данных. Сеть построит аппроксимацию многомерных данных, автоматически подбирая веса нейронов Для этого необходимо сделать следующее: ° загрузить данные из книги Ехсе! в систему; ° определить, что является входной информацией, а что— выходной; ° предобработать данные, т. е.
осуществить их нормировку; ° оценить значимость входов для выходной информации и, если необходимо, изменить (удалить!добавить) входы; ° создать нейронную сеть; ° обучить нейронную сеть на заданном множестве примеров и оценить работу на тестовом множестве; ° сохранить предсказанные (обработанные) данные в книге Ехсе(; ° сохранить обученную нейронную сеть для дальнейшей работы. Разберем зти действия по шагам.
1) Для работы с данными выделите область на листе книги Ехсе!. Данные на листе располагаются следующим образом входы и выходы — столбцы, строки — обучающие примеры. 2) Щелкните мышью по кнопке с изображением нейрона на панели инструментов Меига! Апа(ув(в. Появится диалоговое окно Зе(ес1 г!а1а воигсе, предлагающее уточнить параметры области данных для работы (рис. 5.75). 3) В случае согласия с параметрами ввода нажмите ОК. 4) Откроется основное окно уу)ппе! 3.0. Оно содержит 4 табулированных листа Оа1а, МеФиогк, Тга(п!пЗ и Ои1ра1, ассоциированных с общими этапами работы (рис. 5.76).