Боровиков В.П. - Нейронные сети (778916), страница 41
Текст из файла (страница 41)
В задаче имеется семь категорнальных предикторов: КАЯ1- угА)г 7 по числу линий, образующих цифру. Уровень категориального предиктора (Π— отсутствует; 1 — присутствует) показывает, высвечивалась ли на экране соответствующая ему одна из семи линий (три горизонтальных и четыре вертикальных). Описание предиктор- Гпеее 8. Промеры промененнп Щ" ных переменных: ЬИ1 — верхняя горизонтальная, РА212 — верхняя левая вертикальная, РА213 — верхняя правая вертикальная, 1гА214 — средняя горизонтальная, 1АМ5 — нижняя левая вертикальная, Нгтб— нижняя правая вертикальная и РА217 — нижняя горизонтальная (рис. 8.2.1).
Калькулятор неисправен, поэтому при нажатии какой-либо кнопки на цифровой клавиатуре на экране не всегда высвечивается правильная комбинация линий. Чаг Е чаг Е Рве. 8.2Л. Названая предюпоров я соотеетст- ву!ошвс вм лвввп Структура цанных На рис. 8.2.2 приведены первые 10 наблюдений файла данных. Весь набор данных, состоящий из 500 наблюдений, содержится в файле примеров Ргйгт.зта. 1818!21„! 1о( х) Ехагпр!е дага гег анегп гесе юеп 1 2Ф,13 ' ' 4; 8, В;,т,г' гаге В!6!Т:Чг!Р1 ЧгЕР2 !ггайз, Чгййа Чггйв Ч 1Чг1йг ОМЕ Рве. 8.2.2.
Фрягмепт яеходвого файла даппых Результаты распознавания записаны в первой переменной (Р1ЯТ). В переменные 1гА111 — РАгг 7 заключены уровни независимых категориальных предикторов. Построение моуепц В данном примере необходимо построить модель распознавания цифр, выдаваемых реальным калькулятором. Разумно сформулировать следующие требования к нейронной сети: 1) сеть должна обладать возможностью экстраполировать за область обучающих данных (т.е. давать правильный прогноз при комбинациях предикторов, которые сильно отличаются от обучающего множества); 2) требовать небольшого времени для прогноза (это диктуется требованиями практического применения). 197 1 еехеп ОМЕ 7ЕЙО 2 епе 7Ейо 2ЕНО , З !пег 7ЕРО ОМЕ , ° 4 пее ОМЕ ОМЕ 5 егЕПГ 2ЕРО ОМЕ 6 епе 2ЕРО 7ЕНО г Еге ОМЕ ОМЕ 8 ох ОМЕ 2ЕНО , ВГаа ОМЕ 7ЕРО ."18 его ОМЕ ОМЕ ОМЕ 7ЕЯО ОМЕ 2ЕЯО ОМЕ ОМЕ ОМЕ ОМЕ ОМЕ ОМЕ ОМЕ 2ЕРО 2ЕЙО ОМЕ 7ЕРО ОМЕ ОМЕ ОМЕ ОМЕ ОМЕ 7ЕРО ОМЕ 7Ейо ОМЕ 2ЕЙО ОМЕ ОМЕ 2ЕРО ОМЕ ОМЕ 2ЕНО ОМЕ 7ЕРО ОМЕ ОМЕ ОМЕ ОМЕ 2ЕНО 7ЕНО ОМЕ 7ЕЯО 7Ейо 7ЕРО 7ЕРО ОМЕ 7ЕНО ОМЕ ОМЕ ОМЕ Нейронные сепго.
ВТАТ18Т1СА Неогег Негегоже Указанным условиям соответствует архитектура многослойного нерсептрона. Число элементов на скрытом слое выберем равным 5 (классификация проводится в 10 классов). Обычно, в первом приближении при построении модели на скрытом слое выбирается число элементов, равное полусумме числа входных и выходных элементов, но в данной задаче выбор еще обусловлен количеством классов.
Шаг 1. Из меню Анализ — г Нейронные сети запускаем модуль Нейронные сети. Выбираем задачу: Классификация. Заходим в диалог выбора Переменных ШИТ вЂ” зависимая категориальная переменная. 1гАА1 — 1гАК 7 — независимые категориальные преднкторы (рис. 8.2.3). Нажимаем ОК.
С р Нр а к $ м и Ь~ ИФВЭ Рис. 8.2.3. Диалог выбора перемеппых Шаг 2. На стартовом окне в качестве инструмента построения сети вы- бираем Конструктор сетей. Нажимаем ОК. Шаг 3. В следующем окне можно выбрать тип сети (рис. 8.2.4). Указываем Многос гойный нерсентрон. Рис, 8.2А. Диалог выбора типа сети 198 Гпавв а. Примеры применения иви мяияяг Бмл а 3 ! Рис. 8.2.5. диалог зидвиии аврам«тров сети Далее необходимо задать число элементов на скрытом слое, для чего переходим на вкладку Элеменигы сети (рис.
8.2.5). На вкладке Элел>ецть> задаем число элементов на скрытом слое равным 5. Итак, архитектура сети определена. Нажимаем кнопку ОК и переходим к диалогу Обучение м>югослойнаго нерсентрона. Шаг 4. Обучим сеть с помощью алгоритма обратного распространения ошибки (Количестео энох = 500, Скорость обучения = 0,01). Этот алгоритм можно использовать с большинством сетей пакета БИТБТ1СА Хеига1 №Г>югхь, однако, в наибольшей степени он приспособлен для обучения многослойных персептронов. По сравнению с другими алгоритмами ои требует меньше памяти и обычно довольно быстро достигает приемлемого уровня ошибки, хотя к точному минимуму ошибки может сходиться довольно медленно.
Под числом эпох понимается максимальное число итераций в процессе обучения. Обычно количество эпох меняется в пределах от 100 до 1000. Управляющий параметр «скорость обучения» управляет величиной шага при последовательной корректировке вссов. Установка по умолчанию для данного параметра в большинстве задач приводит к устойчивому обучению и нс требует корректировки (рис. 8.2.б). Отметим, что довольно ' асто приходится повторять процедуру обучения, пока не будет достигнут глобальный минимум ошибки.
Нажимаем ОК, запуская процедуру обучения. Шаг 5, Теперь необходимо проанализировать результать>. Производительность к>щссификатора на коптролыюм и тестовом множествах равняется приблизительно 71 — 72. В окне результатов просмотрим описательные статист>жи (рис. 8.2.7). Н>окиь>аем кнопку Описательные статистики в левом нижнем углу. 199 Нейронные сеоВо. ЗТАТ!8ТВСА Незыа! Меаеогне Рыс.
8.2.6. Дыалог выбора алгоритма обучеыиа В »»В. ~ В »4~ «». В»а~В а ~Пюв аа (ЧВ»»а а ВВ»»а~в е Ва Е .а 3' »»аа,аа Фй»»а»» аа »Ва» а еа м 'а Ва»а Рис. 8.2.7. Олью результатов Рыс. 8.2.8. Фрагмеит овыа таблиыы овисательыьВх статыствы 200 Таблица описательных статистик содержит подробную информа- цию о количестве правильно и неправильно классифицированных наблюдений по каждому классу (рис. 8.2.
8). 11осмотрим на таблицу. Видно, что больше всего ошибок допу- щено при распознавании цифры 9 (см. левый столбец). Гяеее 8. Примеры яроменеиоя Делос запустим анализ чувствительности к предикторам. Нажимасм вкладку Чувствительность в окне Результаты. Анализ чувствительности позволяет сделать вывод об относительной важности входных переменных для конкретной нейронной сети и при необходимости удалить входы с низкими показателями чувствительности. Результаты анализа показаны в таблице (рис.
8.2.9). 1'ис. 8.2.9. Таблица результатов анализа чуасзиптельпостп 1"ацг 1 соответствует наибольшей чувствительности к данному предиктору. Переменные гАА1 и гАЛ2 (верхняя горизонтальная, верхняя левая вертикальная) вносят наибольший вклад в определение цифр. Результаты модели на обучающем, контрольном и тестовом множествах можно получить с помощью кнопки Предсказанные. Таблица предсказанных значений длл первых десяти наблюдений приведена на рис.
8.2,10. Архитектуру построенной сети удобно представить в графическом виде. 81АТ1БТ1СА позволяет отображать с помощью цвета уровни активации нейронов на входных, выходных и скрытых слоях. Для построения графа необходимо перейти на вкладку Дополнительно и нажать кнопку Архитектура селга. На экране появится график, представленный на рис. 8.2.11. 1-„ЯЯ""ф7 .,~ 1х(~ Рпс. 8.2.10. Фрагмепт таблицы предсказаппмх зпачеций Рис. 8.2.11. Архитектура построеипой сети 201 Нейронные семи. ЯТАТ!ЯТ!СА Неи!а! Не!во!на Уровни активации выделены цветом: черным — для положительной активации, серым — для отрицательной. ПРИМЕР 3. Неппнецная кпасснфикацпя цвумерных множеств Структура цанных Исходные данные представлены в файле на рис.
8.3.1. Переменные Хи Усодержат результаты измерения объектов; принадлехь ность объекта к определенному классу записана в переменной ь гоир. Переменная Огоир приннмаег два значении: О, если объект относится к классу О, значснис 2, если объект относится к классу 2. Визуально данные показаны на рис. 8.3.2.
зло зоо 260 220 16О мо ° Огоер Е 1ОО Огомр 2 100 140 160 220 260 Х Рпс. 8.3.2. Диаграмма расссяппп с выделсппымп подгруппами Рис. 8.3.1. Исходиап таблица данных Требуется разделить два класса. Такого рода задачи возникают в различных областях, например, в геологии. Построенпе моцепп В данной задаче мы будем использовать самоорганизующиеся карты Кохонена. Из структуры множеств, показанной на рис. 8.3.2, видно, что модели линейного анализа неприменимы. Заметим„что множества нс являются линейно разделимыми, поэтому многослойный персептрон использовать нецелесообразно (рис.
8.3.3). 202 Гпаво 8. Примеры применения , в«вв ю О .л., ь сь. 1' Г 3401 300 260 220 Гло Мо~ 100 ~— Огоор 0 Огоор 2 88 о оп 1й ивПВГЕВ В»4»св 100 140 160 220 260 Х Рпс. 8.3.4. Мсп1о Аыилиз системы БТАТТБТТСА Рпс. 8.3.3. Клкссыфккаппл с помоп2ью лапсйпма моделей Шаг 1. Запускаем модуль Нейронные сети (рис. 8.3.4).
Шаг 2. Выбираем тип задачи: Кластерный анализ; инструмент: Конструктор сетей (рис. 8.3.5). Шаг 3. На2киыаем кнопку Переменные н выбираем Х и скак независимыс переменные, С7азз — как категориальную выходную переменную (рис. 8.3.6). 203 Ъ ва Ос ««ссвгнсва«атаби» » вино»о« ав дооав»о айана«оиис) ив Вв«ов«на кос»станет ла ~; о»г «внгре ел в Ы вг»слое е»т»«мам» г48 пл «ее»то»ема в в««о Б $ с» йо лое»«лве»гнета«ела««н«оста«с Я1 твв сееллсв а«слв Са» Као Рпс. 8.3.5. Стартовое окно модулк Нейронные сети Нейронные сопи. ВТАТ18Т!СА йете! йеееоте Ряс.















