Боровиков В.П. - Нейронные сети (778916), страница 42
Текст из файла (страница 42)
8.3.6. Диалог выбора яеремеввых С!азв принимает два значения: Π— соли элемент принадлежит классу О, 2 — если элемент принадлежит классу 2. Шаг 4. Далее переходим на вкладку Быстрый (рис. 8.3.7). На вкладке необходимо указать тип сети, с помощью которой будем проводить анализ.
Выбсрсм самоорганизуюшиеся карты Кохонена. Рвс, 8.3.7. Окно Конструктор сетей Шаг 5. Перейдем на вкладку Элементы (рис. 8.3.8). На данной вкладке мы задаем сложность сети, которую намереваемся построить. В терминах самоорганизующейся карты это означает, что нам необходимо указать размерность топологической карты. Чем меньше элементов, тем меньше особенностей можем распознать с помощью карты. С другой стороны, при наличии слишком большого числа элементов на такой карге мы рискуем получить «зазубривание» обучающих данных. Лучше всего понять выбор с помощью экспериментирования.
Для начала укажем размер карты ЗхЗ. Шаг 6. Нажимаем ОК. На окне параметров обучения (рис. 8.3.9) остав- ляем значения по умолчанию. 204 Глава 8. Примеры применения Рис. 8.3.8. Окпо Контлруктор сетей, вкладка Элементы Рис. 8.3.9. Окко обучспип Коховспа Алгоритм обучения состоит из двух этапов, хотя можно один из них отменить. Это обучение без учителя. Обучение является итеративным, занимает несколько эпох, использует значение скорости обучения и аналогичные окрестности, которые корректируются на каждой эпохи.
В данном окне (рис. 8.3.9) можно менять следующие параметры. ° Эпохи. В поле задаегся число эпох, используемых на каждом этапе. Скорость обучения. Скорость обучения изменяется линейно с первой до последней эпохи. Можно задать значение Начальное и Конечное. Обычно используют две различных величины скорости на двух этапах. На первом этапе используют высокую скорость обучения (например, с 0,9 по 0,1), большую окрестность (например, от 2 до 1) и малое число эпох (например, 100).
На втором этапе используется малая скорость обучения (например, 0,01), малая окрестность (например, О) и большое количество эпох (например, 10000). 205 Невоенные сети. ЯТАТ!ЯТЮА перга! Невке~«е Окрестность. В поле задается «радиус» окрестности выигравшего элемента. Например, параметр 2 задает квадрат размером 5х5. Бели выигравший нейрон расположен рядом или на границе топологической карты, окрестность содержит эту границу.
Окрестность изменяется линейно, начиная от начального значения и заканчивая конечным значением. Шаг 7. Предварительный шаг — инициализация классов (групп) на топологической карте. Поскольку при инициализации мы выбрали зависимую (выходную) переменную, то все необходимые имена классов уже имеются в списке классов. Наша задача — инициализировать все точки на топологической карте. Для этого выбираем последовательно наблюдения и инициализируем имя выигравшего нейрона именем того класса, к которому принадлежит наблюдение в обучающей выборке.
Топологическая карта показана на рис. 8.3.10. Напомним, что в исходной таблице наши классы имели названия: «О» и «2». Рке 8.3ЛО. Окне результатов, вкладка толологическал карта Шаг 8. Теперь можно просматривать результаты классификации. Для этого нажимаем на текущем окне клавишу Отмена. Мы попадаем в стандартное окно результатов (рис. 8.3.11). Шаг 9. Итоговую классификаци|о в двумерном пространстве удобно отобразить на диаграмме рассеяния (рис. 8.3. 12). Видно, что данная классификация отличается от обучающего множества. Это связано с тем, что выбрана слишком малая размерность топологической карты. 206 Гаева В.
Примеры применение Рис. 8.3.11. Окно результатов 1' 340 300 280 220 180 140 ° Окоор 0 100 Огоор 2 100 140 180 220 280 Х Рис. 8.3Л2. Классафакаииа с вомощыо самооргаиизуюощихеа кэрт размерности ЗхЗ Шаг 10. В таком случае можно вернуться к шагу 5 и установить размерность топологической карты 4х4. После обучения топологическая карта будет выглядеть так, как показано на рис. 8.3.13. Более сложное устройство топологической карты приводит к классификации, показанной на рис. 8.3.14. Тспсрь классификация более адекватна исходному множеству. Далее можно продолжать эксперименты с различныьзи размерностями топологической карты и вариантами обучения.
В итоге можно построить очень точное разделение двух множеств. Шаг 11. Построим модель на основе радиальных базисных функций. Для построения данной модели наличие обучающего множества обязательно. 207 Нейронные свого. ЗТАТ1ЗТ1СА Ноога1 Ноггтогкя 340 300 260 220 180 140 ° Оговор = 0 100 ° Сгот= 2 100 140 160 220 260 20 Рис. 8.3,14. Классификаиия в модели размервости 4х4 Рис. 8.3.13.
Тоггологическвя гарта Рис. 8.3.15. Стартовос окко модуля Нейронные сети Запускаем модуль Нейронные сети. Тнп задачи: Классификации, инструмент: Мастер решений (рис. 8.3.15). Шаг 12. Переменные выбираем как при построении предьщу3дей модели (рис.
8.3.1б). Шаг 13. Переходим на окно Мастера решений. На вкладке Быстрый зададим параметр гт'сетей равным 500 (рис. 8.3. 17). На вкладке Тин сети выберем только Радиальную базисную функцию (РБФ) (рис. 8.3.18). Оставляем остальные параметры по умолчанию и нажимаем ОК. 208 Нейронные сап!О. ЗТАТЗЗТЗСА НОО783 Иеьвогка Шаг 14. После обучения сети перейдем на вкладку Предсказанные и выведем на экран таблицу Предсказинных значений(рис. 8.3.19). Р33С, 8,3.19. Окно результатов, вкладка Предскнзаллые ПрвИвнвввннв и 5 Х, В Оввв Снвв! Оввв2 О!в!3 014444 64445 Рис.
8.3.20. Таолина предсказав!О%к змаченви Таблица Предсказанных значений показана на рис. 8,3,20. Диаграмма рассеяния результатов классификации представлена на рис. 8.3.21. Матрица классификации приведена на рис. 8.3.22. 210 1 2 з 4 5 5 8 9 Ю 11 12 13 14 !5 !О 17 !8 81 23 21 22 Ю 24 25 75 27 94 ЮЗ ЯВИ 210ЯХЮ %5000 238ЯВИ %3ИОО 239,ШЮ %Я0% 234ЯООО % ЯООО ЕЮ,0000 %ЛЮО 2!ОЯОГО 98ЛХЮ ИЮЯОЩ %ЯООО 239ЯВИ %ЯВИ 238ЯВЮ %ОХИ КНЯООО %ЯОИ 251 Я6Ю 97 ЯВИ Х!400% 97ЯЮО 232 ЯВИ %ЯОЮ 271,ШЮ %0000 2%ЯООО %6!% 2%ЯВИ 1СО 0000 205ЯООО 1ОЦЮ% 2!Он!% !63,ОЮО ЫВЮ 1630000 ЗЮЯООО 1Ш,ОЮО Ю1Л3% 1а! дюо зюякю 1ав,шю и злою 10! 3ИОО 218,0000 1015003 227Я0% 1П! ИХИ гве И!И о о о о о о а о а о о а о' 0 о о а о а о о о о а' О' о П 0 О О 0 о о а о о а о о о а о о' д' о' о о о о о о а о о' о о о о о о о о а' а о о о а о о о о о о о о' о а 0 и и а о о о о о о о о о о о о о о о о о о о о о о о о о о о о о о о о о о- о о о о о о о 0 О о о о о а о а а и и Гяеве а.
Примеры ярименеяия 340 300 260 220 100 Вклююуь ув О ° В ° 0-2 20уугоа 260 Х 140 100 100 140 100 220 Рпс. 8.322. Статпстзпса ела сспф яка пап Рпс. 8.3.21. Класспфикаппп с помопгьуо РБФ Итак, построена модель для проведения нелинейной классификации двух множеств. Алгоритм построения модели может быть распространен и на классификацию множеств большей размерности, ПРИМЕР 4. Сезментация разпичных образцов топпива по данным паборапгорноео исследования Обьектом исследования является совокупность образцов топлива, подвергшихся лабораторному исследованию.
Все переменные, содержащиеся в таблице, стандартизованы (вычитается средний, результат поделен на стандартное отклонение). Требуется сегментировать результаты исследований с различными образцами топлива (число сегментов изначально неизвестно). Модели прогнозирования свойств сортов топлива, построенньге на исходном множестве данных лабораторных исследований, не дают необходимой точности прогноза. Основная причина — разнородность сортов топлива.
В данном примере воспользуемся технологией нейросетевого анализа для решения задачи сегментации. Заметим, что обычно при сегментировании какого-то набора объектов решают две задачи: проведение кластерного анализа, решение задачи идентификации группы по результатам лабораторных исследований. В данном примере мы займемся решением первой задачи. Необходимо построить решающее правило, позволяющее отнести спектр к определенному кластеру с высокой степенью точности. Структура данных 211 Исходные данные представлены в таблице системы БТАГБТ1СА. Фрагмент таблицы показан на рис.
8.4.1. Данные являются модельными и иллюстрируют подход к решению задач. Ноаронныв сааза. ЗТАТ!ЗТгСА иваго! Н039707340 796 Л232я 1,~ 2 !'3 4 б .6 ', 7 чнн 1 чво ! чюь чт4 ! ч4% взяв ' ч470 ~ азт23~ ~ Рвс. 8.4.1. Табаева исходных даввьп Всего в таблице имеется 228 переменных, в которых содержатся данные измерений по каждому из 1810 образцов. Здесь все переменные — входные.
Единственной выходной переменной в данной задаче будет переменная, задающая результаты классификации. Значения этой переменной нам и требуется определить. Построение моцепи Шаг 1. Запускаем модуль Нейронные сети из меню Анализ. Для проведения кластерного анализа (когда итоговая классификация не известна) используется архитектура Нейронной сети, которая называется Самоорганизующиеся карты Кохонена.
В качестве типа анализа выбираем Кластерный анализ. Далее заходим в диалог задания переменных и выбираем все 22б независимых переменных как непрерывные входные переменные. Для построения карт Кохонена следует использовать инструмент Конструктор сетей. Стартовое окно модуля Нейронные сети принимает вид, показанный на рис. 8.4.2. Нажимаем кнопку ОК и переходим к следующему этапу диалога: выбору сетевой архитектуры и заданию параметров, Шаг 2. В окне Конструктор сетей (рис.
8.4. 3) необходимо указать тип сети — Самоорганизующаяся карта Кохонена. Перейдем на вкладку Элементы (рис, 8.4.4). Заранее мы не можем знать точно размер карты, поэтому требуется экспериментировать с разными значениями. Приводим результаты применения карт Кохонена двух размерностей (5х5 и 7х7). Данные размеры топологической карты были предваритель- 1 2 з 4. 5 б в 9 !о' . ' 11 и 13 14 15, ! 0,4%%2 4 ИВ%33 ОВ!9% азатов О,С848% ар!2% БЗ1429 0,4235% аз%% 1,1%446 огввзз 00%5! 0,5!993 0,3:065Б -1 69%3 ОВ36% 024277 О 2396 О 10337 0 16697 ОЗН26 0,1%ЗТ 04%%! 41 48075 ОЯРО63 О 1!%7 .О 2%% 4!51о5 о,!иг!в .1,1451Б ау!3% 0,4ЛБ 0.4 19Н 007об О.4%5 0287% 0 Ч843 О,! 1%23 440%2 0,4552% 051797 62%% 4186359 0047702 41,95254 41,12Т71 43Л633 .Оза 7% 0874199 0,72915 4!.41984 055738 .0 32103 0 54752 0 02461 052234 .1 58%3 0 6675 4ЦМЭВ 081979 0,400% азвг% .Одзб! 0,152БВ1 О,ТЗ!39 алма 083915 04%% 08%!3 0,17722 0 7%% .1 ЗВ!% 0,45% 0%25! -1 9026 054249 0,41925 .!В!171 ар!7%4 0%449 4153876 ов!ен 025614 .151Т19 0,19145 ! Л6156 .1 13%8 4!817!8 0,13513 1,16122 47В723 08%4! 09332 023%6 0 В5572 030%в 0;%838 0.15328 1494% 0,1%27 1 82583 оди!в 084%4 Глава 8.
Проывры оромвнвноя 3$В ° ЬВ 6~ нов ~„.тленье змы а)аюювепа ю~саэю м бм~ Рис. 8.4.2. Стартовое окко модуля Нейрттые сеиси с пеобходимыми установками Рпс. 8.4.3. Окио задавив параметров апалкза для коиструктора сетеИ, вкладка Быстрый но подобраны путем экспериментов. Вначале сделаем на вкладке Элементы следукпцие установки: ширина — 5, высота — 5. Нажимаем ОК. Шаг 3.
Переходим к диалогу задания параметров обучения нейронной сети. Самоорганизующиеся карты обучаются по специфическим алгоритмам, а при вычислении ошибок предполагается, что второй слой сети состоит из радиальных элементов, представляющих центры кластеров. 213 Непронные сета. ЗТАТ!ЗТЮА Монга! Месеойз ~ ее:~йей ь юн ~ вам м ~ Рпс. 8.4.4. Окко звлвюм параметров апвлпза длв копструктора семИ, вклалкв Элсмеппсы Ошибка вычисляется как расстояние от входного набора данных до ближайшего нз этих центров. Функция ошибок предназначена для использования только в данных картах и сетях для кластеризации.














