Боровиков В.П. - Нейронные сети (778916), страница 44
Текст из файла (страница 44)
Примеры применении Г~~е Ом ю~ свае Вне вел оаим Ф авдоаапь... сена й ООюйайаябтминннт4бяеи си Рис. 8.5.3. Меию Аиализ системы КТАТ13Т!СА Для опытных пользователей имеется возможность (на вклашсе Дополнительно) задавать тип переменной, а также ее статус (входная/выходная), не ограничиваясь какой-либо одной постановкой исследования. Среди всех имеклцихся переменных только четыре непрерывные переменные (длительность в месяцах, сумма кредита, возраст в годах, число месяцев с момента выдачи кредита) (рис.
8.5.4). Н ~Ма и 'ы . и Рис. 8.5.4. Оиио выбора иереыеииых Нажимаем кнопку ОК. Стартовое окно принимает вид, показанный на рис. 8.5.5. Переходим на вкладку Дололнизиельно (рис. 8.5.б) и выбираем инструменг — Понижение размерности. Нажимаем ОК. В окне Понижения размерности переходим на вкладку Быстрый (рис. 8.5.7). 221 Нейронные сапам. ВТАТВТ!СА Монга! Иваногвв Ркс.
8.5.5. Стартовое окко модуля Нейронные сети Рис. 8.5.6. Стартовое окко модуля Неирооные сети, вклалка Доиолнитненьно Ианболее бвясгрым алгоритмом является Метод последонательный с нключениеле (при 22-х переменных и 1000 наблюдений осташ ные работают существенно дольше). Оставляя другие установки по умолчанию, нажимаем ОК. Результатом работы алгоритма является таблица, представленная на рис. 8.5.8, 222 Гпаеа 8. Примеры примененив Зсссс»»с Оаесаюе Нссаас»а». 2тз Ю»»с»»а»аз»се»»с ! К»и»аа»»с ~ Ка»с»сааза Б»щ» ° ~ Лаа»сса»с» ~и е~-- зц вез Рцс. 8.5Л. Окно Понижение ра змерзюости, вкладка Быстрый Ркс. 8.5.8.
Таблица результатов Значимые переменные отмечены словом «Да». Использование алгоритмов снижения размерности уменьшает количество независимых переменных до 10. В дальнейшем будем использовать эти 10 переменных в качестве независимых прсдикторов. В стартовом окне задаем новый набор нсзависимьм переменных (рис.
8.5.9). зЮ ~а~ -",Т» с зн ка»ю каса» мюззсзсюо Ю»с с» ~»аа»» 3»» каесьсю н.»ас» «зазасзсюлсз ~в) звв~ Рас. 8.5.9. Стартовое окно модула Нейронные сепюи 223 Нваронныв овгво. 8ТАТ!ЗтгСА Иваго! Мв!ггогкв В качестве инструмента построения сети будем использовать Мастер решений. После того, как установки проделаны, нажимаем ОК. Шаг 2.
Выбор модели. Вначале проведем анализ для певзвешснных переменных. На вкладке Быстрый окна Мастер решений (рис. 8.5.10) изменим величину длительности анализа и установим ее равной 100. Рас. 8.5.10. Окко Мастера решений, вкладка Быстрьгй Для начала нам необходимо выяснить, какие модели будут работать эффективнее, поэтому, нс изменяя остальных опций, нажимаем ОК. Анализируя величину производительности на тестовом множестве, делаем вывод, что точность прогноза с помощью построенных моделей находится на уровне 80% (рис. 8.5.11). В».„. » . » г»» 3ь ~!Нюв»» ° !»уют» ю~!О» »»» Рас. 8.5.11. Оаво результатов 224 Глава В.
Примеры применении Мы рассматриваем именно значение производительности (которая, в данном случае, интерпретируется как доля правильно классифицированных) на тестовом множестве, так как это множество не использовалось при обучении сети и предоставляет возможность проведения анализа качества построенной модели. Не углубляясь в дальнейшее изучение построенной модели, попробуем улучшить ее, вкшочив в анализ переменную с весами.
Для этого на окне результатов нажимаем ОК и возвращаемся к стартовому окну, в котором нажимаем кнопку ~ й ~ . В появившемся окне указываем в соответствующем поле название переменной, содержащей веса (рис. 8.5.12). Убедитесь, что в поле Состояние выбрано «ВКЛ». Нажимаем ОК. Рас. 8.5.12. Задание весовой асрсмсввой Вернувшись к стартовому окну, не изменяем сделанных ранее настроек и нажимаем ОК (при этом мы, как и прежде, работаем в Мастере решений). На следующем окне снова нажимаем ОК. »» б»~ яа )ЙРю» ~»»»» м»»»»»~ »» 33ю ь»»»»» ьз и»»» ъ» аиз»и р, Рас.
8.5ЛЗ. Оаао результатов 225 Нейронные сеггги. ВТАТ18Т!СА Неога! ЙеГ»гога» Анализируя значения производительностей, делаем вывод о том, что сеть Многослойного персептрона наиболее удачно моделирует данные (рис. 8.5.13). Нажимаем кнопку Выбрать модели. На вкладке Выбрать модели выбираем первую сеть (рис. 8.5. 14). м и ! 1ФИ Ф Ркс. 8.5.14. Двалог выбора моделя Нажимаем ОК. На вкладке Быстрый нажимаем Описательные стапг. (см. рис. 8.5. 13). Таблица статистик классификации приведена на рис. 8.5.15. Рвс. 8.5.15. Таблвва оввсательвых статистик клаесвфвкаввв Процент правильно классифицированных в категорию «плохой» равен 98%, а в категорию «хороший» вЂ” 96 7%. Шаг 3. Анализ результатов.
При выборе модели мы уже построили таблицу описательных статистик, поэтому проанализируем остальные результаты. На вкладке Быстрый пользователь может вывести таблицу Предсказинных зпочений (рис. 8.5.16). В случае необходимости в данной таблице помимо наблюдаемых и предсказанных значений зависимой переменной можно вывести независимые переменные, переменную, содержащую идентифи- 226 Гпава В. примеры яроменвноя Рис. 8,5.1б.
Таблица лредеивзв~ииях зивчеииИ катор выборки, а также псременныс из исходной таблицы данных, которые нс были включены в модель. Для задания перечисленных опций необходимо перейти на вкладку Предсказанные (рис. 8.5.17). я~й~4чфг «з д~ ~«~ Б ак л 3 ««н «и «й, 4 6 «А! л««я«««««« ~ч« ~ «« ~ ь«««э «) « «»" с..м « ял яю ~ лн««ъв абм««зу ««« ««ял «я г ь«» ~ Рис. 8.5.17. Оюю результатов, вкладка Предсказанные Для нейронных сетей с катсгориальными результирующими переменными доступна опция отображения уровней доверия.
При помощи этой опции можно отобразить уровни доверия для нейронной сети в различных классах, которые представляются уровнями активации выходных нейронов, соответствующих итоговой переменной. Уровни активации выходного нейрона предоставляют доверительные оценки для выходных классов.
Иногда становится возможно интерпретировать подобные уровни в качестве вероятностей. Если в сочетании с правильно 227 Нейронные сепв. ЗТАТ!ЗТ!СА Ноше! Неокойе выбранной функцией ошибки используется правильная функция активации во время процедуры оптимизации, то можно выполнить подобную интерпретацию. Напримср, кросс-энтропийная функция ошибки комбинируется с логистичсской функцией активации для двухварнантных задач или с функцией максимума для многовариантных задач.
Энтропийный подход соответствует оптимизации максимального правдоподобия, предполагая, что данные взяты из экспоненциального семейства распределений. Важное свойство заключается в том, что выходы можно интерпретировать в качестве апостериорных оценок вероятностей членов классов.
Альтернативный подход заключается в использовании среднеквадратичной функции ошибки вместе с логистической функцией активации. Однако он имеет меньше статистической достоверности — нейронная сеть обучается с использованием дискриминантной функции, и хотя выходы можно интерпретировать как доверительные значения,они не являются оценками вероятностей (их сумма может быть не равна 1,0), С другой стороны, подобные сети обучшотся намного быстрее и стабильнее (на их основе можно достигнуть больших долей правильных классификаций). При отображении уровней доверия таблица Предскизицных принимает внд, показанный на рис.
8.5.18. ! Рыс. 8.5.18. Табаыца Предскаеаакмк с уровыямы довсрыа При масштабировании уровней доверия станст возможным интерпретировать их как «скор» данного клиента. Гпавв а. Примеры промвнонов ПРИМЕР 6. Аппроксимация функций Имеется неизвестная функция двух переменных, которая задана 1000-ю значениями на интервале 10,1017410,101. Предполагается, что точки, в которых заданы значения функции, распределены в указанном квадрате случайно. Требуется построить математическую модель, которая описывает связь значений функции и значений независимых переменных. График функции показан на рис. 8.6.1. Структура 9анных Файл данных состоит из трех переменных: х, у, х, Псрсмснныс х ну — независнмыс, переменная г — зависимая(рис. 8.6.2).
Построение моцепи В классическом подходе к решению задачи на первом шаге строится модель лзножествснной регрессии. Очевидно, что зависимость нелинейная и все линейные модели будут давать «плохне» результаты. В 8ТЖ1оТ1СА имеется модуль нелинейной множественной регрессии, который позволяет автоматически включать в модель не только сами переменные, но и различныс (но уже нелинейные) преобразования от них (т.с. хг, хз, е, и т.д.).
В данном примере мы вначале построим модель с помощью Мггожесгпеенззой нелинейной регрессии, а затем перейдем построенизо нейросетевой модели для данной задачи. =зпз.щ 1 2, 3 к ' 7 4 / б 5 4 з 2 ! юв ИИ 5 ИИ 4 сз3 Г:З 2 г:з ! ив о Рис. 8.6.1. График фуикции Рве. 8.6.2. Фрагысит исходззой таблицы даииых 229 1 1,54%62 2 444%% з 5нгмг 4 6537706 5 3756025 Б Б 349249 7 4.47%44 В 8,155079 9 07223:в 1О 8018165 11 4567126 12 4 4209 !З 14ВОВБ 14 3677939 и ! и!Огг 16 1 311813 17 1 185996 18 4 5327% 19 6 001406 зов%8%5 2,2Б21 6 5,974999 4 7967% 0293489 О З1З7% 9 377%4 0 1%%2 В,ЭЗ!37! 657%% б 009409 ! о!%зз Б 903051 9 0»922 5 022547 9,06Б 77 7,0454% 1 3»922 57!7426 9 4465 ВЯБ235 0.0%401 0 41!21!! з 24%8~ О,! 43315, 02%5%!' 0 О!618~ О!6%!! 8%3!г~ о зиогб! о.овн%! огаэиг! 0,322347! 0,071375! 0 624491 0,241543~ 0,343321! 06%782~ 1 427575~ 0 011603 131 22.4 'г»есронные оен!о.
ЗТАТ18Т!СА йеоге! НеГаогав Шаг 1. Запускаем модуль Мггоэгсеснгеенная нелинейная регрессия (рис. 8.6.3). '«Ц »» е«»«ь» ! б< .! М /~ И»«! Тб! н«б !»е! В"«» С» г««н««н вг ' авн, ! Е«е ! йн««б» ю . '!Ва ббв»б «б ° бб» « ~~«б»» амит» б»»«с» 1ГИ»б» «» нл "..'б»! в«! б»!, Ва»б«б» «н» ! Ь.«Ь и! Гака б б ° ббб»й !»г ! б«»«» с»««»«««ее гы! !Н »!»!б»»б»ф б М « Рис. 8.6.3. Зепуси модуля Множестве!!!ген нелннеднни регрессия На стартовом окне нажимаем кнопку Переменные и переходим к заданию переменных (рис.















