Боровиков В.П. - Нейронные сети (778916), страница 22
Текст из файла (страница 22)
Единственная из сстсй пакста БТ книги! №гнюг!гя, нс прсдназначснная для задач классификации, — это обобщснно-рсгрссснонная сеть (на самом дсчс, ссли вы потрсбустс, ОКНА-ссть будст пытаться это сделать, но мы этого пе рекомсндусм).
Номинальныс псрсменныс прсдставляются в пакстс БТ Хеиги! №гнюг!ск в одном нз двух видов: бинарном (лва состояния; этот вариант годится только лля персмснных с двумя значснпями) нлп 1-из-А!. При бинарном прсцстав.пснии псрсменной соотвстствуст один узсл сети, при этом значение 0,0 означаст активное состояннс, а 1,0 — нсакгивнос. При кодировании 1-из-М на каждос состояние выдслястся один элсмснт, так что каждое конкрстнос состоянис прсдставлястся как 1,0 в соответствующем элементе и 0,0 во вссх других.
Номинальные входныс псрсмснныс в пакете БТ Меига! №п«ог!гя могут быть прсобразованы одним из этих мстодов как на этапе обучения сети, так н при сс работе. Целевые выходные значения лля элсмснтов, соответствующих номинальным псремснным, такжс лсгко опрсдсляются во врсмя обучсния. Несколько большис усилия требуются на то, чтобы по результатам работы сети определить выходной класс, Каждый из выходных элсмснтов будет содержать числовые значения в интсрвалс от 0,0 до 1,0. Чтобы уверенно определить класс по набору выходных значснцй, ссть должна решить, «достаточно ли близки» они к нулю или сдиницс. Если такой близости нс наблюластся, класс считается «нсопрслслснным».
Кроме того, в пакете ЮТ №ига! №!итог!сз для ицтсрпретации выходных значсний используются уровни значимости (пороги принятия и отвержения). 106 Гпаеа 4. Общий обзор нейронных оеГпей Эти пороговые значения можно коррсктировать, чтобы застанить сеть быть более или, наоборот, менее «рсшительной» при обьявлснии класса. Схемы здесь немного различаются для случаев бинарного и 1-из-Ф представлений.
Бинарное представление Если выходнос значение элемента превышаст порог принятия, то выбирается класс 1,0. Если ныходнос значснис лсжит ниже порога отвержения, то выбирастся класс 0,0. Если выходнос значение лежит между порогами— класс считается нвопрсделснным. Кодирование 1-из-И Определенный класс выбирается только в том случае, если значение соотвстстнующего ныходного элемента выше порога принятия, а нсех остальных ныходных элсмснтов — ниже порога отнержсния. Если же даннос условие не выполнено, класс не опрсдслястся. При кодировании методом 1-нз-заимеет место одна особенность. На перный нзгляд кажется, что «наиболес решительной» будет сеть с порогами принятия и отвержения, равными 0,5.
Это дсйствитсльно пранильно для бинарного кодиронания, но нет — для кодирования 1-из-Ж Можно сделать так, чтобы порог принятия был ниже порога отвержения, и наиболсе решительной будет сеть, у которой порог принятия 0,0, а порог отвержсния 1,0. При такой, на перный нзгляд, странной настройке сети элемент с наивысшим уроннем активации будст опредслять класс вне зависимости от того, что происходит в других элсмсптах. Вот точная схсма дейстния алгоритма опрсделсния класса н пакстс о Т Иеига! Мепоогйк ° ныбирастся элсмснт с наинысшим выходным сигналом; ° если сто выходной сигнал выше или равен порогу принятия, а ныходныс сигналы всех остальных элементов нижс порога отнержсния, то в качсстнс ответа вьщается класс, определяемый этим элементом. При пороге принятия 0,0 ныходной сигнал ныпграншего элемента всегда будст принят, а при пороге отвсржсния 1,0 всс остальные элсменты неизбежно будут отвергнуты, и поэтому алгоритм сводится к простому ныбору ныигравшсго элсмента.
Если же оба пороговых значсния — принятия и отвсржсния — установить на уронне 0,5, сеть вполне может остаться н нерешительности (в случаях, когда у победителя результат ниже 0,5 нли у кого-то из проигранших он вышс 0,5). Хотя для понимания описанной процсдуры требуются опрсдслснные усилия, после того, как вы к ной привыкнстс, то сможсте достазочно тонко регулировать условия для конкрстной задачи.
Например, уровни принятия/отвержсния, равные 0,3/0,7, означают слсдующсс «ныбрать класс, соответствую- 10? Непронные оеео. ЗТАТ!ЗТ!СА Мои~а! Нее«еже ший выигравшему элементу, при условии, что сго выход бьш не нижс 0,3 и ня у какого другого элемента активация не превышала 0,7». Другими словами, для того, чтобы решсние было принято, победитель должен показать заметный уровснь активации, а проигравшие — нс слишком высокий. Вес сказанное относится к механизму выбора класса для большинства типов остей: МЛП, РБФ, линейных сетей и РХХ (одно исключснис: в РХХ-сетя нельзя использовать бицарнос кодирование, и дажс бинарные поминальные выходные псрсмснные оцениваются с помощью кодирования 1-из-/1/).
В отличис от них, сеть Кохонена дсйсгвует совершенно иначе. В ссти Кохонена выигравшим элементом топологической карты (выходного слоя) является тот, у которого самый высокий уровень активации (он измсряет расстояние от входного примера до точки, координаты которой хранятся в элементе сети). Нскоторые или дажс вес элементы топологической карты могут быть помечены именами классов. Если это расстояние достаточно мало, то данное наблюдение причисляется к соответствующсму классу (при условии, что указано имя класса).
В пакете 5ТЛ/еиги/ Уе~н оМк значсние порога принятия — это наибольшее расстояние, ца котором принимается положительное решение о классификации наблюдения. Если жс входнос наблюдение лежит от выигравшсго элемспта на более далеком расстоянии или сели выигравший элемент не бьп помечен (или сели его мстка нс соответствует ни одному из значений выходной номинальной псрсмснной), то это наблюдение остается нсрасклассифицированным. Порог отвержения в сетях Кохонена нс используется. Ранес мы прсдполагали, что «положительному» решению о классификации должно соответствовать значенис, близкое к 1,0, а «отрицательному»вЂ” близкое к 0,0. Это дсйствитсльпо так в том случае, если используются логистичсские функции активации. Кромс того, это удобно, поскольку вероятность может принимать значения от 0,0 до 1,0. Однако в нскоторых ситуациях более удобным может оказаться использование другого диапазона.
Иногда применяется обратная упорядоченность, так что положительнос решение соотвстствуст малым выходным значениям. Программа оТ Меиги/ А/е/ноМк поддерживает любой пз этих вариантов работы. Вначале в качсствс границ диапазона для каждой псремспной используются значсния минимум/среднее и максимум/стандартное отклонение.
Для логистичсской выходной функции активации хорошими значениями по умолчанию являются 0,0 и 1,0. Нскоторыс авторы совсз уют использовать в качестве функции активации гипсрболичсский тангенс, который принимает значения в интсрвалс (-1,0; +1,0). Таким приемом можно улучшить обучение, потому что эта функция, в отличие от логистической, симметрична.
В этом случае нужно изменить значения минимум/срсднсс и максимум/стандартное отклонение, и программа о"Т Д/еиш/ А/«мог/гх автоматически будет правильно интерпретировать классы. 108 Гпаеа 4. Общой обзор нейронных сегпей Обратная упорядоченность, как правило, применястся в двух ситуациях. Одну из них мы только что обсудили: это сети Кохонена, в которых выходное значение есть мера удаленности, и ес малое значение соответствует большему доверию. Вторая ситуация возникает при использовании матрицы потерь (которая может быть добавлена в вероятностную сеть на этапе ес построения или вручную — к сетям других типов).
Если используется матрица потерь, то выходы сети означают ожидаемые потери от выбора того или иного класса, и цель заключается в том, чтобы выбрать класс с наименьшими потерями. Упорядоченность можно обратить, объявив выходной сигнал не уровнсм доверия, а мерой ошибки. В таком случае порог принятия будет ниже порога отвержения. Окно статистик классификации При выборе порогов принятия/отвержения и оценке способностей сети к классификации очснь помогает информация, содержащаяся в окне Оиисижельпые стилистики.
В нем указывается, сколько наблюдений бьшо классифицировано правильно, сколько неправильно или вообще нс классифицировано. Кроме того, выдастся информация о том, сколько наблюдений каждого класса было отнесено к другим классам. Все эти данные отображаются отдельно для обучающего, контрольного и тестового множеств. ЗАххАЧИ РЕГРЕССИИ В задачах регрессии целью является оценка значения числовой (принимающей непрерывный диапазон значений) выходной переменной по значениям входных переменных.
Задачи рсгрсссии в пакете БТ Менги1 дГеГноМх можно рсшать с помощью сстсй следующих типов: многослойный псрсептрон, р щиальпая базисная функция, обобщенно-регрсссиошщя сеть и линейная сеть. При этом выходные данные должны имсть стандартный числовой (пс номинальный) тип. Особую важность для регрессии имеют масштабирование (шкалирование) выходных значений и эффекты экстраполяции.
Сети наиболее часто используемых архитскгур вьщают выходные значения в некотором опрсдслснном диапазоне (цапримср, на отрезке [О; Ц в случае логистической функции активации). Для задач классификации это не создает трудностей. Однако для задач регрессии совершенно очевидно, что тут есть проблема, и некоторые сс детали оказывается весьма тонкими. Сейчас мы обсудим возникающие при этом вопросы.















