Боровиков В.П. - Нейронные сети (778916), страница 24
Текст из файла (страница 24)
Значения двух исследуемых переменных можно менять в произвольном диапазоне (по умолчанию — в диапазоне изменения обучающих данных). ПРОГНОЗИРОВАНИЕ ВРЕМЕННЫХ РЯБОВ В задачах анализа временных рядов основной цслью является прогноз будущих значений переменной, зависящей от времени, на основе предыдуших значений ее и/или других переменных (В1зпор, 1995) Как правило, прогнозируемая перемснпая является числовой, поэтому прогнозирование временных рядов — это частный случай регрессии. Однако такое ограниченис пе заложено в пакет БТ №иги! л!егногкв, так что в нем можно прогнозировать и временные ряды номинальных (т.е.
классифицирующих) переменных. Обычно очерсднос значснис временного ряда прогнозируется по некоторому числу его предыдущих значений (прогноз на один шаг вперед во времени). В пакете БТ д!виги! Фегн ог!сг можно выполнять прогноз на любое число шагов. После того, как вычислено очсрсдное предполагасмос значение, оно подставляется обратно в ряд и с его помощью (а также с помощью предыдущих значсний) получается следующий прогноз — это называется проекцией временного ряда. В пакете БТ Меиги! №гногвв можно осуществлять проекцию временного ряда и при пошаговом прогнозировании. Понятно, что надежность такой проекции тем меньше, чем больше шагов впсред мы пытаемся прсдсказать.
В случаях, когда требуется совершенно определенная дальность прогноза, разумно будет спсциально обучить сеть именно на такую дальность. В пакете о Т %виги! Мегн одев для рсшепия задач прогноза временных рядов можно применять сети всех типов (тип сети должсн подходить, в зависимости от задачи, для регрессии или классификации). Сеть конфигурируется для прогноза временного ряда установкой параметров Окно прогнози и Прогноз вперед (количество шагов~. Параметр Окно прогиози задаст число 113 Нейронные сева ЗТАТ!ЗТ!СА Неогж йв!ггогКв предыдущих значений, которые следует подавать на вход, а параметр Прогноз вперед (количесгпво шагов) указывает, как далеко нужно строить прогноз (при использовании Мастери реигений пользователь устанавливает только интервал для значений окна прогноза).
Количество входных и выходных переменных может быть произвольным. Однако, чаше всего в качестве входной и одновременно (с учетом горизонта) выходной выступает единственная переменная. При конфигурировании сети для анализа временных рядов изменяется метод препроцессирования данных 1извлскаются не отдельные наблюдения, а их блоки), но обучение и работа сети происходят точно так же, как и в задачах других типов, В задачах анализа временных рядов особую сложность представляет интерпретация понятий обучающего, контрольного и тестового множеств, а также неучитываемых данных.
В обычной ситуации каждое наблюдение рассматривается независимо, и никаких вопросов здесь не возникает. В случае же временного ряда каждый входной или выходной набор составлен из данных, относящихся к нескольким наблюдениям, число которых задается параметрами сети Окно прогноза и Прогноз вперед (количесгпво шагов). Из этого следуют два обстоятельства. Категория, к которой будет отнесен набор, определяется категорией выходного наблюдения.
Например, если в исходных данных первые два наблюдения не учитываклся, а третье объявлено тестовым, и значения параметров Окно прогноза и Прогноз вперед (количесгпво шагов) равны соответственно 2 и 1, то первый используемый набор будет тестовым, его входы будут браться из первых двух наблюдений, а выход — из третьего. Таким образом, первые два наблюдения, хотя и помечены как неучитываемые, используются в тестовом множестве. Более того, данные одного наблюдения могут исполь. зоваться сразу в трех наборах, каждый из которых может быть обучакяцим, контрольным или тестовым. Можно сказать, что данные «растекаются» по обучающему, контрольному и тестовому множествам. Чтобы полностью разделить эти множества, пришлось бы сформировать отдельные блоки обучающих, контрольных и тестовых наблюдений, отделенные друг от друга достаточным числом неучитываемых наблюдений.
Несколько первых наблюдений можно использовать только в качестве входных данных. При выборе наблюдений во временном ряду номер наблюдения всегда соответствует выходному значению. Поэтому первые несколько наблюдений вообще невозможно выбрать (для этого нужны были бы еще наблюдения, расположенные перед первым наблюдением в исходных данных), и они автоматически помечаются как неучитываемые. Гпава 4.
Общей обзор нейронных сетей ОТБОР ПЕРЕМЕННЫХ И ПОНИЖЕНИЕ РАЗМЕРНОСТИ До сих пор, говоря о построении и конструировании сети, мы предполагали, что входной и выходной слои заданы, т.е. мы уже знаем, какие переменные будут подаваться на вход сети и что будет ее выходом. То, какие переменныс будут выходными, известно всегда (по крайней мере, в случае управляемого обучения).
Что жс касается входных переменных, их правильный выбор порой представляет большие трудности (В1зЬор, 1995). Часто мы ие знаем заранее, какие нз входных переменных действительно полезны для решения задачи, и выбор хорошего множества входов бывает затруднен целым рядом обстоятельств. ° Проклятие размерности. Каждый дополнительный входной элемент сети — это новая размерность в пространствс данных.
С этой точки зрения становится понятно следующее: чтобы достаточно плотно «заселить» Ж-мерное пространство и «увидеть» структуру данных, нужно иметь довольно много точек. Необходимое число точек быстро возрастает с ростом размерности пространства (грубо говоря, как 2 для большинства методов). Большинство типов нейронных сетей (в частности, многослойные псрсептроны) в меньшей степени страдают от проклятия размерности, чем другие методы, потому что сеть умеет следить за проекциями участков многомерного пространства в пространстве малой размерности (например, если все веса, выходящие из некоторого входного элемента, равны нулю, то МЛП-ссть полностью игнорирует эту входную переменную).
Тем не менсе, проклятие размерности остается серьезной проблемой, и качество работы сети можно значительно улучшить, исключив ненужныс входные переменные. На самом деле, чтобы уменьшить эффект прокпятия размерности иногда бывает целесообразно исключить даже те входные переменные, которые несут в себе некоторую незначительную информацию. ° Внутренние зависимости между переменными. Было бы очень хорошо, если бы каждузо переменную — кандидата на то, чтобы служить входом сети, можно было бы независимо оценить на «полезность», а затем отобрать самые полезные переменные. К сожалению, это, как правило, сделать нсвозможно, поскольку две или более взаимосвязанных переменных могут вместе нести существенную информацию, которая не содержится ни в каком их подмножестве.
Классическим примером может служить задача с двумя спиралями, в которой точки данных двух классов расположены вдоль двух переплетающихся двумерных спиралей. Ни одна из переменных в отдельности 115 Нейронные сева ЗТАТ!ЗТ!СА Мела! Неаеойе не несет никакой полсзной информации (классы будут выглядеть совершенно перемешанными), но учитывая обе псрсмснныс, классы легко разделить.
Таким образом, в общем случае персменныс нельзя отбирать независимо. ° Избьпочность переменных. Часто бывает так, что одна и та же информация в большсй или меньшей степени повторяется в разных переменных. Например, данные о росте и весе человска, как правило, несут в себе сходную информацию, поскольку они сильно коррелированы. Может оказаться так, что в качестве входов достаточно взять лишь часть из нескольких коррслированных переменных, и этот выбор может быть произвольным. Итак, выбор входных переменных — это исключительно важный этап при построении ости. Перед тем, как нспосредственно начинать работать с пакетом 3Т №нги! №~вог7гз, имеет смысл произвести предварительный отбор переменных, используя при этом свои знания в прсдмстной области и стандартные статистические критерии.
Затсм, уже средствами пакета 57' №ига! №~вогхз можно будет попробовать различныс комбинации входных переменных. В пакете э'Т №ига! №~и оМз имсстся возможность «игнорировать» некоторые переменные, так что полученная есть пе будет использовать их в качестве входов. Можно поочередно экспериментировать с различными комбинациямн входов, строя всякий раз новыс варианты сетей. При таком экспериментировании очень полезными оказываются вероятностные и обобщенно-регрессионные сети.















