Диссертация (1138079), страница 17
Текст из файла (страница 17)
Самоорганизующиеся сетипринципиально отличаются от искусственных нейронных сетей из Главы 2,которые обучались с учителем. Рассмотренным ранее сетям ЛевенбергаМарквардта и Хакена в процессе оптимизации предъявлялись некие эталонныепримеры, основные характеристики которых сеть должна была выучить. Вкачестве обучающей выборки выступали либо непосредственно эмпирическиеданные (рыночные котировки) либо заранее подготовленная база априорныхзнаний. Однако при работе с самоорганизующимися сетями мы не предъявляемим заранее правильный ответ, потенциально формируя пространство выходныхзначений. Минимизировать свою ошибку в процессе обучения такие сети могуттолько, опираясь на вменённую им процедуру оптимизации. Для этой цели можетбыть задействован широкий набор методов, в т.ч., стохастический поиск иконкурентный отбор (роевое обучение), которые будут изучены в данной главе.В данном разделе для модификации сети Хакена мы обратимся к важномутипусамоорганизующихсяискусственныхнейронныхсетей–самоорганизующимся картам, также известным под названием сетей Кохонена12[19,123-125].
Эти искусственные нейронные сети примечательны тем, что воснове их построения лежит принцип конкуренции между различными нейронамиза право активации, что роднит её с генетическими алгоритмами и механизмоместественного отбора в природе.Самоорганизующиеся карты в плане архитектуры представляют собойнесколько иную структуру, чем изображённая на рис.1. По сути, здесь речь идёт оразличных отображениях исходных векторов-сигналов в пространстве выходногослоя, который имеет большую размерность (рис.
27).12Здесь и далее в данной работе мы отождествляем понятия «самоорганизующиеся карты» и «сеть Кохонена».103Рис. 27. Архитектура искусственной нейронной сети Кохонена.Построение отображений в выходном слое делается с целью составленият.н. карты признаков (систем координат) исходного вектора, где каждоеотображение должно содержать в себе значимую информацию о какой-тохарактеристикеисследуемогообъекта.Здесьможнопровестианалогиюсамоорганизующихся карт с методом главных [168] и методом независимыхкомпонент, поскольку там мы также проецируем исходный вектор в новойсистеме координат – новом базисе.
После того, как такая новая система координатпостроена, мы, можем использовать её отдельные оси (а в случае сети Кохонена –карту признаков) для дальнейшей работы, в итоге сократив размерность данныхвходного пространства.В ходе прогнозирования финансовых рынков мы будем использовать картупризнаков сети Кохонена в качестве сигнальной системы. Это означает, что взависимости от того, какой нейрон победил на данной итерации (т.е.активировался), мы будем судить о степени влияния того или иного признака нарынок и на основе этой информации принимать инвестиционное решение.Далее мы перейдём к описанию обучения сетей Кохонена.
Его суть состоитв том, что отображения исходного вектора (или векторов) конкурируют междусобой, в результате чего и происходит активация одного из нейронов. После тогокак победивший нейрон активировался, он начинает формировать вокруг себяупорядоченнуютопологическуюобласть,котораясодержитзначимуюинформацию об исходном векторе.
После этого происходит встраивание другихотображений в эту область, отсюда и название сети – самоорганизующиеся карты.104Поиск отображения-«победителя» называется процессом конкуренции, процессопределения упорядоченной топологической области вокруг отображения«победителя» – процессом кооперации, а подстройка других отображений подсвойства данной топологической области – процессом адаптации.Важно ещё раз подчеркнуть, что в сети Кохонена не проводится сравнения собучающимипримерами-эталонами(какэтопроисходитприобученииискусственных нейронных сетей с учителем), не обращается сеть и к своимпрошлымошибкам–оптимумдостигаетсяисключительноблагодаряконкуренции между несколькими векторами-отображениями.Если представить итеративный процесс оптимизации самоорганизующихсякарт пошагово, то в базовой модели он будет выглядеть так:1. Случайным образом задаются отображения исходного вектора Х (мыбудем использовать один исходный вектор, состоящий из пяти значенийдоходностифинансовогоинструмента).Случайноеопределениеначальных значений часто используется в финансовой математике, ввиду удобства и простоты реализации на практике.
К этому такжеприбегают в тех случаях, когда нет возможности с достаточнымобоснованиемзадатьначальныеусловиявнутримодели(т.е.детерминистски), или же это делается намеренно – чтобы внестислучайную составляющую в процесс.Однако такой метод имееточевидный недостаток – зависимость результатов модели от генератораслучайных чисел (который, вообще говоря,в чистом виде создатьневозможно), а кроме того – потенциальная чувствительность модели кначальным условиям. Мы полагаем, что для более эффективного икорректного функционирования модели необходимо, чтобы начальныезначения были детерминированы внутри модели, что и будет сделанодалее.2.
Осуществляетсяпоискконкуренции). Напомним, чтоотображения-«победителя»(процессв выходном слое мы хотим получитьтакие отображения исходного вектора Х, которые бы содержали его105важные свойства и характеристики. Поэтому мы будем стремиться ктому, чтобы отличие исходного вектора Х от его отображения ввыходном пространстве было минимальным. Классическим способомоценить это отличие является Евклидово расстояние (норма разности)между двумя векторами.
Такими образом, победителем признаётся тоотображение, которое обладает наименьшим Евклидовым расстояниемпо отношению к исходному вектору X (33):for j 1... win j wj Xmatch (min( ), ) 0( 33)где win – номер отображения-«победителя» на данной итерации, X –исходный эмпирический вектор, который подаётся на вход искусственнойнейронной сети, j – номер вектора-отображения исходного вектора X, ξ –количество векторов-отображений исходного вектора Х (ещё раз напомним,что у нас их будет пять), δj – Евклидово расстояние между j-тымотображением и исходным вектором X, match(min(ᵟ),ᵟ)0 – функция, котораяопределяет номер отображения победителя (win) исходя из наименьшегоЕвклидова расстояния между исходным вектором X и всеми егоотображениями.Такжеважнообратитьвнимание,чтосточкизрениялица,принимающего решения на финансовом рынке, поиск наилучшегоотображения эквивалентен выбору наиболее похожего сценария развитияпо отношению к текущему состоянию.
В этой связи далее мы предложимдругой, отличныйотЕвклидова расстоянияметодотображения-«победителя» на основе теории информации.определения1063. Определяетсятопологическаяокрестностьвокруготображения-«победителя» (процесс кооперации). Она определяет то, как остальныеотображениядолжныизменитьсявзависимостиотзначенияотображения-«победителя».
Топологическую окрестность мы будемнаходить на основе Евклидова расстояния между отображением«победителем» и всеми остальными векторами-отображениям. Этирасстояния мы будем использовать в качестве аргументов гауссовскойфункции, которая будет экспоненциально убывать во времени, т.е. накаждой последующей итерации (34):jhn e2jwin wwn 1 n 1n 22 *e0(34)где hnj– функция топологической окрестности, w – вектор-отображение, j –номер вектора-отображения, n – номер итерации, на которой производитсяобучение сети, win – номер отображения-«победителя» на данной итерации,σ – стандартное отклонение гауссовского распределения, τ0 – временнаяконстанта.Отметим,чтоименноиспользованиегауссовскойфункцииобеспечивает нелинейное преобразование в сети Кохонена.
По сути, этофункцияактивацииискусственнойнейроннойсети,причёмсвмонтированным условием зависимости от времени, о котором говорилосьв Главе 1.Также важно уточнить что, строго говоря, в процессе обучения накаждой итерации может быть разное отображение-«победитель». Именно107этот механизм и обеспечивает самоорганизацию – непрерывное изменениекарты признаков во времени.4. Производится подстройка других отображений под отображение«победитель» (процесс адаптации) с помощью следующей итеративнойпроцедуры обучения (35):jwnj wn 1 * en1j * h * X wn 1nj(35)где X – исходный эмпирический вектор, w – вектор-отображение, j – номервектора-отображения, n – номер итерации, на которой производитсяобучение сети, hnj– функция топологической окрестности, η – параметр,влияющий на скорость обучения сети, τ1 – временная константа.Заметим, что одним из условий стохастической аппроксимации, котораяиспользуется в сети Кохонена, является зависимость параметра обучения η отвремени, что обеспечивается с помощью множителя на основе убывающейэкспоненциальной функции (в нашем случае параметр обучения будетуменьшаться с ростом числа итераций).Базовая конфигурация сети Кохонена, описанная выше, не даёт устойчивыхрезультатов в прогнозировании финансовых рынков.