Диссертация (1138079), страница 12
Текст из файла (страница 12)
Результат такой виртуальной торговли представленна рис.6. Были использованы логарифмические доходности по дневным ценамзакрытия с апреля 2009 по август 2010 гг., всего около 350 значений по каждойбумаге.Значение виртуального инвестиционного портфеля при использованииметода независимых компонент для предварительной обработки входных данныхна конец торговой сессии составило 1,91, процент верно предсказанного знакадоходности – 57%; практически идентичный результат были получен в случае67использования PCA в качестве инструмента предварительной обработки входныхданных.Значениепортфеля,построенногопопрогнозамискусственнойнейронной сети прямого прохода – 0,80, процент верно предсказанного знакадоходности – 51%.
Значение портфеля, построенного по прогнозам авторегрессии– 1,39, процент верно предсказанного знака доходности – 53%. Значениерыночного портфеля – 1,12.Данные t-теста для результатов на рис. 6 (см.Приложение) также подтверждают, что превышение доходности портфеля,построенногопопрогнозамискусственнойнейроннойсетиЛевенберга-Марквардта, неслучайно по отношению к другим моделям и средние значенияпортфелей существенно отличаются друг от друга.Рис.6.Сравнительнаядинамикавиртуальногоинвестиционногопортфеля,построенного по нейросетевой модели Левенберга-Марквардта с использованием ICA припредварительной обработке данных, для прогнозирования ликвидных акций из индекса S&P 500(дневные котировки).Примечание: по горизонтальной оси отложены торговые периоды (t), по вертикальной– величина портфеля.
Portf – портфель, построенный по нейросетевой модели спредварительной обработкой данных, Feedforward – портфель, построенный по нейросетевоймодели без предварительной обработки входных данных, Regr – портфель, построенный поавторегрессии, Market – рыночный портфель. Начальные значения портфелей равны 1.68Результаты одновременного прогнозирования американского фондовогорынка по 30 ликвидным акциям укрепляют наше предположение о том, чтопредварительная обработка входных данных в искусственных нейронных сетяхпозволяет прогнозировать выбросы доходностей в финансовых временных рядах.Портфель, построенный по прогнозам такой модели, существенно превзошёлнейронную сеть прямого прохода, авторегрессию и рыночную динамику.Вместе с этим, в целом, мы вынуждены признать прогнозированиефондового рынка недостаточно результативным. Даже в случае подобногопараллельногопрогнозированияинвестиционный портфельпонесколькимбумагамвиртуальныйдемонстрирует непостоянную доходность, чтоочевидно по визуальному анализу рис.
6: быстрый взлёт вначале торговой сессии,а затем преобладание разнонаправленных колебаний. Помимо этого границырассчитанногодоверительногоинтерваладлядоходностипортфеля,вособенности его большая ширина (в процентах годовых) – [0,92; 101,42] – такжесвидетельствуют о недостаточной эффективности предложенной модели.Таким образом, подводя итоги данного раздела, мы делаем ключевой выводо том, что предварительная обработка входных данных в рассматриваемых вдиссертации искусственных нейронных сетях, которая основана только насокращенииразмерностиэмпирическогомассива,недостаточнадлярезультативного прогнозирования фондового и валютного рынков развитыхстран.
В следующем разделе мы разберём обработку входных данных в формезадания контекстной памяти в искусственной нейронной сети.2.3. Прогнозирование фондового и валютного рынков с помощьюискусственной нейронной сети Хакена, использующей предварительнуюобработку входных данных в виде формирования контекстной памятиВпредыдущемразделебылопоказано,чтопростоесокращениеразмерности входных данных не обеспечивает результативного прогнозированиявалютного и фондового рынков развитых стран. В этой связи в данном разделе мыпопробуем применить иную, более сложную обработку эмпирических данных,69которая связана фиксацией наиболее значимой прошлой информации нафинансовых рынках при условии сохранения её полноты. Речь пойдёт оформировании библиотеки контекстной информации, с помощью которойискусственная нейронная сеть делает прогноз.Такой подход, наряду с сокращением размерности, достаточно частовстречается в финансовом прогнозировании, например, с помощью т.н.рекуррентных сетей (recurrent networks) [61,127,154, 190, 202].
Рекуррентные сетипри вычислении своегопрогноза используют блок контекстной информации,который содержит выходные значения (или значения скрытого слоя) прошлыхвременных периодов. Однако мы считаем, что у подобного способа заданияконтекстной информации есть один существенный недостаток – он формируетбиблиотеку данных из прошлых и, возможно, ошибочных прогнозов и такимобразом создаёт динамический аналог искусственной нейронной сети, обученнойпо методу обратного распространения ошибки (такая сеть была построена впредыдущем разделе).Мы считаем, что формировать библиотеку контекстной информацииследует не из произвольных и отчасти ошибочных значений, рассчитанныхискусственной нейронной сетью в прошлом, но на основе таких данных, которыемаксимально значимы для рассматриваемого процесса, вносят существенныйвклад в его динамику.
О важности подобного подхода и фильтрации исходныхданных уже говорилось в разделе 2.1.Для формирования контекстной библиотеки искусственной нейронной сетимы предлагаем задействовать модель распознавания образов, предложеннуюизвестным немецким физиком и основателем синергетики Г.Хакеном [20].Следует заметить, что Хакен в своей работе во многом опирался на результатыисследований головного мозга человека и сделал ядром своей искусственнойнейронной сети принцип ассоциативной памяти, наличие которой являетсяважнейшей характеристикой мыслительной деятельности людей.Работа искусственной нейронной сети Хакена организована следующимобразом. Сеть распознаёт предъявляемый ей образ (в т.ч., зашумлённый или70искажённый) путём обращения к своей памяти, подобно тому, как, увидевзнакомое лицо в толпе, мы начинаем вспоминать, гдемогли видеть этогочеловека в прошлом.
Важно отметить, что условие обращения исключительно ксобственной памяти определяет принципиально иной способ представлениявходных данных. В противоположность эмпирическим данным об окружающейдействительности, которые могут быть искажёнными или нести лишнююинформацию, мы должны сформировать библиотеку априорных знаний,правильность и полнота которых не подвергается сомнению. Это и будетаналогом ассоциативной памяти головного мозга человека.Естественно, что ключевой вопрос для функционирования сети Хакена –это понимание того, что может представлять собой память и ее задание спомощьюматематическогоаппарата.Ваналитическомвидеработаискусственной нейронной сети Хакена выглядит как (27) [20]:MMqn qn1 n v qn1vm B (vmT qn1 ) 2 (vmT qn1 )vm C (qn1 qn1 )qn1 (27)m1TmTm1где q – это вектор (в ряде случаев зашумлённый), который оптимизируется сетью(оцифрованное значение визуального образа либо скользящий вектор доходностина финансовом рынке), ν –симметричная матрица, представляющая собойбиблиотеку априорных знаний (контекстной информации)11, m – номер столбца вматрице ν, M – длина вектора q и размерность матрицы ν, λ – коэффициентобучения сети, B и С – параметры, влияющие на скорость обучения и сходимостьсети, n – номер итерации.Для того чтобы построить библиотеку априорных знаний ν, требуетсядостроить сопряжённые векторы для каждого из исходных эмпирическихвекторов v, которые бы удовлетворяли соотношению ортогональности (28):11В данной работе мы будем считать использование понятий «библиотека контекстной информации» и«библиотека априорных знаний» равнозначными по смыслу.71 m * v k m ,k 1 если m k0 если m k(28)где v – исходный вектор, ν – сопряжённый с ним вектор, m=1…N, k=1…N, , N –число образов (векторов) в библиотеке априорных знаний.Для этого необходимо выполнить следующую процедуру (29):M m Ak ,m * v m(29)k 1где A – обратная матрица попарных произведений исходных векторов (30):A (vTk * vm )1(30)Как было указано в разделе 2.2, коэффициент обучения λ более эффективнозадавать не как константу, а вменять ему некоторую зависимость от значенияошибки сети на предыдущих итерациях.
Поэтому в рамках данной модели мыбудем определять коэффициент обучения λ как (31):n t1 если MSqErrn1 Tt2(31)иначегде t1, t2, T – константы, MSqErr – среднеквадратичная ошибка сети, n – номеритерации.Смысл (31) заключается в том, чтобы установить несколько режимовфункционирования (в данном случае два) для коэффициента обучения взависимости от порогового значения среднеквадратичной ошибки (T). Пороговое72значение вычисляется, как правило, эвристически в зависимости от работымодели. Например, можно определить некоторую точку перелома в среднемзначении ошибки, после превышения которого результаты искусственнойнейронной сети существенно ухудшаются и признаются неудовлетворительными.Если такая точка пройдена, то следует перевести коэффициент обучения вальтернативный, более интенсивный режим.Как видно из (27) в результате итеративной процедуры оптимизациипредъявляемый сети вектор должен сойтись к одному из значений, содержащихсяв библиотеке априорных знаний.
Это крайне важная особенность даннойискусственной нейронной сети, потому что в процессе обучения все необходимые(и не подвергающиеся сомнению) знания ей уже доступны, и речь идёт об ихкорректномприменении(припоминании,есливозвращатьсявконтекстраспознавания образов). В этой связи модель Хакена стоит особняком в рядуискусственных нейронных сетей, обучающихся с учителем, и занимаетпограничное положение, близкое к самообучающимся сетям.Безусловно, у данного подхода есть свои ограничения. Например, если впамяти сети содержатся буквы-образы русского алфавита, а мы будемпредъявлять ей буквы из английского, то сеть всё равно будет пытаться соотнестилатинские символы с кириллицей.
Очевидно, что в такой ситуации мы не будемполучать правильные ответы (исключения будут составлять буквы O,H,B,C,X,A,E,K,M, что, однако, не решает проблемы с концептуальной точкизрения).Для лучшего понимания сети Хакена мы вначале продемонстрируем еёработу в решении её изначальной задачи – распознавании образов, а именно буквлатинского алфавита. При этом мы будем накладывать на буквы искусственныйаддитивный и мультипликативный шум, приближая модель к реальным условиям,где она может столкнуться с некачественным изображением и помехами вовнешней среде.