Диссертация (1138079), страница 8
Текст из файла (страница 8)
«отбеливание» (whitening) – процедура, в результате которой ковариационнаяматрица x становится единичной. Везде в данной работе, где указывается на применение метода независимыхкомпонент, исходные данные были центрированы.42использован гиперболический тангенс из (7)), n – номер итерации, на которойпроводятся вычисления.Критерием остановки вычислений (числа итераций n) может, например,выступать заданная экзогенно константа – разность между значениями весов w надвух последовательных итерациях.
Таким образом можно отследить момент,когда веса в модели перестанут существенно изменяться.Такжеобратимвнимание,чтопосколькумыимеемделоспрогнозированием финансовых рынков, то под x будет подразумеватьсявременной ряд доходностей финансового инструмента.Как можно увидеть из (15), наличие нелинейный функции преобразования,а также итеративный характер расчета в значительной степени сближает методнезависимых компонентс искусственными нейронными сетями, основныехарактеристики которых были описаны в Главе 1.Для того чтобы все столбцы (векторы весов) w демикширующей матрицы Wне сошлись к одному и тому же максимуму нэгентропии, необходимо такжепровести специальную процедуру декорреляции Грэма-Шмидта (16):wp 1p w p1 wTp1 w j w jj 1w p1 гдеw p1Tp 1(16)w w p1j=1…p–номераужевычисленныхстолбцов(вектороввесов)демикширующей матрицы W.После того, как демикширующая матрица W рассчитана, в соответствии с(12) можно получить реконструкцию наблюдаемого эмпирического вектора x –вектор независимых компонент s (аналог реконструкции эмпирического вектораA в соответствии с методом главных компонент из (8)).
Обратим внимание на то,43что размерность эмпирического вектора x и его реконструкции s не обязательнодолжна совпадать: наблюдаемому процессу может соответствовать как большее,так и меньшее число независимых компонент.Мы провели теоретический анализ метода главных и метода независимыхкомпонент, и в дальнейшем будем использовать эти методы для предварительнойобработки входных данных в искусственных нейронных сетях.2.2. Прогнозирование финансовых рынков с помощью искусственнойнейронной сети, обученной по методу Левенберга-Марквардта ииспользующей снижение размерности входных данных (упрощение картинымира)Первая проблема, к решению которой мы обратимся в данной главе припостроении моделей искусственных нейронных сетей, связана с необходимостьюуменьшения размерности входных данных.
Вкратце поясним суть этой проблемы.Допустим, мы предполагаем, что информация о процессе прироста цены нафинансовый инструмент полностью содержится в соответствующих данных запоследние две недели торгов. Если мы оперируем дневными котировками, то этоведёт к необходимости создания входного массива из десяти значений и какминимум десяти нейронов в скрытом слое искусственной нейронной сети, потомучто существует эвристическое правило о том, что число нейронов в скрытом слоедолжнобытьнеменьшечиславходныхзначенийвсети[129].Вдействительности ситуация на практике может быть ещё хуже, если, например,требуется восстановить вероятностное распределение некоторого множества поконечному числу точек. В этом случае необходимый объём выборки будет равен10d, где d – это размерность множества [12].
Проблема, связанная сэкспоненциальным ростом числа необходимых данных ввиду увеличенияразмерности входного пространства, также получила название «проклятиеразмерности» (curse of dimensionality) и является существенной трудностью впроцессе построения различных аналитических моделей. [43].44В финансовом анализе объём выборки редко превышает несколько тысячзначений (порядок 103-104), и, следовательно, исследователю вряд ли удастсядостоверно восстановить ряд, размерностью выше 3-4. Более того, учитывая, чтов нашем случае веса в сети будут ежедневно переоцениваться с цельюмаксимальногосоответствияменяющейсяситуациинарынке(метод«скользящего окна»), мы неминуемо столкнёмся с длительным периодомвычислений, а это может быть недопустимо в условиях, когда принимать решениятребуется достаточно быстро и оперативно. Кроме этого, могут возникнуть такиедополнительные проблемы, как плохая сходимость весов, мультиколлинеарностьвходныхданных,увеличениедолишумовивозможноепереобучениеискусственной нейронной сети.
В конечном счёте, всё это ведёт к тому, что сетьбудет делать прогноз с заведомо высоким значением ошибки.В данном разделе мы предположим, что снижение размерности входногопространства поможет существенно улучшить работу искусственной нейроннойсети в вопросах прогнозирования фондового и валютного рынков развитых стран.В качестве инструментов снижения размерности данных мы будем использоватьрассмотренные в разделе 2.1. методы главных и независимых компонент.Заметим, что исследователи нередко комбинируют PCA и ICA с искусственныминейронными сетями, в т.ч., для получения прогнозов в финансах [92, 142, 173].Метод главных компонент часто применяется для снижения размерности, вт.ч. для построения прогнозов финансово-экономических временных рядов [45,160, 203]. Данный вопрос решается в рамках PCA достаточно просто. Новые оси(собственные векторы матрицы Q) из (8) ранжируются в соответствии со своимисобственными значениями и дают представление о степени разброса признака(дисперсии) X вдоль них.
Это и есть главные компоненты, содержащие наиболееважную информацию о процессе. В зависимости от поставленной задачи, мызатем можем спроецировать вектор X только на некоторые из них (вплоть доодной) и даже привести полученный результат к скалярному значению, например,взяв среднее значение реконструированного вектора. Тем самым мы существенно45сократим размерность входного пространства и одновременно выделим значимуюинформацию.Метод независимых компонент также используется для уменьшенияразмерности входного пространства данных, более того, ряд исследованийпроводит его сравнение с методом главных компонент в этом вопросе [130, 201].Однако в случае с ICA задача снижения размерности обстоит несколько сложнее,потому что, как было сказано выше, знак, абсолютное значение и дисперсияэлементов демикширующей матрицы W и реконструированного вектора s из (12)неопределенны.Для решения этой трудности нами предлагается использовать следующийалгоритм.
Мы будем анализировать вклад каждой из независимых компонент вразвитие процесса в базисном периоде (т.е. во временном периоде, которомусоответствует эмпирический вектор x). При этом мы будем использовать недемикширующую матрицу W, а микширующую матрицу A из (11),на томосновании, что именно она определяет влияние независимых компонент нанаблюдаемый процесс. Вначале мы берём среднее значение каждого столбцаматрицы A, что соответствует влиянию независимой компоненты на процесс втечение базисного периода – фиксируется номер столбца с максимальнымсредним значением. После этого мы перемножаем элементнаиболее«влиятельного» вектора-столбца матрицы А, соответствующего последнему повремени значению базисного периода, и элемента реконструированного вектора s,который соотносится с «влиятельным» вектором.
Это делается в силу того, чтомы получили реконструированный вектор s для всего базисного периода, нохотим получить прогнозную доходность финансового инструмента, котораяформируетсякаклогарифмическаяразностьценытекущегопериодаспредыдущим – то есть с последним по времени в базисном периоде. В итоге мыполучаем скалярное значение, сокращая размерность входного пространства, носохраняя при этом всю важную информацию (17):46 Am, n * sm(17)где A – микширующая матрица, s – вектор независимых компонент, n – номерстрокивA,соответствующийпоследнемупохронологиизначениюэмпирического вектора x, m – номер столбца матрицы A с наибольшим среднимзначением и соответствующий ему элемент вектора s.Полученный в (17) скаляр будет использован нами в качестве входногозначения для искусственной нейронной сети.Мы переходим к рассмотрению непосредственно моделей искусственныхнейронных сетей и возможности прогнозирования с их помощью финансовыхрынков.
Напомним, что наше предположение состоит в том, что с помощьюданного класса аналитических инструментов можно построить механизмпринятия решений, который позволит осуществлять прогнозирование доходностина финансовых рынках. Мы аргументировали такой подход в Главе 1, и вкратцеон сводится к тому, что финансовые рынки могут отклоняться от состоянияинформационной эффективности, а значит, прогнозирование их динамики можетиметь определённый успех.Вданном разделемыпостроимискусственнуюнейроннуюсеть,работающую с данными, размерность которых сокращена с помощью методаглавных и метода независимых компонент.