Диссертация (1138079), страница 7
Текст из файла (страница 7)
Впоследствии это позволит сделать выводы нетолькоопрактическойприменимостипостроенныхмоделей,ноиохарактеристиках самих финансовых рынков.Имея в виду необходимость поиска наиболее значимой с точки зрениявлияния на процесс ценообразования на финансовом рынке информации, вкачестве инструментов предварительной обработки входных данных на данномэтапе мы будем работать с методом главных и методом независимых компонент(В Главе 3 будет также применён метод кластеризации входных данных).Отличительной особенностью этих двух методов является то, что они помогаютразложить эмпирический процесс в новых базисных координатах, по которымможновпоследствиивычленитьнаиболеерелевантнуюинформацию обинтересующем процессе.Работая с методом главных и методов независимых компонент, мы будемсравнивать оба метода, что допустимо по причине их концептуальной близости.Подобные сопоставления можно обнаружить в научных работах, в основном, приоценке эффективности распознавания образов, в т.ч., и с задействованиемискусственных нейронных сетей [41, 66, 70, 104], хотя есть и отдельныеисследования в сфере финансового прогнозирования [55, 141].Вначале мы коротко рассмотрим широко известный метод главныхкомпонент (principal component analysis, PCA).
Суть PCA заключается внахождении собственных векторов и собственных значений ковариационнойматрицы,полученнойнепосредственноизэмпирическихданныхобинтересующем нас процессе [112]. В случае обработки финансовых рядов мы37можем с помощью метода главных компонент реконструировать исходныйэмпирический вектор по новым координатным осям, которые задаются егоковариационной матрицей (8):A QT * X(8)где X – исходный эмпирический вектор, Q – матрица, состоящая из собственныхвекторов ковариационной матрицы X, A – проекция X в новом пространстве.Метод независимых компонент (independent component analysis, ICA)представляет собой боле молодое, нежели PCA, научное направление, однако ICAуже успел зарекомендовать себя, как эффективный аналитический инструмент (вчастности,существуютисследования,которыесвидетельствуютобэффективности данного метода при прогнозировании финансовых рядов [93,145]), поэтому мы позволим разобрать этот метод более подробно в даннойработе.Анализ независимых компонент изначально развивался в радиофизике итесно связан с т.н.
задачей о «коктейльной вечеринке» (cocktail-party problem)[50]. Представим себе, что в комнате находится несколько говорящих людей – si,при этом их речь записывается несколькими микрофонами – xi (для простотыпредположим, что число источников звука и число записывающих устройстводинаково). Очевидно, что запись каждого из микрофонов представляет собойсмесь из голосов всех говорящих. Для двух говорящих сигнал из каждогомикрофона будет выглядеть следующим образом (9):x1 a11 * s1 a22 * s2x2 a21 * s1 a22 * s2(9)где a11…a22 – микширующие коэффициенты (веса).38Задача исследователя состоит в том, чтобы обрабатывая только лишьвыходные сигналы из микрофонов x, получить исходные сигналы (векторы) s,которые и называются независимыми компонентами.
Очевидно, что для этогонеобходимо знать микширующую матрицу A, которая выглядит как (10):Aa11a12 a1ia21a22 a2ia j1(10)a j 2 a jiгде i – число говорящих (исходных сигналов), j – число микрофонов(наблюдаемых сигналов), а – микширующие коэффициенты (веса).Таким образом, матрица A трансформирует исходные векторы-сигналы в те,которые слышны на записи из микрофона (наблюдаемые) (11):x As(11)где s – вектор исходных сигналов, а x – вектор наблюдаемых (слышимых)сигналов.Говоря точнее, нам необходима матрица W, обратная A (демикширующаяматрица), так чтобы мы могли восстановить исходные векторы, имея лишьнаблюдаемые (12):W A 1(12)s WxКонцептуальноследующим образом:вышеописаннуюзадачуможноинтерпретировать39 Суммарная плотность вероятности процесса раскладывается на несколькобезусловных вероятностей; Наблюдаемый процесс раскладывается на базисные независимые векторы6,которые являются статистически независимыми. Пожалуй, это главноеотличие данного метода от метода главных компонент, суть которогозаключается в нахождении некоррелированных (но не независимых)векторов-координатных осей, вокруг которых разброс признака (дисперсия)максимален; Выявляются наиболее «интересные» направления развития процесса(направления, которые задают процессу определённую структуру), чтотесно связано с теорией “нахождения проекции» (projection pursuit) [82] .
Вэтом смысле метод независимых компонент является развитием данногоподхода.Кроме этого, перед тем как перейти непосредственно к алгоритмувычисления независимых компонент и практическим способам его применения,необходимо упомянуть несколько важнейших условий и предпосылок данноговида анализа.Во-первых, лишь одна из независимых компонент может иметь нормальноегауссовское распределение. Это так, потому что в случае гауссовскогораспределения, мы не сможем оценить микширующую матрицу A должнымобразом: она всегда будет симметричной, что не позволит нам найти«интересные»направленияразвитияпроцесса.Следуетотметить,чтоиспользование негауссовского распределения весьма ценно для финансовогоанализа, потому что, как было показано в Главе 1, реальные рынки могутсущественно отклоняться от нормального закона.Во-вторых, поскольку мы не знаем ни исходных сигналов s, нимикширующей их матрицы А, мы не может оценить ни знак отдельныхсоставляющих независимых компонент-векторов, ни их абсолютного значения, ни6Под базисными векторами здесь имеются в виду векторы-столбцы микширующей матрицы A.40их дисперсии.
Это ещё одно важное отличие от метода главных компонент,потому что при выполнении PCA мы можем не только разложить процесс поновым базисным векторам, вдоль которых происходит максимальный разброспризнака, но также ранжировать эти новые оси в зависимости от ихинформативности (величины собственных значений ковариационной матрицы).Мы будем учитывать эту важную особенность в ходе решения задачи сниженияразмерности в разделе 2.2.При этом следует отметить, что наряду с интерпретацией данных,полученных в ходе ICA, существует также необходимость экономическогообоснования результата. Иными словами, после того, как исследователь смогранжировать независимые компоненты по степени их влияния на изучаемыйпроцесс, он должен соотнести эти важные факторы с реально происходящими вэкономике событиями, что открывает дальнейшую перспективу для научныхизысканий, и может стать предметом отдельного исследования.
Также следуетучитывать, что с течением времени может меняться как количество ключевыхфакторов, определяющих развитие процесса, так и их качественный состав.Далее мы переходим непосредственно к описанию процедуры поисканезависимых компонент. Как было указано выше, важнейшей характеристикойICA является негауссовское распределение. Существует несколько способовоценить его.В данной работе мы будем оценивать «ненормальность» распределенияпутём максимизации нэгентропии, модифицированной версии относительнойэнтропии (расстояния) Кульбака-Ляйблера (Kullback-Leibler divergence) [128].Относительная энтропия – это различие, или расстояние, между двумяслучайными процессами (13):H p ( x) ( x)p( x) * log 2 ()dx ( x) * log 2 ()dx ( x)p(x)(13)41где H – величина относительной энтропии, p(x) и (x) – случайные процессы, –параметр, задающий пределы интегрирования.Нэгентропия, в свою очередь, представляет собой разность энтропий двухпеременных, одна из которых обладает нормальным распределением, содинаковой ковариационной матрицей (14):J ( y) H ( ygauss ) H ( y)(14)где J – величина нэгентропии, H – величина относительной энтропии, ygauss –переменнаяобладающаягауссовскимраспределением,y–переменнаяобладающая негауссовским распределением.Данное выражение всегда неотрицательно, поскольку именно нормальноераспределение обладает наибольшей энтропией.
Соответственно, максимизируянэгентропию, можно получить распределение, максимально отличное отнормального.Для расчета нэгентропии мы будем пользоваться методом, предложенным в[108], и на его основе будем вычислять столбцы демикширующей матрицы W(15):Exg( wn 1 x) Eg ' ( wn 1 x)wn 1wn TTExg( wn 1 x) Eg ' ( wn 1 x)wn 1TT(15)где w – столбец (вектор весов) демикширующей матрицы W из (12), начальныезначения которого равны 1, x – эмпирический вектор7, E – математическоеожидание, g – нелинейная функция преобразования (в нашем случае был7Для упрощения вычислений автор данного метода также рекомендует проводить предварительную обработкуданных – центрирование и т.н.