Диссертация (Формирование портфеля акций на фондовом рынке с использованием непараметрических методов), страница 9
Описание файла
Файл "Диссертация" внутри архива находится в папке "Формирование портфеля акций на фондовом рынке с использованием непараметрических методов". PDF-файл из архива "Формирование портфеля акций на фондовом рынке с использованием непараметрических методов", который расположен в категории "". Всё это находится в предмете "экономика" из Аспирантура и докторантура, которые можно найти в файловом архиве НИУ ВШЭ. Не смотря на прямую связь этого архива с НИУ ВШЭ, его также можно найти и в других разделах. , а ещё этот архив представляет собой кандидатскую диссертацию, поэтому ещё представлен в разделе всех диссертаций на соискание учёной степени кандидата экономических наук.
Просмотр PDF-файла онлайн
Текст 9 страницы из PDF
В данной работе используется функция () на основеИндекса Джини, задаваемая следующим выражением:() = ∑≠ (|)(|),где(10)(|) − условная вероятность того, что наблюдение,попавшее в узел , относится к классу ,(|) − условная вероятность того, что наблюдение,попавшее в узел , относится к классу .Описанные способы определения размера дерева и точностиклассификации являются необходимыми, но не достаточнымиусловиями оптимальности построенного дерева. Ниже описанапроцедура «обрезки» дерева с целью нахождения оптимальногоразмера.На основе вышеизложенного алгоритма строится деревомаксимальнойразмерности .Далеевведемвыражение,отражающее «издержки размера дерева»: () = () + |̅ |,(11)54где() − вероятность некорректной классификации в рамках всегодерева,|̅| − издержки количества терминальных узлов.Если будет построено очень простое дерево, то издержки размерадеревабудутвысокими() (ошибок классфикации),засчеткотороепервогорассчитываетсяслагаемогосогласновыражению (9).
Если же будет построено слишком большое дерево, тоиздержки будут высокими за счет второго слагаемого ( > 0), а ||̅| –количество терминальных узлов в дереве.Далее из всего множества деревьев различной размерностинеобходимо исключать варианты, в которых терминальные узлы неприводят к качественному улучшению модели.Введем функцию (), отражающую силу связи узла в дереве: () =где()−( ),̅̅̅̅̅̅̅̅̅| |−1(12) () −сила узла в дереве, − количество узлов, связанных с узлом ,( ) − вероятность некорректной классификации в узлах,связанных с узлом .Следующим шагом является нахождение и удаление узлов, укоторых значение () является минимальным: (∗ ) = min ().(13)∈Данная процедура продолжается рекурсивно, и получаетсяупорядоченный ряд деревьев, начиная с максимально большого дереваи заканчивая деревом с одним узлом.
Далее на каждом этапе «обрезки55дерева» обновляется величина : +1 = (∗ ). Таким образом,получаются два ряда: упорядоченный ряд деревьев и ряд издержек+1 .Затем при помощи процедуры 1 SE rule осуществляетсяпроцедура перекрестной проверки на обучающей выборке ={(1 , 1 ), … , ( , )}, в результате которой определяется оптимальноедерево классификаций с минимальной величиной ().Отдельнуютрудностьпредставляетсобойопределениеоптимального вектора входных параметров, на основании которогоосуществляется построение деревьев. В рамках данного исследованияв качестве критерия эффективности вектора входных параметровиспользовалось качество подгонки относительно обучающей выборки.В итоге на выходе получается дерево классификаций, котороефункционируетпопринципу,которыйрисунке 2:56проиллюстрированнаРисунок 2 Принцип функционирования дерева регрессийНаверхнемрисункеизображеноисходноемножествонаблюдаемой величины Y, которая может принимать конечноеколичество значений, а именно четыре.
Данная величина (допустим,что это кредитные рейтинги организаций) описывается двумяпеременными – 1 и 2 .Нанижнемрисункесхематичнопредставленодеревоклассификации, которое было построено на основе вектора входныхпараметров , 1 и 2 .Как видно на первом рисунке, что в случае, если величина 1строго больше, чем 0,5, то отсекается множество значений, котороесодержит все «звездочки». Именно поэтому на нижнем рисункеделение узла происходит именно относительно значений 0,5 первогопараметра.57Аналогично происходит процесс деления остальных узлов, покав конце не останется 2 терминальных узла. Данный пример нагляднопоказываетпроцессфункционированияалгоритмадеревьевклассификации – на каждом этапе происходит деление узла и отсечениеоднозначноопределяемогопараметрамимоделимножества,содержащее подавляющее большинство определенных значенийзависимой переменной.Однако данный пример является предельным, т.к., естественно,на практике никогда не встречаются такие множества, которыевозможно классифицировать однозначно при помощи какого-либонабора параметров.Ниже представлен пример дерева классификаций для одной изитераций для акций компании «Акрон»:58Рисунок 3.
Дерево регрессий для ОАО «Акрон»2Как видно из рисунка 3 в каждом терминальном узле дерева естьдоминирующие большинство наблюдений одного класса, однако лишьв одном случае (последнего терминального узла) удалось однозначноподобрать комбинацию параметров, которая позволила отсечьмножество, содержащее только определенные значения зависимойпеременной.Несмотря на то, что метод деревьев классификаций являетсянепараметрическим методом, одним из его ключевых недостатковявляетсятребовательностьформированиидереваминимальноеколичествокколичествунеобходимонаблюдений.соблюдатьнаблюдений,ограничениеприходящихсяПринанатерминальный узел. Если пренебречь данным ограничением, то, какВ данном примере -1 означает {покупка актива}; 1 означает {продажа актива}; 0 означает{сохранение актива}.259говорилось ранее, возможна ситуация, когда в каждом терминальномузле будет по одному наблюдению, и результаты станут неинтерпретируемыми.
Из ограничения на минимальное количествонаблюдений вытекает ограничение на максимальную размерностьвходного вектора переменных.Такжесущественнымнедостаткомметодадеревьевклассификаций является чувствительность к входным параметромархитектуры деревьев (минимального количества наблюдений в узлах,правила разбиения, оценка качества деревьев и т.д.).2.2. Метод искусственных нейронных сетейКонцепция архитектуры искусственных нейронных сетей,использованная в данном исследовании, базируется на работах Мерота,Моэна и Ранка (Mehrota, Mohan and Rank, 1997), Крижановски ссоавторами (Kryzanowski et al., 1992), Джанг и Лэй (Jang and Lai, 1994),Фрейтас (Freitas, 2001), Элис и Уилсон (Ellis and Wilson, 2005),Ванстоун (Vanstone et al., 2010), Фернандеса и Гомеса ( Fernandez andGomez, 2012).В общем виде искусственная нейронная сеть состоит изнескольких типов слоев: входного слоя, скрытого слоя и выходногослоя.Всамомначалефункционированиясети,происходитформирование вектора входных данных и загрузка во входной слой.
Наданном этапе происходит масштабирование всех входных данных, т.к.изначально они имеют различную размерность. Ввиду того, что внутрисети большим значениям приписывается больший вес, то при загрузкев систему переменных различной размерности необходимо ихпривести к единому порядку.60После прохождения входного слоя сигнал системы попадает вскрытый слой, где происходит присвоение каждому входномупараметру некоего весового коэффициента . Изначально, при первойитерации данные весовые коэффициенты выбираются случайно. Затемрассчитываетсявзвешеннаясумма входныхпараметровиприсвоенных им весовых коэффициентов: = ∑ ,где(1) − нормированное значение i-ого входного параметра, − вес i-ого входного параметра.После формирования данной взвешенной суммы входныхпараметров для того, чтобы сеть выдала необходимый отклик, нужнопреобразовать получившуюся сумму в необходимую форму отклика.Данноепреобразованиевыполняетсятрансформации.
В зависимостиприпомощифункцииот типа выбранной функциитрансформации будут отличаться вектора откликов нейронной сети.Так, например, при выборе линейной функции трансформации навыходе сеть будет выдавать бинарный отклик: либо 0, либо 1.В виду наличия трех возможных исходов была использованалинейно-нарастающая функция (ramp transformation function) (Буяноваи Саркисов, 2017):1 ≥() = { 0 − < < ,−1 < −где –пороговый уровень.Ниже представлена базовая схема нейронной сети:61(2)Вектор входныхданныхВходной слойВыходной слойСкрытый слойВектороткликов сетиРисунок 4. Базовая схема нейронной сетиПри выборе архитектуры нейронной сети помимо функциитрансформации существует еще ряд параметров, которые необходимозадать.
Первым является количество скрытых слоев, где каждомуфактору присваиваются различные веса. В общем виде увеличениеколичества должно увеличивать и точность оценки, однако это невсегда так. Хект – Нилсон (Hecht-Neilson, 1990) для вычисленияверхней границы количества скрытых слоев использовал теоремуКолмогорова, согласно которой любая функция n переменных, можетбыть представлена в виде суперпозиции 2n+1 одномерных функций.Хект – Нилсон вывел, что количество скрытых слоев не должнопревышать удвоенное количество входных параметров плюс единица.В рамках данного исследования вопрос оптимального количестваскрытых слоев и количества нейронов в каждом был решенэмпирически путем перебора различных вариантов количестваскрытых слоев от 1 до максимального.
По результатам были выбранысети с тремя скрытыми слоями по 9 нейронов в каждом (Буянова иСаркисов, 2017).62На графике, представленном ниже, отражены результатытестирования сетей на тестовом и обучающем множествах приразличном количестве нейронов в скрытом слое:Рисунок 5. Тестирование качества нейронных сетейИз результатов, представленных выше, видно, что на тестовоммножестве качество прогноза составляло в среднем 82% при наличии 9нейронов в каждом из скрытых слоев. При этом увеличение числанейронов свыше 9 приводило лишь к увеличению точности наобучающей выборке, что свидетельствует о том, что сеть просто болееточно запоминала исходную выборку.
При этом полученные 82%точности прогноза на тестовой выборке являются приемлемымрезультатом для дальнейшего анализа модели (Буянова и Саркисов,2017).Другим важным параметром, который необходимо задать дляфункционирования сети — это ее модель. В рамках современнойтеории построения нейронных сетей выделяют следующие модели:63 Сети прямого распространения – все связи внутри сетиоднонаправленные: от входного слоя к выходному; Рекуррентные нейронные сети – сигнал в сети частичнопередается обратно от нейронов выходного слоя к нейронамвходного слоя; Радиально базисные функции – у сетей данного типа лишь одинскрытый слой и выходной слой, состоящий из линейныхэлементов; Сети Кохонена – у данного типа нейронных сетей есть два слоя:входной и выходной.В рамках данного исследования эмпирически сравнивалисьрезультатыиспользованиясетейпрямогораспространения,рекуррентных нейронных сетей и радиально базисных функций.
Порезультатам данного сравнения более эффективными являлисьнейронныесети,построенныеприпомощимоделипрямогораспространения.Сети Кохонена не рассматривались как альтернатива, т.к. приданной модели сети происходит запоминание входных параметров, ипри попадании в сеть неизвестной комбинации дается отклик, чтоданная комбинация новая.