Диссертация (Формирование портфеля акций на фондовом рынке с использованием непараметрических методов), страница 10
Описание файла
Файл "Диссертация" внутри архива находится в папке "Формирование портфеля акций на фондовом рынке с использованием непараметрических методов". PDF-файл из архива "Формирование портфеля акций на фондовом рынке с использованием непараметрических методов", который расположен в категории "". Всё это находится в предмете "экономика" из Аспирантура и докторантура, которые можно найти в файловом архиве НИУ ВШЭ. Не смотря на прямую связь этого архива с НИУ ВШЭ, его также можно найти и в других разделах. , а ещё этот архив представляет собой кандидатскую диссертацию, поэтому ещё представлен в разделе всех диссертаций на соискание учёной степени кандидата экономических наук.
Просмотр PDF-файла онлайн
Текст 10 страницы из PDF
Подобный тип моделей больше подходитдля решения задач распознавания образов и наблюдений.Таким образом, разобран механизм прохождения сигнала отвходного слоя до выходного. Однако важнейшим механизмомфункционирования нейронной сети является процесс возможностиобучения.В данной работе используется метод «обучения с учителем»(supervised learning) с обратным распространением ошибки:641) В нулевой момент веса входных параметров выбираютсяслучайным образом;2) На основе полученных весов рассчитывается выходной вектордля обучающей выборки;3) Вычисленный выходной вектор сравнивается с истиннымизначениями обучающей выборки;4) Рассчитывается функция потерь. В данной работе функцияпотерь рассчитывалась как сумма квадратов отклонений;5) Данная функция минимизируется путем подбора оптимальныхвходных весов;6) П.
2 – 5 повторяются, пока не будет достигнуто максимальнодопустимоеколичествоитерацийдляфиксированнойобучающей выборки.Выбор метода обратного распространения ошибки не случаен иимеет ряд существенных преимуществ: Высокая эффективность относительно других методов; Через каждый нейрон в каждом слое проходит сигналтолько о связанных нейронах; Степень общности, которая позволяет применять данныйалгоритм для произвольного количества слоев и нейронов.Однако у данного метода есть и ряд недостатков: Метод не обязательно имеет свойство сходимости; При расчете методом градиентного спуска есть рискостановить алгоритм на локальном минимуме функциипотерь; Необходимость четко фиксировать количество нейронов вскрытых слоях.65При этом ключевым недостатком метода является то, что он невсегда сходится.
Решить данную проблему можно путем нормализацииданных и корректного выбора начального приближения и величинышага коэффициента обучения.Таким образом, обобщенную схему обучения нейронной сетиможно описать следующим образом:Определениевесов входныхпараметровОтклик сети и расчетошибкиТрансформация∑ Пересчет весов входныхпараметровРисунок 6. Схема процесса обучения нейронной сетиОтдельного внимания заслуживает так называемый коэффициентобучения нейронной сети, который позволяет управлять величинойкорректировки весов при каждой итерации. Значения данногокоэффициента варьируются от 0 до 1. В случае если в нейронной сетикоэффициент обучения равен 0, это означает, что корректировка весовпосле первой итерации не производится.
При малых коэффициентахобучения, время обучения сети увеличится, однако настройки наминимум также будет выше. Соответственно, при высоких значенияхкоэффициента обучения сеть будет обучаться быстро, однако иточность настройки существенно снизиться.Влияниекоэффициентаобученияииллюстрирует рисунок, представленный ниже:66точностинастройкиФункция ошибок252015105000,10,20,30,40,50,60,70,80,91Рисунок 7.
Функция ошибок в зависимости от веса параметраНа рисунке 7 изображена функция ошибок нейронной сети взависимости от веса, присвоенного переменной. Ввиду того, что наначальном этапе веса выбираются случайным образом, допустим, чторассматриваемой переменной был присвоен вес равный 0,2. У даннойфункции ошибок есть минимум, которому соответствует значение весапеременной равный 0,5. Таким образом, в случае, если коэффициентобучения будет слишком высоким, алгоритм «перешагнёт» минимум,и общее качество настройки будет не оптимальным.Поэтому коэффициент обучения настраивается эмпирически взависимости от вида функции ошибок, а также техническихвозможностей, т.к. слишком маленький коэффициент обученияприведет к чрезвычайно долгому процессу обучения нейронной сети.В целом следует отметить, что в отличие от метода деревьевклассификаций метод искусственных нейронных сетей не ставитявного ограничения на минимальное количество наблюдений.
Однаков нем также присутствует ограничение на минимальное количествовходных параметров, которое влияет на количество скрытых слоев.67Существенным недостатком искусственных нейронных сетейявляется крайне сложная настройка самой архитектуры сети:количества слоев, связей между слоями, коэффициента обучения,количества нейронов в каждом слое и т.д. В литературе, посвященнойпостроению прогноза на основе искусственных нейронных сетей, нетединой методологии оценки данных параметров, и зачастую авторысоветуют выставлять их методом «проб и ошибок». Ввиду большогоколичества параметров, которые необходимо откалибровать дляоптимальнойработысети,увеличиваетсявремямеждувозникновением потребности оценить динамику стоимости акций исоставлением самого прогноза.Вомногихработах,посвященныхметодампостроенияискусственных нейронных сетей (например, Ричард и Липпман, 1992;Дуда и Харр, 1973; Хэмпшир и Вайбль, 1990; Ли и Липпманн, 1989;Ранзато, Пултни и Чопра, 2007; Жу и Чен, 2009), авторы прямоутверждают, что калибровка параметров сети индивидуальна в каждомконкретном случае и должна проводиться эмпирически.Таким образом, оба непараметрических метода (и методискусственных нейронных сетей, и метод деревьев классификаций)требуют большой работы, связанной с настройкой входных параметровархитектуры алгоритма.2.3.
Байесовский метод ядерного сглаживанияБайесовский метод ядерного сглаживания широко используетсяв различных исследованиях, посвященных анализу коротких и шумныхданных. Ниже приведен краткий перечень работ, на методологиикоторыхосновываютсяподходы,использованныевданномисследовании: Бур и Линч, 1966; Мишели и Ваба, 1981; Кортес и68Вапник, 1995; Маккэкй, 2002; Соллич, 2002; Рассиесен и Уильямс,2006; Жанг с соавторами, 2011.В рамках данного исследования использовалась стандартнаяядерная модель (Crawford and Wood, 2016): = ̌′ + , ~(0, 2 ),где(1)̌.̌′ – аппроксимированная матрица ядра Отдельно хотелось бы остановиться на матрице .
В общем видеданная матрица отвечает за предварительные оценки распределения идолжна изменяться в зависимости от количества наблюдений (Liang etal., 2009; Lopes and West, 2004). Ввиду этого был использован принятыйв научной литературе, посвящённой Байесовским подходам, метод gprior (Liang et al., 2009), который позволяет изменять параметрыпропорционально дисперсии различных главных компонент исходногомножества.Оценка параметров и проверка точности проводилась припомощи Gibbs sampler, для использования которого модель былапереписана в следующем виде: = ̌′ + , 0 ~(0, 2 )̂)~(0 , 2 Λ2 ~ − − 2 ( )2 ~ − − 2 ( )На основании описанной выше задачи строилась оценкастоимости актива, на основании которой и принималось решение овключении той или иной бумаги в портфель.69Дальнейшие итерации, подгонки и высчитывания ошибкипрогноза основываются на работах Кроуфорда и Вуда, Лопеса и Веста,2004 года.
В данных работах описывается механизм интеграциипроблемы отбора регрессоров в стандартный механизм оценкистоимости акций при помощи модели ядерного сглаживания.В самом базовом приближении модель ядерного сглаживанияпозволяет оценивать значения функции, исходя из наблюдаемыхзначений функции.Еслирассматриватьстандартныйподходлинейногорегрессионного анализа к решению вопроса оценки стоимости акций,то он заключается в попытке подгонки прямой, захватывающейнаибольшее количество наблюдений. Естественно, что далеко не всенаблюдения лежат на одной линии, могут быть шумы в данных, крометого, могут быть не включены какие-либо параметры, описывающиединамику цен акций.Модельядерногосглаживанияпредставляетсобойнепараметрический метод оценки нелинейной регрессии, которыйоцениваетзначениефункциикаксредневзвешеннаяееженаблюдаемых значений.Допустим, рассмотрим график функции, представленный нарисунке ниже:70Рисунок 8.
Иллюстрация работы модели ядерного сглаживанияДопустим, что необходимо оценить значение данной функциипри значении параметра равного 60. Одним из способов оценкиданного параметра может послужить расчет среднего значенияфункции при значениях параметра равным 58 и 62. Однако в идеаленеобходимо значениям функции с меньшей разницей аргументовприсваивать большие веса при расчете среднего. Именно по такомуалгоритму и работает самый простой вариант модели ядерногосглаживания: данным алгоритмом рассчитывается взвешенное среднеенаблюдаемых значений функции с присвоением больших весовнаблюдениям с меньшей разницей в независимых переменных.Существует несколько вариантов расчета оценки: оценка спомощью метода Надарайя – Уотсона, метода Пристли – Као и методаГассера – Мюллера.71В рамках данного исследования использовалась оценка спомощью Надарайя-Уотсона:∑=1 ℎ ( − )̂ℎ () = ,∑=1 ℎ ( − )где(2)ℎ – ядерная функция с точностью h.ПрипервичномтестированиифункцииоценокфункцияНадарайя – Уотсона показала лучшие результаты по сравнению сфункциями Пристли – Као и Гассера – Мюллера.
При этом функцияНадарайя – Уотсона имеет ряд ограничений, которые могли повлиятьна эффективность использования метода ядерного сглаживания вцелом. Выбор окна (параметра точности) влияет решающим образом надальнейшую эффективность использования оценок, построенных припомощи метода ядерного сглаживания: Если задать чересчур большие значения окна, то оценка будетвырождаться в константу, которая будет равна усредненнойоценке и не позволит определить характерные особенностиизучаемой величины. Если задать чересчур малые значения окна, то оценка будетопираться на небольшое число наблюдений в окрестности , ибудет крайне волатильна. Завышение оценок, если ̂ℎ (), имеет положительный наклон, и ≤ min( )Параметр точности является важным, т.к. отвечает, насколькоблизко будет соответствовать функция плотности распределению.