Диссертация (Формирование портфеля акций на фондовом рынке с использованием непараметрических методов), страница 10

PDF-файл Диссертация (Формирование портфеля акций на фондовом рынке с использованием непараметрических методов), страница 10 Экономика (41824): Диссертация - Аспирантура и докторантураДиссертация (Формирование портфеля акций на фондовом рынке с использованием непараметрических методов) - PDF, страница 10 (41824) - СтудИзба2019-05-20СтудИзба

Описание файла

Файл "Диссертация" внутри архива находится в папке "Формирование портфеля акций на фондовом рынке с использованием непараметрических методов". PDF-файл из архива "Формирование портфеля акций на фондовом рынке с использованием непараметрических методов", который расположен в категории "". Всё это находится в предмете "экономика" из Аспирантура и докторантура, которые можно найти в файловом архиве НИУ ВШЭ. Не смотря на прямую связь этого архива с НИУ ВШЭ, его также можно найти и в других разделах. , а ещё этот архив представляет собой кандидатскую диссертацию, поэтому ещё представлен в разделе всех диссертаций на соискание учёной степени кандидата экономических наук.

Просмотр PDF-файла онлайн

Текст 10 страницы из PDF

Подобный тип моделей больше подходитдля решения задач распознавания образов и наблюдений.Таким образом, разобран механизм прохождения сигнала отвходного слоя до выходного. Однако важнейшим механизмомфункционирования нейронной сети является процесс возможностиобучения.В данной работе используется метод «обучения с учителем»(supervised learning) с обратным распространением ошибки:641) В нулевой момент веса входных параметров выбираютсяслучайным образом;2) На основе полученных весов рассчитывается выходной вектордля обучающей выборки;3) Вычисленный выходной вектор сравнивается с истиннымизначениями обучающей выборки;4) Рассчитывается функция потерь. В данной работе функцияпотерь рассчитывалась как сумма квадратов отклонений;5) Данная функция минимизируется путем подбора оптимальныхвходных весов;6) П.

2 – 5 повторяются, пока не будет достигнуто максимальнодопустимоеколичествоитерацийдляфиксированнойобучающей выборки.Выбор метода обратного распространения ошибки не случаен иимеет ряд существенных преимуществ: Высокая эффективность относительно других методов; Через каждый нейрон в каждом слое проходит сигналтолько о связанных нейронах; Степень общности, которая позволяет применять данныйалгоритм для произвольного количества слоев и нейронов.Однако у данного метода есть и ряд недостатков: Метод не обязательно имеет свойство сходимости; При расчете методом градиентного спуска есть рискостановить алгоритм на локальном минимуме функциипотерь; Необходимость четко фиксировать количество нейронов вскрытых слоях.65При этом ключевым недостатком метода является то, что он невсегда сходится.

Решить данную проблему можно путем нормализацииданных и корректного выбора начального приближения и величинышага коэффициента обучения.Таким образом, обобщенную схему обучения нейронной сетиможно описать следующим образом:Определениевесов входныхпараметровОтклик сети и расчетошибкиТрансформация∑ Пересчет весов входныхпараметровРисунок 6. Схема процесса обучения нейронной сетиОтдельного внимания заслуживает так называемый коэффициентобучения нейронной сети, который позволяет управлять величинойкорректировки весов при каждой итерации. Значения данногокоэффициента варьируются от 0 до 1. В случае если в нейронной сетикоэффициент обучения равен 0, это означает, что корректировка весовпосле первой итерации не производится.

При малых коэффициентахобучения, время обучения сети увеличится, однако настройки наминимум также будет выше. Соответственно, при высоких значенияхкоэффициента обучения сеть будет обучаться быстро, однако иточность настройки существенно снизиться.Влияниекоэффициентаобученияииллюстрирует рисунок, представленный ниже:66точностинастройкиФункция ошибок252015105000,10,20,30,40,50,60,70,80,91Рисунок 7.

Функция ошибок в зависимости от веса параметраНа рисунке 7 изображена функция ошибок нейронной сети взависимости от веса, присвоенного переменной. Ввиду того, что наначальном этапе веса выбираются случайным образом, допустим, чторассматриваемой переменной был присвоен вес равный 0,2. У даннойфункции ошибок есть минимум, которому соответствует значение весапеременной равный 0,5. Таким образом, в случае, если коэффициентобучения будет слишком высоким, алгоритм «перешагнёт» минимум,и общее качество настройки будет не оптимальным.Поэтому коэффициент обучения настраивается эмпирически взависимости от вида функции ошибок, а также техническихвозможностей, т.к. слишком маленький коэффициент обученияприведет к чрезвычайно долгому процессу обучения нейронной сети.В целом следует отметить, что в отличие от метода деревьевклассификаций метод искусственных нейронных сетей не ставитявного ограничения на минимальное количество наблюдений.

Однаков нем также присутствует ограничение на минимальное количествовходных параметров, которое влияет на количество скрытых слоев.67Существенным недостатком искусственных нейронных сетейявляется крайне сложная настройка самой архитектуры сети:количества слоев, связей между слоями, коэффициента обучения,количества нейронов в каждом слое и т.д. В литературе, посвященнойпостроению прогноза на основе искусственных нейронных сетей, нетединой методологии оценки данных параметров, и зачастую авторысоветуют выставлять их методом «проб и ошибок». Ввиду большогоколичества параметров, которые необходимо откалибровать дляоптимальнойработысети,увеличиваетсявремямеждувозникновением потребности оценить динамику стоимости акций исоставлением самого прогноза.Вомногихработах,посвященныхметодампостроенияискусственных нейронных сетей (например, Ричард и Липпман, 1992;Дуда и Харр, 1973; Хэмпшир и Вайбль, 1990; Ли и Липпманн, 1989;Ранзато, Пултни и Чопра, 2007; Жу и Чен, 2009), авторы прямоутверждают, что калибровка параметров сети индивидуальна в каждомконкретном случае и должна проводиться эмпирически.Таким образом, оба непараметрических метода (и методискусственных нейронных сетей, и метод деревьев классификаций)требуют большой работы, связанной с настройкой входных параметровархитектуры алгоритма.2.3.

Байесовский метод ядерного сглаживанияБайесовский метод ядерного сглаживания широко используетсяв различных исследованиях, посвященных анализу коротких и шумныхданных. Ниже приведен краткий перечень работ, на методологиикоторыхосновываютсяподходы,использованныевданномисследовании: Бур и Линч, 1966; Мишели и Ваба, 1981; Кортес и68Вапник, 1995; Маккэкй, 2002; Соллич, 2002; Рассиесен и Уильямс,2006; Жанг с соавторами, 2011.В рамках данного исследования использовалась стандартнаяядерная модель (Crawford and Wood, 2016): = ̌′ + , ~(0, 2 ),где(1)̌.̌′ – аппроксимированная матрица ядра Отдельно хотелось бы остановиться на матрице .

В общем видеданная матрица отвечает за предварительные оценки распределения идолжна изменяться в зависимости от количества наблюдений (Liang etal., 2009; Lopes and West, 2004). Ввиду этого был использован принятыйв научной литературе, посвящённой Байесовским подходам, метод gprior (Liang et al., 2009), который позволяет изменять параметрыпропорционально дисперсии различных главных компонент исходногомножества.Оценка параметров и проверка точности проводилась припомощи Gibbs sampler, для использования которого модель былапереписана в следующем виде: = ̌′ + , 0 ~(0, 2 )̂)~(0 , 2 Λ2 ~ − − 2 ( )2 ~ − − 2 ( )На основании описанной выше задачи строилась оценкастоимости актива, на основании которой и принималось решение овключении той или иной бумаги в портфель.69Дальнейшие итерации, подгонки и высчитывания ошибкипрогноза основываются на работах Кроуфорда и Вуда, Лопеса и Веста,2004 года.

В данных работах описывается механизм интеграциипроблемы отбора регрессоров в стандартный механизм оценкистоимости акций при помощи модели ядерного сглаживания.В самом базовом приближении модель ядерного сглаживанияпозволяет оценивать значения функции, исходя из наблюдаемыхзначений функции.Еслирассматриватьстандартныйподходлинейногорегрессионного анализа к решению вопроса оценки стоимости акций,то он заключается в попытке подгонки прямой, захватывающейнаибольшее количество наблюдений. Естественно, что далеко не всенаблюдения лежат на одной линии, могут быть шумы в данных, крометого, могут быть не включены какие-либо параметры, описывающиединамику цен акций.Модельядерногосглаживанияпредставляетсобойнепараметрический метод оценки нелинейной регрессии, которыйоцениваетзначениефункциикаксредневзвешеннаяееженаблюдаемых значений.Допустим, рассмотрим график функции, представленный нарисунке ниже:70Рисунок 8.

Иллюстрация работы модели ядерного сглаживанияДопустим, что необходимо оценить значение данной функциипри значении параметра равного 60. Одним из способов оценкиданного параметра может послужить расчет среднего значенияфункции при значениях параметра равным 58 и 62. Однако в идеаленеобходимо значениям функции с меньшей разницей аргументовприсваивать большие веса при расчете среднего. Именно по такомуалгоритму и работает самый простой вариант модели ядерногосглаживания: данным алгоритмом рассчитывается взвешенное среднеенаблюдаемых значений функции с присвоением больших весовнаблюдениям с меньшей разницей в независимых переменных.Существует несколько вариантов расчета оценки: оценка спомощью метода Надарайя – Уотсона, метода Пристли – Као и методаГассера – Мюллера.71В рамках данного исследования использовалась оценка спомощью Надарайя-Уотсона:∑=1 ℎ ( − )̂ℎ () = ,∑=1 ℎ ( − )где(2)ℎ – ядерная функция с точностью h.ПрипервичномтестированиифункцииоценокфункцияНадарайя – Уотсона показала лучшие результаты по сравнению сфункциями Пристли – Као и Гассера – Мюллера.

При этом функцияНадарайя – Уотсона имеет ряд ограничений, которые могли повлиятьна эффективность использования метода ядерного сглаживания вцелом. Выбор окна (параметра точности) влияет решающим образом надальнейшую эффективность использования оценок, построенных припомощи метода ядерного сглаживания: Если задать чересчур большие значения окна, то оценка будетвырождаться в константу, которая будет равна усредненнойоценке и не позволит определить характерные особенностиизучаемой величины. Если задать чересчур малые значения окна, то оценка будетопираться на небольшое число наблюдений в окрестности , ибудет крайне волатильна. Завышение оценок, если ̂ℎ (), имеет положительный наклон, и ≤ min( )Параметр точности является важным, т.к. отвечает, насколькоблизко будет соответствовать функция плотности распределению.

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5224
Авторов
на СтудИзбе
428
Средний доход
с одного платного файла
Обучение Подробнее