Главная » Просмотр файлов » The Elements of Statistical Learning. Data Mining_ Inference_ and Prediction

The Elements of Statistical Learning. Data Mining_ Inference_ and Prediction (811377), страница 86

Файл №811377 The Elements of Statistical Learning. Data Mining_ Inference_ and Prediction (The Elements of Statistical Learning. Data Mining_ Inference_ and Prediction.pdf) 86 страницаThe Elements of Statistical Learning. Data Mining_ Inference_ and Prediction (811377) страница 862020-08-25СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 86)

These avoid explicit computationof the second derivative matrix while still providing faster convergence.11.5 Some Issues in Training Neural NetworksThere is quite an art in training neural networks. The model is generallyoverparametrized, and the optimization problem is nonconvex and unstableunless certain guidelines are followed.

In this section we summarize someof the important issues.11.5.1 Starting ValuesNote that if the weights are near zero, then the operative part of the sigmoid(Figure 11.3) is roughly linear, and hence the neural network collapses intoan approximately linear model (Exercise 11.2). Usually starting values forweights are chosen to be random values near zero. Hence the model startsout nearly linear, and becomes nonlinear as the weights increase. Individual398Neural Networksunits localize to directions and introduce nonlinearities where needed. Useof exact zero weights leads to zero derivatives and perfect symmetry, andthe algorithm never moves. Starting instead with large weights often leadsto poor solutions.11.5.2 OverfittingOften neural networks have too many weights and will overfit the data atthe global minimum of R. In early developments of neural networks, eitherby design or by accident, an early stopping rule was used to avoid overfitting.

Here we train the model only for a while, and stop well before weapproach the global minimum. Since the weights start at a highly regularized (linear) solution, this has the effect of shrinking the final model towarda linear model. A validation dataset is useful for determining when to stop,since we expect the validation error to start increasing.A more explicit method for regularization is weight decay, which is analogous to ridge regression used for linear models (Section 3.4.1).

We add apenalty to the error function R(θ) + λJ(θ), whereXX22J(θ) =βkm+αmℓ(11.16)kmmℓand λ ≥ 0 is a tuning parameter. Larger values of λ will tend to shrinkthe weights toward zero: typically cross-validation is used to estimate λ.The effect of the penalty is to simply add terms 2βkm and 2αmℓ to therespective gradient expressions (11.13). Other forms for the penalty havebeen proposed, for example,J(θ) =Xkm2X α2βkmmℓ+22 ,1 + βkm1 + αmℓ(11.17)mℓknown as the weight elimination penalty. This has the effect of shrinkingsmaller weights more than (11.16) does.Figure 11.4 shows the result of training a neural network with ten hiddenunits, without weight decay (upper panel) and with weight decay (lowerpanel), to the mixture example of Chapter 2. Weight decay has clearlyimproved the prediction.

Figure 11.5 shows heat maps of the estimatedweights from the training (grayscale versions of these are called Hintondiagrams.) We see that weight decay has dampened the weights in bothlayers: the resulting weights are spread fairly evenly over the ten hiddenunits.11.5.3 Scaling of the InputsSince the scaling of the inputs determines the effective scaling of the weightsin the bottom layer, it can have a large effect on the quality of the final11.5 Some Issues in Training Neural Networks399Neural Network - 10 Units, No Weight Decay.. ..

.. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. ..

.. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..

.. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. ..

.. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... .. .. ..

.. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..

.. .. .. ..... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. ..

.. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..

.. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... .. .. .. .. .. .. .. .. .. .. .. .. ..

.. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. ..

.. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .... ..Training. . . . . . . . .. .. .. .. .. .. 0.100........ .. ... ... ... ... ... ... ... ... Error:.. .. .. .. .. ..

... ... ... ... ... ...... ...Test.. .. .. .. ... ... ... ... ... ... ... ... ... ... 0.259.. .. .. .. .. .... .. ... ... ... ... Error:.. .. .. .. .. .. .. .. .. .. ... ... ... ... ... ..... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..Bayes Error: 0.210o..... ..... o.....

..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ..... ....... .. .. .. .. ..o.........................................o.. .. ..

.. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...... ...o.. .. ..o..o.. .. .. .. .. .. .. .. .. .. .. .. .. o.. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..o o.. .. o...... ..o.. .. ..

.. ...o... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...o o o... ... ... ...o... ... ... ... ...o... ...o... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...

... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .....o. . .o. . . .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..oo oo. .. .. .. .. .. .. o........................................o .... .... .... ....oo.... ....

.... .... .... .... .... .... .... .... .... .... .... .... ....o....o.... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... ......................................oo .. .. .. .. ... ... ... ... ...oo... ... ... ... ... ... ... ...oo.. ....o.... o.... .... .... .... .... .... .... .... .... ....

.... .... ....o.... .... .... .... .... .... .... .... .... .... .... .... .... ....... o... ... ... ...o... ... ... ... ...o... ... o... ... o...o... ... ... o. . . .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..oo..................o.. .. .. .. .. .. ..

.. .. .. ..o.. .. .. .. .. .. ... . . . . . . .ooo. . . . . . . ... ... ... ... ... ... ... ... ... ...o... .... .... .... o.. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..o o .....o..... ..... .....o..... o..... .....oo... o... ... ... ... ...o... ... ...

... ...oo... ... ... ..... ..... ..... ..... o..... ..... ..... .....o.. .. .. o.. .. .. .. .. .. ..o.. ... ... ... ... ... ... ...ooo.............................oo. .. ... ... ... ... ... ... ... ... ... ... ... o.. o.. .. .. .. .. .. .. .. .. .. .. .. .. o.. .. o..o.. .. .. .. .. .. .. .. .. ..o. . . . .

.o.oo.o..o.. .. o..o.. o.. .. .. .. .. .. .. ..o.. ..o.. .. .. ..o.. .. .. ..o.. .. .. o.. o.. .. .. .. .. .. .. .. .. .. .. .. o. .. .. .. .. .. .. ...o.. .. .. .. .. o.. .. .. .. .. .. .. ... ... ... ... ... ... ..... .. .. .. ..o.. oo... ...o... ... ... ... ... ... ... ... ... ... ... ... ... ... ... oo....o.... .... ....oo....

oo. .. .. .. .. .. .. .. .. .. .. .. .. ..o............ ... ... ... ... ... ... ... ... ... ...o.........oo... ... ... ... ... ...o... ... ... ... ... ... ... ... ... ... ... ... ...o... ... ... ... ... ... ... ... ... ... ...o... ...o... o... ... o... ... ... ... o... ... .... .... .... .... .... .... o.. .. .. .. .. .. .. .. ..

Характеристики

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6353
Авторов
на СтудИзбе
311
Средний доход
с одного платного файла
Обучение Подробнее