Главная » Просмотр файлов » Heath - Scientific Computing

Heath - Scientific Computing (523150), страница 53

Файл №523150 Heath - Scientific Computing (Heath - Scientific Computing) 53 страницаHeath - Scientific Computing (523150) страница 532013-09-15СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 53)

.............................................................................. ..................................................................................................... ... .... .................................................................. ........... ............ ........ ............................................... ................................

................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................•−66−3Figure 6.5: Convergence of steepest descent.6.3.3Newton’s MethodA broader view of the function can be obtained by a local quadratic approximation, whichas we have seen is equivalent to Newton’s method.

In the case of multidimensional optimization, we seek a zero of the gradient. Thus, the iteration scheme for Newton’s methodhas the formxk+1 = xk − Hf−1 (xk )∇f (xk ),where Hf (x) is the Hessian matrix of second partial derivatives of f ,{Hf (x)}ij =∂ 2 f (x),∂xi ∂xjevaluated at xk . As usual, we do not explicitly invert the Hessian matrix but instead useit to solve a linear systemHf (xk )sk = −∇f (xk )for sk , then take as next iteratexk+1 = xk + sk .The convergence rate of Newton’s method for minimization is normally quadratic. As usual,however, Newton’s method is unreliable unless started close enough to the solution.194CHAPTER 6. OPTIMIZATIONExample 6.6 Newton’s Method.

We illustrate Newton’s method by again minimizingthe function of Example 6.5,f (x) = 0.5x21 + 2.5x22 ,whose gradient and Hessian are given byx11and Hf (x) =∇f (x) =5x200.5If we take x0 = [ 5 1 ]T as starting point, the gradient is ∇f (x0 ) = [ 5system to be solved for the Newton step is therefore1 0−5s =,0 5 0−55 ]T . The linearand hence the next approximate solution is 5−50x1 = x0 + s0 =+=,1−10which is the exact solution for this problem. That Newton’s method has converged in asingle iteration in this case should not be surprising, since the function being minimized is aquadratic.

Of course, the quadratic model used by Newton’s method is not exact in general,but nevertheless it enables Newton’s method to take a more global view of the problem,yielding much more rapid convergence than the steepest descent method.Intuitively, unconstrained minimization is like finding the bottom of a bowl by rollinga marble down the side. If the bowl is oblong, then the marble will rock back and forthalong the valley before eventually settling at the bottom, analogous to the zigzagging pathtaken by the steepest descent method. With Newton’s method, the metric of the spaceis redefined so that the bowl becomes circular, and hence the marble rolls directly to thebottom.Unlike the steepest descent method, Newton’s method does not require a line searchparameter because the quadratic model determines an appropriate length as well as directionfor the step to the next approximate solution.

When started far from a solution, however,it may still be advisable to perform a line search along the direction of the Newton step skin order to make the method more robust (this procedure is sometimes called the dampedNewton method ). Once the iterations are near the solution, then the value αk = 1 for theline search parameter should suffice for subsequent iterations.An alternative to a line search is a trust region method , in which an estimate is maintained of the radius of a region in which the quadratic model is sufficiently accurate for thecomputed Newton step to be reliable (see Section 5.3.5), and thus the next approximatesolution is constrained to lie within the trust region.

If the current trust radius is binding,minimizing the quadratic model function subject to this constraint may modify the direction as well as the length of the Newton step, as illustrated in Fig. 6.6. The accuracy ofthe quadratic model at a given step is assessed by comparing the actual decrease in theobjective function value with that predicted by the quadratic model, and the trust radius6.3.

MULTIDIMENSIONAL UNCONSTRAINED OPTIMIZATION195................................................................................................................................................................................................................................................................ .........................................................................................................................................................................................................

...................... ..................................k................................................................. ..... ............................................................... ...................................................... ........................................................... ....................................... k+1................................................................................................................ ......................................................................................................................

..................................................... ............................. ................................................................................................................................. ................................................................................................................................................................................................................................trust radius•xcontours ofquadratic modelNewtonstep•xneg.

grad. dir.Figure 6.6: Modification of Newton step by trust region method.is then increased or decreased accordingly. Once near a solution, the trust radius should belarge enough to permit full Newton steps, yielding rapid local convergence.If the objective function f has continuous second partial derivatives, then the Hessianmatrix Hf is symmetric; and near a minimum it is positive definite.

Thus, the linear systemfor the step to the next iterate can be solved by Cholesky factorization, requiring only abouthalf of the work required by LU factorization. Far from a minimum, however, Hf (xk ) maynot be positive definite and thus may require a symmetric indefinite factorization. Theresulting Newton step sk may not even be a descent direction for the function, i.e., we maynot have∇f (xk )T sk < 0.In this case, an alternative descent direction can be computed, such as the negative gradientor a direction of negative curvature (i.e., a vector sk such that sTk Hf (xk )sk < 0, which canbe obtained readily from a symmetric indefinite factorization of Hf (xk )), and a line searchperformed.

Another alternative is to shift the spectrum of Hf (xk ) so that it becomespositive definite, i.e., replace Hf (xk ) with Hf (xk ) + µI, where µ is a scalar chosen so thatthe new matrix is positive definite. As µ varies, the resulting computed step interpolatesbetween the standard Newton step and the steepest descent direction. Such alternativemeasures should become unnecessary once the approximate solution is sufficiently close tothe true solution, so that the ultimate quadratic convergence rate of Newton’s method canstill be attained.6.3.4Quasi-Newton MethodsNewton’s method usually converges very rapidly once it nears a solution, but it requiresa substantial amount of work per iteration, specifically O(n3 ) arithmetic and O(n2 ) scalarfunction evaluations per iteration for a dense problem.

Характеристики

Тип файла
PDF-файл
Размер
1,88 Mb
Тип материала
Учебное заведение
Неизвестно

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6455
Авторов
на СтудИзбе
305
Средний доход
с одного платного файла
Обучение Подробнее