Ф.П. Васильев - Методы оптимизации (2002) (1158201), страница 109
Текст из файла (страница 109)
Но по построению ((й) - — оо, поэтому последние два равенства возможны только при !ип /(хй) = — оо = с,. С другой стороны, из (Р(хй)) — 0 и формулы (3) следует выполнение условий (9). В силу (10) тогда !ип /(хй) > /,. Следовательно, /, = х, = — сю. Пусть теперь 4, > — со. В силу теоремы 1 тогда /. > 1. > — оо. Возь- мем произвольное 1 < /,.
По определению р(1) существует последова- тельность (хй) Е Хо такая, что 1пп Ф(х„с) = р(1). 'й»(ожет случиться, что !!т Р(хй) = д > О. Тогда из Ф(хй, 1) > МР(х,.) при )с — » оо следует, что р(1) > М!ПП Р(хй) = Мд > О. ЕСЛИ жЕ 11т Р(х,) =0=!ПП Р(х, ), тО й й ао 1пп д,.»(хй) =О, з =1,..., в. В силу (10) отсюда имеем !пп /(хй ) > /. > 1. ,-со со А тогда р(2) = 1!т Ф(хй, 4) > Т (/„— ()»ь > 0 как в случае использования функции (2), так и функции (6). Тем самым показано, что р(4) > 0 при всех 1 < /..
Кроме того, в рассматриваемом случае 1, > — со по определению 1 имеем !ип р(4) > О. Следовательно, (. > /„что в силу теоремы 1 возможно с -оо только при 4. =/,. Теорема доказана. П В $15 были приведены достаточные условия, гарантирующие согласован- ную постановку задачи (1) на Х (см. теорему 15.2, леммы 15.1, 15.5). 4. Подробнее остановимся на частном случае функции (2), когда Ф(х, т) а Д тах(З'(х) — ИО)+МР(х), хн ХО, (13) где Ь > О, АГ > О, а функция Р(х) взята из (3) при некоторых рз > 1, с = 1,,,о г. Оказыва- ется, функция (13) и соответствующая ей функция р(т) обладают рядом полезных свойств, облегчающих поиск минимального корня уравнения (5). Те о р е м а 3. Функции Ф(х, 1), р(1), определяемые формулами (13), (4), монотонно убывают (вообще говоря, не строго) при возрастании 1 и удовлетворяют неравенствам !Ф(х, г) — Ф(х, т)! < Ь!т — т!, (! 4) !р(й) — р(т)! < Ь !1 — т! (15) при всех хе Хо и любых й, т.
Если 6„=1п(у(х) > — со, то ха Ф(х, 1) = — 51 4 Ь/(х) 4 МР(х), р(й) =-Ьт+1п!(Ь7(х)+ МР(х)) (!6) при всех 1 < у„— линейные функции по М Доказательство. Простым перебором возможных значений функции »пах(а; Ь) легко доказываются неравенства щах(у(х) — ИО) ) >щах(Г(х) — т;О), г < т, хеХо, ! щах(7(х) — Н О) — гпах(1" (х) — т; ОЯ < !с — т!, х е Хо. Отсюда следует невозрастание функции Ф(х,й) по переменной 1 и неравенство (14).
Далее, длЯ любых ! < т имеем Ф(х, З) ) Ф(х, т) > Р(т) или Ф(х, 1)) Р(т) пРи каждом хн Хо. Отсюда, пеРеходЯ к нижней гРани по х е хо, полУчим Р(1) ) Р(т) пРи всех 1 < т. Дока»кем неравенство (15). Зафиксируем произвольные 1, т. По определению нижней грани при каждом е > О существуют точки х„х, е Хо такие, что р(1) < Ф(хс» т) < р(1)+, р(т) < Ф(;, г) < р09 4 Тогда, учитывая уже доказанное неравенство (14), имеем р(1) — р(т) < Ф(х, С)-Ф(х, т)4с < <ь!т-т!+г, р(1)-р(т) >Ф(х, 1)-е — Ф(х, т) ~)-ь!1-т!-в, т.
е, !р(1) — р(т)! < ь!с — т!+г 364 Гл. 5. МЕТОДЪ| МИНИМИЗАЦИИ ФУНКЦИЙ МНОГИХ ПЕРЕМЕННЪ|Х $18. МЕТОД НАГРУРКЕННЪ|Х ФУНКЦИЙ 366 при любом г > О. Отсюда при е — >+О получим неравенство (15). Формулы (16) следуют из ТОГО, Чта 7"(В) — С ) 700 — С > 0 ПРИ ВСЕХ и Н ХО. ТЕОРЕМа 3 ДОКаЗаНа. СУ Если задача (1) имеет согласованну>о постановку нз Хо и у"„> — оо, то, опираясь на теорему 3, можно предложить следующий итерационный метод определения 7,. Сначала выберем со так, чтобы р(со) > 0 (например, если у„, = |п| у (м) > — оо, то можно взять любую точку со < 7„). ХО Следующие приближения определим по формулам (17) сй~> = с, + р(сй)[ь, й =О,|, теорема 4. пусть функция РЯ>0 при всех с, — со< с <+со, удоелетеоряет услози>о(15), пусть С, — минимаяьнь>й корень урагнения (5) е смысле определения 1, С, > — >х>.
Тогда при любом выборе начального приближения СО, -оо < Со < С„лосягдогатеяьность (Сй), определяемая условиями (17), сходится к С„. Доказательство. так как р(с) > О, то из (17) следует, что последовательность (сй) монотонно возрастает и поэтому существует 1|т сй — — а<ос. Покажем, что а= с,. По условию й 00 Со < С,.
ДопУстим, что пРи некотоРом й ) 0 оказалось Сй < С,, Тогда Р(С) > 0 пРи всех С < Сй, Возьмем пРоизвольное С, Сй < С < Сй и >. С Учетом Условий (15), (17) имеем РЯ=Р(с„)+[РЯ вЂ” р(с„И) р(с„) — ь(с-сй) > р(сй)-ь(сйй>-сй)=0, с„< с <сйй! это значит, что р(с) > 0 при всех с < сй 0 >, т. е сй+ > < с,, может случиться, что р(сй+ >) = О, тогда сй+ > — — с, — в этом случае итерации (17) заканчиваются, если р(сй „>) > О, то ей+ > < с, и итерации продолжаются дальше. Таким образам, имеются две воэможности. Либо процесс (|7) закончится тем, что р(со) > >О,..., Р(сй >) >О, р(сй)=0 — тогда сй — -с„=а, утверждение теоремы верно.
Либо р(сй)>0, сй < с„, р(с) > 0 при с < сй для всех й = О, 1,, — в этом случае 1!гп сй — — а < с и РЯ > 0 й 00 при всех с < а. Покажем, что а= С,. Если последовательность (сй) неограничена сверху, то а=со = с,. если же сй < а< со, й = О, 1,..., то, учитывая непрерывность функции р(с), из (17) при й -> ос получим а= а+ р(а)»Ь или р(а) =О.
Это значит, что с, = а при а< со. Теорема доказана. П Заметим, что на каждом шаге метода (17) нужно вычислить одно значение функции р(С), и для этого в свою очередь нужно решить задачу минимизации (|8) Ф(х,|) >|и|; хнХо, Поскольку функция (13), вообще говоря, не является гладкой, то это обстоятельство может вызвать некоторые трудности при решении задачи (18). Однако имеющиеся методы решения негладких задач минимизации (сми например, [264; 265; 361; 386; 396; 426; 572; 586; 718; 769; 777)) позволя>от надеяться на то, что вычисление приближенного значения р(с) не окажется слишком трудным. При изложении метода (17) предполагалось, что величины р(Сй) известны точно. Однако задача (18) на практике, как<b>Текст обрезан, так как является слишком большим</b>.