Полак_и_др__Вычислительные_методы_в_химической_кинетике (972296), страница 40
Текст из файла (страница 40)
(6.6) Таким образом, задача минимизации Ф(х) с ограничениями сводится к минимизации новой целевой функции Ф (х) =Ф(х) + Е(х) без ограничений. Вместо введения штрафной функции можно осуществить преобразование переменных, переводящее отрезок [А, В) во всю действительную ось (- ~, ') . Наиболее часто используется следующее преобразование: У- 1и (6.7) обратное преобразование имеет вид ехр! У) х= (В -А) + А. (6.8) ехр(У) + ехр( — У) 1а2 Таким образом, задача минимизации целевой фукнции Ф(х! на отрезке [А, В) сводится к задаче минимизации целевой функции Ф(х(У)! по параметру У на всей действительной осин В многомерном случае для достаточно сложных областей параметров, для которых надо проводить минимизацию, сведение задачи с ограничениями к задаче без ограничений может представить определеннгне трудности, но тем не менее такое сведение практически всегда выполнимо. Необходимо отметить, что при решении ОКЗ поверхности минимизируемых функционалов имеют, как правило, "овражный" характер.
Это является отражением того, что результаты решения системы ОДУ сильно чувствительны к изменению одних параметров, по которым осуществляется минимизация, и слабо чувствительны к изменению других (36! . "Овражный" характер поверхности минимизируемого функционала. как правило, затрудняет процесс поиска оптимального набора параметров. Рассмотрим связь задачи минимизации и решения системы ОДУ. Пусть осуществляется минимизация функционала Ф ((г), где (с = (/г,, ..., й,„) — т-мерный вектор параметров.
Поиск минимума ведется по траек- тории градиентной системы дифференциальных уравнений с()сс дФ , 1= 1,...,сл; с)г д/сс (6.9) так как на этой траектории дФ ж дФ дссг ж с дФ,т — =Х вЂ” — =-Х ~ — [ <0, дт с=~ д/сс дт г=с д)сс / (6.10) то любое продвижение по ней приведет к уменьшению Ф ((с) до тех пор, пока не будет достигнута точка минимума, определяемая условиями дФ вЂ” = 0 джесс с6.11) 163 при всех Е Таким образом, задача поиска минимума тесно связана с задачей интегрирования систем обыкновенных дифференциальных уравнений, причем "овражный" характер поверхности Ф ()с) соответствует "жесткой" системе ОДУ, так как матрица Гессе д'Ф/д)ссд/с) целевой функции одновременно является якобианом системы обыкновенных дифференциальных уравнений.
В том случае если эта матрица имеет различающиеся между собой на несколько порядков собственные значения, то возникают определенные математическиетрудности прн численном решении задач минимизации и интегрирования систем обыкновенных дифференциальных уравнений. Методам минимизации в настоящее время посвящена обширная литера. тура. Обзору методов минимизации функционалов общего вида, сравнению эффективности различных методов и способам их реализации на ЗВМ посвящены монографии [7, 156, 189, 218) . Ниже мы кратко остановимся на основных идеях методов минимизации, применяющихся прн решении ОКЗ. Метод градиента и его модификации. Как известно, направление наискорейшего убывания функции противоположно вектору градиента в данной точке.
На этом основан классический метод градиента: в текущей точке поиска вычисляется антиградиент функции и осуществляется продвижение вдоль этого направления с некоторым шагом. Затем снова осуществляется вычисление вектора антиградиента и т.д. Если функция имеет несколько локальных минимумов, то метод градиента обеспечивает сходимость к одному из них.
Метод градиента имеет наибольшую скорость сходимости в случае, когда линии уровней минимизируемого функционала имеют вид, близкий к окружностям. В случае "овражного" рельефа метод градиента малоэффективен, так как происходит спуск в овраг н блуждание от одного его склона к другому беэ существенного продвижения по дну оврага. Вариант градиентного метода, когда на каждом шаге поиска производится одномерная минимизация вдоль выбранного направления, называется методом наискорейшег6 спуска [7] . Градиентный метод, в котором направление спуска на данном шаге формируется с использованием информации о направлении градиента на предыдущих шагах, получил название метода сопряженных градиентов [7) .
Метод нелинейных оценок. Широкое распространение при решении обратной кинетической задачи получил метод нелинейных оценок. Зто обусловлено тем, что он использует квадратичный вид минимизируемого функционала, характерный для ОКЭ. Пусть Ф (к) — минимизируемый функционал вида (6.4) с единичной матрицей УУ, т.е. Ф(ь)= Х (У б (ь) р)2 яс) (6.12) т где з — р-я строка матрицы частных производных [дул!3)г,], вычисленных в точке (га. Подставляя (6.13) в (6.12), получим Ф(1с) = 2; (ул.((га)+ з Ыт — «"..) = 0 (6.14) яс( Дифференцируя (6.14) по Ыс, получаем линейную систему относительно компрнент вектора Ьйк (у;.
(йо) ч з ц(ч — х~ ) = О. (6.15) яд/ Так как выражение (6.13) приближенное, то вектор Ьй дает очередную итерацию при приближении к минимуму (6.12) . Метод нелинейных оценок, вообще говоря, обеспечивает более быструю сходимость к минимуму при решении обратной кинетической задачи, чем градиентные методы [36]. Метод Ньютона — Рафсона. Если сохранить в разложении (63 3) член 2-го порядка, то сходимость к минимуму функционала (6.12) будет более быстрой. В методе Ньютона — Рафсона [7] требуется, однако, вычислять матрицу вторых производных и в дальнейшем обращать ее, что, как правило, требует значительных вычислительных затрат. В силу этого метод Ньютона-Рафсона сравнительно редко используется при решении обратной кинетической задачи. Метод Дзвидона — Флетчера — Пауэлла.
Предложенный в 1959 г. Дэвидоном и далее усовершенствованный Флетчером и Пауэллом [260] метод также обладает квадратичной сходимостью, однако не требует вычисления матрицы вторых гроизводных. Матрица, обратная матрице вторых производных, строится на основе получаемой в процессе поиска информации о поверхности минимизируемого функционала. Это и определяет второе название метода — метод переменной метрики [7) . Этот метод — один из лучших в классе методов, использующих матрицу первых производных и учитывающих специфику минимизируемой функции (квадратичный функционал) . Программные реализации метода даны в [189, 447]. Методы пряааого поиска.
Методы минимизации, не требующие вычисления производных по параметрам оптимизации, получили название методов прямого поиска. Среди них лучше всего зарекомендовали себя (189] методы Розенброка [165, 388], Дэвиса — Свена — Кзмпи (см. [7, 189] ) и Пауэлла [374), В методе Розенброка в каждом цикле проводится поиск вдоль взаим- 164 где суммирование осуществляется по всем моментам времени, по всем компонентам векторов и по всем начальным условиям; уб (к) — рассчитанб ные, а к,"..
— экспериментально измеренные концентрации. Разлагая угу(к) в ряд по и в окрестности некоторой точки хе и оставляя только нулевой и первый члены разложения, получим уО ь, ю -Р(( + тхь (6.13) но ортогональных направлений. При этом отыскивается не минимум в заданном направлении, а просто точка с меньшим значением функции. Далее поиск проводится в следующем направлении, ортогональном ко всем предыдущим. Зта процедура повторяется до тех пор, пока в каждом направлении по крайней мере одна проба не окажется успешной, а одна— неудачной.
После завершения цикла поиска в качестве первого нового направления выбирается суммарный вектор смещения в данном цикле, а остальные ортогональные направления определяются с помощью процедуры Греме-Шмидта (см. [37) ) . Таким образом, при поиске этим методом одно из направлений всегда будет расположено вдоль оси оврага. В методе Дэвиса — Свела — Кэмпи поиск производится также вдоль артогонапьных направлений, но вдоль каждого из направлений проводится одномерная минимизация.
В методе Пауэлла поиск осуществляется не вдоль ортогональных, а вдоль сопряженных [7] направлений, для каждого из которых проводится локальная минимизация (обычно используется метод золотого сечения или параболический поиск [21В] ) . Метод обладает квадратичной скоростью сходимости. Программные реализации методов прямого поиска даны в [189, 192]. Нелокальные методы. Градиентные методы и методы прямого поиска обеспечивают сходимость к одному из минимумов поверхности минимизируемого функционала, однако сравнительно часто возникает ситуация, когда таких минимумов оказывается несколько или поверхность имеет сильно выраженный "овражный" характер. В этом случае минимизация может быть осуществлена методом оврагов [36, 38) или методом случайного поиска ) 56, 162) . Процедура поиска минимума методом оврагов вкратце заключается в следующем: из начальной точки поиска осуществляется спуск (обычно каким-либо из градиентных методов) ко дну ближайшего оврага.
При этом не требуется особой точности. Затем из какой-либо другой точки в области поиска проводится еще один спуск. Через полученные в результате спусков точки проводится прямая (предполагается, что она аппроксимирует геометрическую форму дна оврага), вдоль которой осуществляется шаг в направлении убывания минимизируемого функционала. Из полученной точки делается еще один градиентный спуск, и через полученную и предыдущую точки опять проводится прямая, вдоль которой также осуществляется продвижение, и тд.
В слУчае удачного выбора величины шага при продвижении по оврагу и шага градиентного спуска метод оврагов может быть весьма эффективен при решении ОКЗ [36) Идея метода случайного поиска состоит в следующем. Пусть задача минимизации решается для некоторой ограниченной области параметров, Если это возможно, то эта область соответствующим преобразованием координат переводится в единичный гиперкуб. Если такое преобразование неосуществимо, то производится замена координат таким образом, чтобы область поиска лежала внутри единичного гиперкуба.
В этом случае эффективность поиска будет сильно зависеть от соотношения обьемов единичного гиперкуба и области поиска в нем. Внутри единичного гиперкуба выбирается некоторое число случайных точек, для каждой из которых с некоторой точностью проводится быстрый спуск к ближайшему локальному минимуму или оврагу (как правило, здесь также используются градиентные методы) .