Fedorenko-RP-Vvedenie-v-vychislitelnuyu-fiziku (810773), страница 51
Текст из файла (страница 51)
Аналогичное обозначение примем и для правых краевых условий: /.»х(т) = Ь», где /.» — матрица л- л — /г. Как было сказано выше, решение краевой задачи является пересечением двух интегральных многообразий системы (1): Я (1) и Я»(/), Используем второе представление этих мнопюбразий в виде пересечения /с и л — Й гиперплоскостей (зависяших от параметра 1) соответственно: игиБлижеииые метОды ВычиглительиОЙ Физики 1Ч. П (10) Е,+«.А=О, Ь=Еа. Начальные данные Коши Е (0), Ь (0) дают левые краевые условия, 1.+(Т), Ь+(Т) — правые.
Пусть й (!), А+(Т), Ь (!), Ь+(!) найдены интегрированием соответствующих задач Коши. Тогда решение х(1) в каждый момент времени находится решением системы п линейных уравнений: «". (!) х(!) = Ь Я (й уравнений), 1,+(!) х(!) = Ь+(Ю) (и — Ь уравнений), (1!) Эта процедура, называемая иногда алгоритмом встречной прогонки, как было сказано, в нашем случае (для жесткой краевой задачи) вычислительно неустойчива.
Однако оиа полезна как теоретический ориентир. В частности, полезна следующая теорема. Теорема. Пусть «'. (1), «.+(!)„Ь (!), Ь+(!) получены решением соответствующих задач Коши для уравнения (10) и х(Т) находится из системы (11), которая не вырождена ни прн каком и Тогда х(Г) является решением краевой задачи. Заметим, что предположение о иевырожденности системы (! 1) при всех ! можно, конечно, заменить предположением о невырожденности при одном каком-то г или, иначе, предположением о невырожденности самой краевой задачи.
Доказа!Иельстиео. Пусп (11) выполняется при всех О Дифференцируя по г, получаем е,х + Сх = Ь. Используя (10) для ь и Ь, имеем — ЕАх+«.х = «.а, или Ь(х — Ах — а) =О. Таким образом, мы приходим к системе «. (х — Ах — а) = О, ь«(х — Ах — а) =О, из которой в силу ее невырожденности получаем уравнение х — Ах — а =О. Выполнение краевых условий следует из данных Коши для 2,, 2,+, Ь, Ь+. Перейдем к построению «устойчивых» описаний многообразий Я (!), Я+(г). Рассмотрим, для определенности, описание Я . Поскольку для Я+ все делается точно так же, индексы « — » н «+» опустим. Итак, опишем многообразие Я(!) в форме Ж) х() =И ). (12) где б есть матрица и- 1В, р — й-вектор. При этом мы должны позаботиться о том, чтобы описание (12) было эквивалентно описа- Повторим (в матричной форме) вывод уравнений для Ь(!) и Ь(С).
Дифференцируя по ! соотношение 2.х = Ь, получаем е,х + 2,х = Ь. За- мена х на Ах + а дает (з. + 2,А)х + Еа = Ь. Примем для з. и Ь урав- нения В гв1 жесткие лииейные кРАеВые зАдАчи нию (9), а строки С(г) образовывали хорошо обусловленный базис. Лучше всего, чтобы они были взаимно-ортогональными. (Требования к 13 сформулируем несколько позже.) Будем искать с(1) в форме с(г) = м(г) Й(г), где м(г)— матрица х -Р х, пока ие определенная. при любой матрице М(1) строки С суть некоторые линейные комбинации строк Е. Если М вЂ” невырожденная матрица (т.е.
из Мг = 0 следует г = О), то линейные подпространства, натянутые иа строки з. и С, совпадают, или, другими словами, з. и С отображают л-мерное подпространство в одно и то же х-мерное, определенное лишь разными базисами. Требование равномерной по г хорошей обусловленности базиса из строк С можно оформить в виде требования постоянства матрицы С(г) С (г). Это — матрица к- х, элементами которой являются всевозможные скалярные произведения строк С. Предполагая, что строки 1,, входящие в левое краевое условие, предварительно ортонормированы, будем считать, что М(0) = Е (так будем обозначать единичную матрицу /с- х). Постараемся определить М(г) таким образом, чтобы СС' при всех г оставалась единичной, т,е, чтобы строки С(г) образовывали ортонормированный базис.
Для этого нужно обеспечить равенство — ",(СС') = СС*+ СС' = СС'+ (СС')* = 0. (1З) Из (10) имеем С = (МЦ, = МС + Мт. = М~. — МаА. Используя выражение для С, а также соотношение Ь = М 'С, преобразуем СС'. СС = (МА'. — МА,А)С' = (ММ 'С вЂ” ММ 'СА)С' = = ММ 'СС' — САС'.
Определим М таким образом, чтобы это выражение было равно нулю. (Второй член (13) при этом тоже автоматически обратится в нуль, и будет обеспечено С(г)С'(1) = сопзг.) Итак, после несложных формальных преобразований для М получаем задачу Коши: М = САС'(СС') ~М, М(0) = Е.
(14) Это уравнение решать не придется. Мы используем его при выводе уравнения для С: С = (МС),= МЕ, + М)- = МЕ, — МЕА = САС'(СС') М1. — МСА. лгивлижвнныв методы вычислительной ьизики сч. п И наконец, учитывая, что МЕ=б, бб' = Е, получаем С= САС'Π— бА, 0(0) = ь(0). (15) Теперь приступим к выводу уравнения для р(с). Из (9) имеем ь(с) х(с) = Ь(с), где Ь(с) — решение задачи Коши (10). Умножение на М дает мс. х(с) = м ь(с), т.е. 0(с) х(с) = м(с) ь(с).
Однако брать р(с) = м(с) ь(с) нельзя, так как мы не собираемся вычислять М, Е, Ь. Выведем уравнение для р(С), используя то соотношение, которое мы хотим получить: 0(С) х(с) = р(С), где С(С) — уже известная матрица и-~ Ь, х(с) — решение краевой задачи. Дифференцируя по с, имеем р= Сх+ Сх = (С+ СА)х+ Оа. Учитывая (15) и связь р = Ох, преобразуем первый член: (О + ОА) х = СА6 Ох = ОАО'р. Окончательно для р(с) получаем задачу Коши: (16) р = ОАО" р + ба, р(0) = Ь (0), Отметим важное обстоятельство.
Так как р(с) =б(с) х(с), а строки 0(с) образуют ортонормированную (хотя и не полную в лмерном пространстве) систему, то р(С) — величина того же поридка, что и х(с). Если задача вычислительно корректна и искомое решение х(с) ограничено в смысле (3), то р(с) — такая же величина.
Но пока мы получили только часть уравнений для х(С), порожденную переносом (»прогонкой») левого краевого условия на весь интервал 10, Т1. Точно так же можно перенести правые краевые условия, интегрируя задачи Коши справа-налево. Сами же уравнения для б+ и р~ по форме в точности совпадают с уравнениями для С и р (выше мы выводили их в общей форме (15), (16)). Итак, в каждой точке мы получаем систему л уравнений С-(с) х(с) = 0-(с), или 0(с) х(с) = р(с), 0+(с) х(с) = р" (с), где теперь 0(с) — матрица л- и, р(с) — л-вектор.
Заметим, что Ц р(с) Ц = О(йх(с) Ц). Строки матрицы С, вообще говоря, ортонормированной системы не образуют, так как ее части 0 и С+ получены независимо. Можно исправить и этот недостаток, если сначала решить задачу для С (с) и при ортогонализации векторов 1ь входящих в прз- й 13! жесткие линеЙные кРАеВые 3АдАчи вые краевые условия, потребовать еще и ортогональности к строкам матрицы С (Т). Если краевая задача не вырождена, это требование выполняется.
В принципе при ортогонзлизации может возникнуть большая потеря точности, если пространства, натянутые на «правые» векторы 1,. (! = lс + 1, /с + 2, ..., И), и строки С (Т) образуют очень малый угол, хотя и остаются еще формально независимыми, т.е. дают в сумме все л-мерное пространство. Такая ситуация возникает тогда, когда исходная краевая задача почти вырождена, т.е. среди точек спектра однородной задачи х — Ах = Лх с однородными краевыми условиями (2) имеется точка, близкая к нулю.
Если нуль принадлежит спектру, краевая задача вырождена, теряются стандартные свойства существования и единственности решения. Такую задачу называют «задачей на спектре» (мы здесь ее не рассматриваем). Однако чем меньше по модулю ближайшее к нулю собственное значение спектральной задачи, тем хуже обусловлена исходная задача, тем больше постоянная С в оценке (4). Это почти очевидно. Если у(1) — собственная функция (!!у)! = 1), соответствующая малому собственному числу Л, то функция х(!) = х(г) + у(г) удовлетворяет уравнению х = Ах + а, а = а + Лу, !!х — х!! = О(! ), с малым возмущением 0(! Л)) правой части (х, очевидно, удовлетворяет невозмущенным краевым условиям), Таким образом, постоянная С в оценке (4) не может быть меньше 1/! Л!. Что касается обоснования алгоритма, то оно пока носит качественный характер: при его реализации мы не имеем дела с решениями типа ес', как это было бы, если бы мы попытались решать задачу обычным методом «фундаментальных решений» (см.
6 8). Однако полной ясности все-такн нет. Не очень ясен механизм преодоления влияния большого параметра. Он как был в исходной задаче, так н остался в уравнениях (!5), (! 6), в которых присутствует матрица А. В з 9 для простейшего случая было проведено достаточно полное исследование и, в частности, было обнаружено, что метод прогонки требует интегрирования задач Коши с большим параметром, но устойчивых. Здесь, видимо, механизм носит несколько иной характер.
Ниже в более, простой и прозрачной ситуации мы попробуем прояснить этот вопрос. Он состоит в следующем: как происходит накопление вычислительных погрешностей при численном решении задач Коши (15), (16) по стандартным схемам типа Рунге — Кутты, например? Ведь если ориентироваться на общие оценки, то для (15) имеем !!(САС С)о!! !)САС'!! ж !)А!! ПРИбЛИЖЕННЫЕ МЕТОДЫ ВЫЧИСЛИТЕЛЬНОЙ ФИЗИКИ !ч. и (это тривиальная оценка, не учитывающая возможных тонких «компенсаций» больших величин при вычислении правой части (15)). Как было сказано выше, выбор шага численного интегрирования т из условия !!А)!т.ес! считается здесь вполне приемлемым, Однако почему при оценке погрешности численного интегрирования не возникает стандартной и в общем случае неулучшаемой величины тге! «! г (р — порядок аппроксимации), не очень понятно.