Дульнев Г.Н., Парфенов В.Г., Сигалов А.В. Применение ЭВМ для решения задач теплообмена (Дульнев Г.Н., Парфенов В.Г., Сигалов А.В. Применение ЭВМ для решения задач теплообмена.djvu), страница 3
Описание файла
DJVU-файл из архива "Дульнев Г.Н., Парфенов В.Г., Сигалов А.В. Применение ЭВМ для решения задач теплообмена.djvu", который расположен в категории "". Всё это находится в предмете "компьютерный практикум по специальности" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр DJVU-файла онлайн
Распознанный текст из DJVU-файла, 3 - страница
Одновременно осуществляется преобразование уравнений системы, которое позволяет после определения ил поочередно найти остальные неизвестные в обратной последовательности: ил,, и л м ..., и,. 1О На первом шаге алгоритма исключают неизвестное и, из уравне„„Рами 2 3, ..., 1и'. Чтобы исключить и, из А-го УРавнениЯ, от так: первое уравнение умножают на аз!/а!! и вычитают из Ь-го уравнения: и и с ! л! э (аз~!ам) ~~~~~ ам и — Ь / ! /=- 1 у ют преобразованное Ь е ура ~у~)'~~ неизвестные и„и,, и из! и ~з алг и~ = Ьл аллу = ал — а„, а, ! „ (1. и) /= 2 Ьл= Ьл — ал, Ьз/ам 3десь верхний индекс «1» означает, что выполнен первый шаг исключения.
Повторяя такую процедуру для уравнений с номерами 2, ..., У, после окончания первого шага получают следующую систему: аз,и,+а„и,+... +а!иии =Ь„ аизз и, +... + ази ил, = Ь'„ (1.12) аиз из+ " + аии пи = Ьй. Отметим, что первое уравнение осталось неизменным и оно (т. е. его коэффициенты) «оставляется на хранениез в машинной памяти. Далее приступают ко второму шагу алгоритма, на котором из уравнений системы (1.12) с номерами 3, ..., Лl аналогичным образом исключают неизвестное и, и получают систему с преобразованными по сравнению с (1.12) последними (у — 2) уравнениями вида а„и, + агз из + ... + а! ч и!ч = Ь„ азз из+ ... + ази и ч = Ьз, азз из+ ... + ази ии = Ьз (1.13) пи з из+ ... + аии ии = Ьи. где алг = а~л! — алз аз))аз„Ьл = Ьл! — ал! з Ь з!аз«.
(1.14) 1~ уже хРанящимся коэффициентам первого уравнения системы ( .12) добавляются коэффициенты второго уравнения системы (1.13), Повторяя описанную процедуру исключения Ж вЂ” 1 раз, приходят к следующей преобразованной системе уравнений: а„и, + а„и, + ... + а и ии = Ь„ агг иг+ .. + ахи ия = Ьг (1.15) а<Я вЂ” 0 и = 5<" — П впч и и коэффициенты которой хранятся в соответствующем массиве машинной памяти. После завершения преобразований из последнего уравнения системы (1.15) находят ии, затем, используя его, из предпоследнего уравнения определяют ии г и т. д., т.
е. из й-го уравнения системы (1.15) определяют ид по формуле (! .16) и = Ь»-' — ~~ а»-.' и а»-' » ~ »г г)( а» ;=»+1 в которой значения и„+„..., им уже найдены ранее, а коэффициенты а»»; ' и Ь» ' берутся из массивов, сформированных при проведении исключения.
Внешне процедура выглядит очень просто. Сложности, возникающие при ее реализации, связаны с накоплением погрешностей округления, обусловленных ограниченным числом знаков в ЭВМ. В частности, при вычислении преобразованных коэффициентов по формуле (1.11) при малом значении а„второе слагаемое может стать столь большим, что при вычитании значения адг и Ьд вообще «потеряются». Например, если ЭВМ оперирует числами с шестью десятичными знаками и а„г — — 1, а а»,а,гуам = — 1О', то а*„= адг — аюаг,/ам = =- ! 000 001 будет округлено до 10'.
Чтобы уменьшить погрешности округления при реализации я-го шага исключения, берут соответствующее уравнение и неизвестное не в «естественном» порядке, как это было в рассмотренном выше алгоритме, а находят их в результате специального поиска. Цель поиска определить уравнения с максимальным коэффициентом ад«. Такой прием называют выбором ведущего элемента. При этом усложняется алгоритм пересчета коэффициентов уравнений, поскольку приходится как бы переставлять строки и столбцы в матрице линейной системы, чтобы найденный максимальный коэффициент оказался на ее главной диагонали.
Эта процедура реализована в стандартных подпрограммах. Поэтому для решения линейной системы по методу Гаусса не следует самому составлять программу, используя простейшие формулы типа (1.11), а целесообразно брать какую-нибудь стандартную программу, в которой разработчики уже предусмотрели меры для уменьшения влияния погрешностей округления. Во многих практических задачах требуется решать системы с матрицами А, имеющими специальный вид. Широко встречаются, !2 = — — '~, А= ~ . (1.17) лп ап Любой итерационный процесс начинается с задания по некоторым соображениям начального приближения (и"„Ч„~,. НаРис. п2 пример, часто полагают и'„" = О, и = 1, ... ..., Ж.
В методе простой итерации на з-м шаге итерационного процесса приближения и7 рассчитывают из выражений (1.17), в которых все остальные неизвестные в правой части берут с предыдущей итерации: иш= ч,', сций — О+йь 1=1, ..., М. (1.18) У=.~ ° ~ ~/ Можно доказать, что достаточным условием сходимости этого метода является условие Ф У, ~сц) <1, 1=1, ..., М, ! =! ° ьН (1.19) причем хотя бы для одного 1-го уравнения должно выполняться строгое неравенство.
Анализ показывает, что итерационный процесс сходится быстрее, если при расчете и7 в правой части (1.18) для неизвестных с номерами 1'~1 подставлять не значения и," ~, а значения и~';~, уже найденные на данном шаге. Такой итерационный метод называется мепюдо.н Гауюа — Зсйделя и записывается в виде и)о = ~ч~~~ сын)м+ ~я~ спи<.' — О+по 1=1, ..., Ф. (1.2О) т=~ с=к+1 13 например, симметричные матрицы, у которых аы — — ац, и ленточные матрицы, у которых отличны от нуля только коэффициенты, лежащие внутри члеиты», расположенной вдоль диагонали (рис. 1.2).
Для танях случаев можно повысить эффективность метода Гаусса, если учесть особенности матрицы. Так, например, в ленточных матрицах не надо проводить операции над нулевыми элементами. Существуют стандартные программы, в которых отмеченные особенности матриц учтены. Они будут рассмотрены в 2 1.3. Итерационные методы. Для изложения итерационных методов перепишем систему (! .8) в следующем виде, выразив из каждого 1-го уравнения неизвестное и; через остальные неизвестные: и~ = ~~~~ сы ит+с(ь сц=- 2=1. са/ Существует еше одна модификация итерационного метода, позволяюшая ускорить сходимость. В методе Гаусса — Зейделя изменение неизвестного и» при переходе от (з — 1)-й итерации к з-й равно » †! и Ли»<'! = и<'! — и<' — '! = ~~ с; и<'»+ ~я~ с»/и<' '»+ »/ / /=! /=»+! + й» и<« — »! Скорость изменения значений и<,'! в итерационном процессе можно увеличить или уменьшить, если итерационную схему записать в виде (1.21) !» — ! и<о =и<' — »»-!- а/хи<«! =и<' — '»-1-а ~ с', с»/и<и+ »» лл /=! + ~ с!/!»<.* '»+ й» вЂ” и," '», (1 22) /=»+ ! где множитель а, как показывает дополнительный анализ, следует брать из интервала (О, 21.
При а( 1 значение и<»'! изменяется медленнее, чем в методе Гаусса — Зейделя, а при а-»! — быстрее. На первый взгляд кажется, что для повышения скорости сходимостн целесообразно использовать только а ) 1. Однако часто позе. дение и<<»! при увеличении номера итерации з носит колебательный характер, при котором и'»! переходит от значений, меньших иь к значениям, большим точного решения. При этом чрезмерное увеличение а может лишь увеличить такие колебания.
Поэтому в ряде случаев для ускорения сходимости решения имеет смысл «тормозиты изменение значений и<»!, задавая а( 1. В большинстве реальных задач оптимальное значение множителя а подбирают путем численных экспериментов. Метод, задаваемый формулой (1.22), называется методом последовательной верхней релаксации при а) 1 или методом последовательной нижней релаксации при а( 1. При а = 1 получаем как частный случай мегод Гаусса — Зейделя. К достоинствам рассмотренных итерационных методов следует отнести простоту их программной реализации и отсутствие принципиальной необходимости хранения в памяти ЭВМ всех коэффициентов матрицы.
Действительно, при вычислении очередного приближения и<»п согласно (1.22) нужны только отличные от нуля коэффициенты !-й строки а»/, Ь», которые в принципе могут каждь<й раз вычисляться заново по исходным данным решаемой задачи. Это обстоятельство обусловливает широкое применение итерационных методов для систем с сильно разреженными матрицами большой размерности, в которых большинство элементов нулевые.
Причем это делается как для матриц неленточной структуры, у которых ненулевые коэффициенты «разбросаны» по всему полю, так и для некоторых ленточных матриц с большим числом нулевых коэффициентов внутри ленты, которую поэтому невыгодно хранить целиком. Основным недостатком итерационных методов является трудность получения оценок их скорости сходимости. Довольно часто получается слишком медленная сходимость и выгоднее решать систему прямыми методами. Для определения оценок скорости сходимости и оптимального значения параметра релаксации а из (1.22) приходится предпринимать специальные исследования, в частности вычислять минимальное и максимальное собственные числа матрицы.
Обычно это имеет смысл делать только в случае, когда линейную систему с данной матрицей предполагается решать многократно. Решение систем нелинейных алгебраических уравнений. Ограничимся изложением только двух методов решения, рассматривая их применительно к нелинейным системам частного, но наиболее часто встречающегося в разных теплофизических задачах «квазилинейного» вида. Такие системы записываются аналогично (1.8), но имеют коэффициенты ась зависящие от искомых величин (и,),н<: а<2 —— = а<1(и„..., ин). Они возникают, например, при решении стационарных уравнений теплового баланса (1.2), в которых тепловые проводимости а<<зависят от температур То Тр Для решения этих нелинейных систем обычно применяют итерационные методы, в которых на каждой итерации решается линеаризованная система, т, е.
некоторая линейная система, полученная из исходной нелинейной задачи. Наиболее часто применяют два подхода к линеаризации. Первый из них состоит в том, что на каждом з-м шаге итерационного процесса коэффициенты линеаризованной системы а<'1 вычис- 11 ляют по значениям неизвестных, найденным на предыдущей (2— — 1)-й итерации: а<«1 = а<1 (и<' —,'1, ..., и<' — „'1), а затем путем решения полученной линейной системы с известными а<«1 находят новое при- 11 ближение (и«'1)<н<.