1611688890-f641c9ec8276824e4686da772eb56520 (826652), страница 46
Текст из файла (страница 46)
. . , n, и тогдаcond2 (A) =max i |λi (A)|min i |λi (A)|(3.45)— спектральное число обусловленности равно отношению наибольшегои наименьшего модулей собственных значений матрицы. Для симметричных положительно определённых матриц эта формула принимаетсовсем простой видλmax (A).cond2 (A) =λmin (A)3.5бПримеры хорошообусловленныхи плохообусловленных матрицУсловимся называть матрицу хорошо обусловленной, если её числообусловленности невелико.
Напротив, если число обусловленности матрицы велико, станем говорить, что матрица плохо обусловлена. Есте-3.5. Обусловленность систем линейных уравнений277ственно, что эти определения имеют неформальный характер, так какзависят от нестрогих понятий «невелико» и «велико». Тем не менее,они весьма полезны в практическом отношени, в частности, потому,что позволяют сделать наш язык более выразительным.Отметим, что для любой подчинённой матричной нормыcond(A) = kA−1 k kAk ≥ kA−1 Ak = kIk = 1в силу (3.26), и поэтому соответствующее число обусловленности матрицы всегда не меньше единицы.
Для произвольных матричных нормполученное неравенство тем более верно в силу того, что подчинённые нормы принимают наименьшие значения среди всех согласованныхматричных норм.Примером матриц, обладающих наилучшей возможной обусловленностью относительно спектральной нормы, являются ортогональныематрицы (унитарные в комплексном случае).
Действительно, если Qортогональна, то kQxk2 = kxk2 для любого вектора x. Следовательно, kQk2 = 1. Кроме того, Q−1 = Q⊤ и тоже ортогональна, а потомуkQ−1 k2 = 1. Как следствие, cond2 (Q) = 1.Самым популярным содержательным примером плохообусловленных матриц являются, пожалуй, матрицы Гильберта Hn = (hij ), которые встретились нам в §2.10г при обсуждении среднеквадратичного приближения алгебраическими полиномами на интервале [0, 1]. Этосимметричные матрицы, образованные элементамиhij =1,i+j−1i, j = 1, 2, .
. . , n,так что, к примеру,H3 = 11213121314131415.Число обусловленности матриц Гильберта исключительно быстрорастёт в зависимости от их размера n. Воспользовавшись какими-либостандартными процедурами для вычисления числа обусловленностиматриц (встроенными, к примеру, в системы компьютерной математики Scilab, Matlab, Octave, Maple и им подобные), нетрудно найти2783.
Численные методы линейной алгебрыследующие числовые данные:cond2 (H2 ) = 19.3,cond2 (H3 ) = 524,···cond2 (H10 ) = 1.6 · 1013 ,··· .Существует общая формула (см. [100, 101]):√√(1 + 2)4n√≈ O(34n / n),cond2 (Hn ) = Onгде O — «о большое», известный из математического анализа символЭ. Ландау (см. стр. 99). Интересно, что матрицы, обратные к матрицамГильберта могут быть вычислены явно с помощью аналитических выкладок [90]. Они имеют целочисленные элементы, которые также оченьбыстро растут с размерностью.На этом фоне для матрицы Вандермонда (2.7) оценка снизу длячисла обусловленности (см.
[54])√√ (1 + 2)n−1√(3.46)cond2 V (x0 , x1 , . . . , xn ) ≥ 2n+1представляется существенно более скромной (она не зависит от x0 , x1 ,. . . , xn ).11 Но оценка (3.46) всё-таки экспоненциально растёт с размерностью, так что матрицы Вандермонда тоже можно называть «плохобусловленными».3.5вПрактическое применениечисла обусловленности матрицОценки (3.42) и (3.44) на возмущения решений систем линейных алгебраических уравнений являются неулучшаемыми на всём множествематриц, векторов правых частей и их возмущений.
Более точно, дляданной матрицы эти оценки достигаются на каких-то векторах правой11 Аналогичные по смыслу, но более слабые экспоненциальные оценки снизу длячисла обусловленности матрицы Вандермонда выводятся также в книге [41].3.5. Обусловленность систем линейных уравнений279части и возмущениях матрицы и правой части. Но «плохая обусловленность» матрицы не всегда означает высокую чувствительность решения конкретной системы по отношению к тем или иным конкретнымвозмущениям. Если, к примеру, правая часть имеет нулевые компоненты в направлении сингулярных векторов, отвечающих наименьшимсингулярным числам матрицы системы, то решение СЛАУ зависит отвозмущений этой правой части гораздо слабее, чем показывает оценка(3.44) для спектральной нормы (см.
рассуждения в §3.4б). И определение того, какова конкретно правая часть по отношению к матрицеСЛАУ — плохая или не очень — не менее трудно, чем само решениеданной системы линейных уравнений.Из сказанного должна вытекать известная осторожность и осмотрительность по отношению к выводам, которые делаются о практическойразрешимости и достоверности решений какой-либо системы линейныхуравнений лишь на основании того, велико или мало число обусловленности их матрицы.
Тривиальный пример: решение СЛАУ с диагональными матрицами почти никаких проблем не вызывает, но числообусловленности диагональной матрицы может быть при этом скольугодно большим!Наконец, оценка погрешности решений через число обусловленности выводилась при условии малости ошибок в элементах СЛАУ. Поэтой причине число обусловленности малопригодно для оценки разброса решения СЛАУ при значительных и больших изменениях элементовматрицы и правой части (начиная с нескольких процентов от исходного значения). Получаемые при этом с помощью оценок (3.42) и (3.44)результаты типично завышены во много раз (иногда на порядки), идля решения упомянутой задачи более предпочтительны методы интервального анализа (см., к примеру, [86, 95]).Пример 3.5.1 Рассмотрим 2 × 2-систему линейных уравнений!!03 −1,x=103в которой элементы матрицы и правой части заданы неточно, с абсолютной погрешностью 1, так что в действительности можно было бызаписать эту систему в неформальном виде как!!0±13 ± 1 −1 ± 1.x=1±10±13±12803.
Численные методы линейной алгебрыФактически, мы имеем совокупность эквивалентных по точности систем линейных уравнений!!a11 a12b1x=,a21 a22b2у которых элементы матрицы и правой части могут принимать значения из интерваловa11 ∈ [2, 4],a12 ∈ [−2, 0],b1 ∈ [−1, 1],a12 ∈ [−1, 1],a22 ∈ [2, 4],b2 ∈ [0, 2].При этом обычно говорят [86, 95], что задана интервальная системалинейных алгебраических уравнений!![−1, 1][2, 4] [−2, 0].(3.47)x=[0, 2][−1, 1] [2, 4]Её множеством решений называют множество, образованное всевозможными решениями систем линейных алгебраических уравнений тогоже вида, у которых коэффициенты матрицы и компонетны правой части принадлежат заданным интервалам.
Множество решений рассматриваемой нами системы (3.47) изображено на Рис. 3.11.12 Мы болееподробно рассматриваем интервальные линейные системы уравненийв §4.6.Подсчитаем оценки возмущений, которые получаются для решениясистемы (3.47) на основе числа обусловленности. Можно рассматривать (3.47), как систему, получающуюся путём возмущения «среднейсистемы»!!03 −1,x=103в которой возмущением матрицы является!!∆a11 ∆a121 1∆A =,=∆a21 ∆a221 112 Этотk∆Ak∞ ≤ 2,рисунок получен с помощью свободного пакета программ IntLinIncR2 [85].3.5.
Обусловленность систем линейных уравнений2812.52x21.510.50−0.5−1−0.500.51x11.522.53Рис. 3.11. Множество решений интервальной линейной системы (3.47).а возмущение правой части —∆b =∆b1∆b2!=11!,k∆bk∞ ≤ 1.Чебышёвская векторная норма (∞-норма) используется здесь для оценки ∆b потому, что она наиболее адекватно (без искажения формы)описывает возмущение правой части b. Соответствующая ∞-норма дляматрицы ∆A, подчинённая векторной ∞-норме, также наиболее уместна в этой ситуации, поскольку она обеспечивает наиболее аккуратноесогласование вычисляемых оценок (хотя и искажая немного формумножества возмущений).Обусловленность средней матрицы относительно ∞-нормы равна1.778, ∞-норма средней матрицы равна 4, а ∞-норма средней правойчасти — это 1. Следовательно, по формуле (3.44) получаемk∆xk/ 24.kxk⊤Поскольку решение средней системы есть x̃ = 13 , 19 , и оно имеет ∞норму 13 , то оценкой разброса решений расматриваемой системы урав-2823.
Численные методы линейной алгебрынений является x̃ ± ∆x, где k∆xk∞ ≤ 8, т. е. двумерный брус13![−7.667, 8.333].[−7.889, 8.111]По размерам он в более чем в 4 (четыре) раза превосходит оптимальные(точные) покоординатные оценки множества решений, которые удобноописать интервальным вектором![−1, 3].[−0.5, 2.5]При использовании других норм результаты, даваемые формулой(3.44), совершенно аналогичны своей грубостью оценивания возмущений решений.Отметим в заключение этой темы, что задача оценивания разброса решений СЛАУ при вариациях входных данных является в общемслучае NP-трудной [92, 93]. Иными словами, если мы не накладываем ограничений на величину возмущений в данных, она требует длясвоего решения экспоненциально больших трудозатрат.3.6Прямые методы решения системлинейных алгебраических уравненийРешение систем линейных алгебраических уравнений видаa11 x1 + a12 x2 + .
. . + a1n xn = b1 , a21 x1 + a22 x2 + . . . + a2n xn = b2 ,...............an1 x1 + an2 x2 + . . . + amn xn = bm ,(3.48)с коэффициентами aij и свободными членами bi , или, в краткой форме,Ax = b(3.49)13 Читатель может проверить числовые данные этого примера в любой системекомпьютерной математики: Scilab, Matlab, Octave, Maple и т. п.3.6. Прямые методы решения линейных систем283с m × n-матрицей A = ( aij ) и m-вектором правой части b = ( bi ), является важной математической задачей. Она часто встречается как самапо себе, так и в качестве составного элемента в технологической цепочке решения более сложных задач.