Беклемишев - Дополнительные главы линейной алгебры (947281), страница 29
Текст из файла (страница 29)
Поэ1ому пни(Лг — Х*! ()ЬА „"с(5). Матрица 5, конечно, определена с большим произволом. Рассмотрим число ч (А) = !п1 с (5) — нижнюю грань чисел обусловленности всевозможных матриц, приводящих А к диагональному виду. Очевидгю, что эта нижняя грань существует и т (А) ) 1. Теперь мы моггсем написать ш!п(Хг — Х" ~ ~ч(А))ЬА). (14) П р ед ложе и и е 6. Возмугценное собппленное значение Х* лежит хотя бы в однолс из кругов комплексной плоскости с центрами в точках Х„плюющих радиус тг (А)Ь, где Ь вЂ” спектр льная норма возмущения ма прицы. Как и для локализационных кругов 84, гл. 11), можно показать, что в круге, являющемся объединением т кругов (!4), лежит ровно т возмущенных собственных значений. При этом следует учитывать кратности невозмущеиных и возмущенных собственных значений.
Таким образом, обусловленность задачи нахождения собственных значений до некоторой степени можно описать числом тг (А). Столбцы матрицы 5 мы можем считать нормированными. При этом большое число обусловленности будет означать, что столбцы 5 близки к линейно зависимым. Итак, большое число тг (А) показывает, что у А нет хорошего «в достаточной мере линейно независимого» базиса из собственных векторов.
Однако ограничиться одним числом обусловленности для задачи о собственных значениях никак нельзя, поскольку положение здесь сложнее, чем с решением систем линейных уравнений. Именно, » а овусловленность разные собственные значения могут быть в разной мере чувствительны к возмущениям матрицы. Пусть х = ~! х„..., х„1! — базис из собственных векторов преобразования А. Будем считать, что векторы нормированы:!! х, = 1 (используем евклндову норму, предполагая пространство евклпдовым).
Нам известно из предложения 10 5 1 гл, 1, что базис, биортогональный базису х, состоит из собственных векторов преобразования А*, сопряженного А. Нормируем векторы этого биортогонального базиса и обозначим нормированные векторы у,,..., у„. Пусть $; и»1; — координатные столбцы векторов х; и у; для 1 = 1, ..., п в ортонормированном базисе е. Тогда А$, =- ЛДо А'тн = Л;Чь или, что то же самое, »1гА = Хчт)г и, кроме того, т О, (Ф(Л Чг 3'= з,~0, 1=10 Рассмотрим собственный вектор х* и собственное значение Л' преобразования с возмущенной матрицей. 1(оординатный столбец $* вектора х» удовлетворяет равенству (А+ЬА) й" =-Л"й*, Пусть Л вЂ” ближайшее к Л* собственное значение А (или одно из ближайших, если они равяоудалены от Л*).
Обозначим Л* — Л; через ЬЛь Для преобразования простой структуры пространство распадается в прямую сумму собственных подпространств. Это разложение определяет проекцию х' на собственное подпространство, соответствующее Ль Ооозначим проекцию через х„а х* — х, через Ьхь В случае необходимости, умножив х* на числовой множитель, мы можем считать, что 1х; ~! = 1, и включить х; в базис. Запишем (15) через возмущения: (А + ЬА) (Ц, + 6Ъ|) = (Л, + ЬЦ) Я, + 6»Д, где й, и 6~, — координатные столбцы х; и Ьхе Упростим это соотношение, пренебрегая произведениями возмущений.
Мы получаем ЬА~,+АЦ Л 6» +ЬЛДь Г16) Умножив обе части этого равенства на строку Чг. Тогда Ч~г ЬА, + Ч~ тА 6$, = Л»1;г Ь~, + ЬЛ»1, откуда ЬЛ = н ГЛ П1 ВВЕДЕННЕ З ЧНСЛЕННЫЕ МЕТОДЫ Таким образом, если ~з; ~ не слишком мал, ~бЛ1 ~ сравним с ~) бА 11, а при малом ) з1 ~ чувствительность собственного значения Л; к возмущениям матрицы оказывается значительной. Умножая почлеино равенство (1б) на Ч' при 1'чь1, мы находим гб 1„+ гб Л тбз Отсюда, если Л~ отлично от Лп г Ч,' б.4%1 11 Ц1= — ' Л1-Л, ' Произведения в левой части равенства только множителем зг отличаются от соответству1ощих компонент возмущения бх; по базису х„..., х„.
Действительно, пусть бх, = а1х, +... + а„х„. Тогда т з т Ч1 б",1=а,11, а, = а,з,. Обозначим через 71 множество номеров 1, прн которых Л ~ Ль Тогда для всех 1 ен,(1 имеем Ч~ блй1 (Л1-Л1) 11 ' Возмущениебх1мыопределили таким образом, что его компоненты по векторам хх равны иул1о при 1 Д 71. Поэтому „т бЛй (17) !а11 а норма его не превосходит (бА( ,'~~ ()Л1 — Л1()зг!)-'. !М |1 Это показывает, что собственный вектор, соответствующий Ли более чувствителен к возмущениям матрицы, если Л1 близко к другим собственным значениям.
В выражение (17) входят множители з,, соответствующие собственным значениям, оп1личныл1 от Ло Их малость может свидетельствовать о большой величине нормы бхь Но может оказаться, что вектор бх; мал по норме, а велики его отдельные компоненты по базису х„..., х„, потому что базисные векторы близки к линейно зависимым. Коэффициент зт равен косинусу угла, составленного векторами 11, и $р Для самосопряженных преобразований все я, достигают своего максимального значения 1.
Величины ~з1' ! называются коз4фициенпшчи перекоса преобразования А. Рассмотрим связь коэффициентов перекоса и числа т (А). Зная векторы хо мы можем построить матрицу Я, приводящую А к диа- 1ЗЗ Фа. овтсловланность тональному виду. Возьмем матрицу 5 со столбцами 3ЯГ~з; !. Тогда строки ее обратной матрицы будут з)~ /)/ ) )ат ~. Для этой матрицы 5 л ~из г л ~п2 л "(5) =( Х ~ -'~) ~Х ~ Г~) = Х ~ ') 1с=~ '=~ с Но т (А) ~ с (5) - сп (5). т (А)» ~х~ ( з,.
' ). Поэтому (18) Если все собственные значения различны, то направления собственных векторов определены с точностью до замены на противоположное и коэффициенты перекоса тем самым определены однозначно. Если же преобразование простой структуры имеет красные собственные значения, то коэффициенты перекоса зависят от выбранного базиса. Рассмотрим, например, самосопряженное преобразование в трехмерном пространстве, имеющее собственные значения 1, 2, 2. Для ортонормпрованпого базиса из собственных векторов коэффициенты перекоса все имеют свое минимальное значение !. Но если мы повернем один из векторов, принадлежащих Х =- 2, на угол и/3 в двумерном собственном подпространстве, то ему будет соответствовать коэффициент перекоса, равный 2.
Для того чтобы избавлять влияния такой неоднозначности, в случае кратных корней следует рассматривать нижние грани коэффициентов перекоса по всевозможным выборам базиса, Конечно, это существенно осложняет их применение. При выводе формулы (18) мы исходили из произвольного базиса из собственных векторов, и потому неравенство верно также для нижних граней коэффициентов перекоса.
Следующий результат справедлив только для преобразований, не имеющих кратных собственных значений, Именно, при любом ~ )з, ' ~ (т(А). (19) Действительно, если дана матрица 5 диагопализующая А, мы можем выбрать базисы х„..., х„и у,, ..., у„, положив где е, — столбец единичной матрицы. Отсюда 1з~ '1=15е~) ~е; 5 '$=-.35( 15 ''1с в(5). 1з4 гл, нь введения в числанныв методы Если коэффициенты перекоса определены однозначно и предыдущее равенство справедливо для любой матрицы 5, то из него следует доказываемое утверждение.
й 3. Прямые методы решения систем линейных уравнений В этом параграфе мы опишем основные прямые методы решения систем линейных уравнений. Эти методы теоретически приводят к точному решению системы, и потому называются также точными методами, в отличие от итерационных методов, в принципе дающих приближенное решение.
Итерационные методы мы рассмотрим в й 5. Пусть дана система линейных уравнений вида Ах=Ь, где А — невырожденная квадратная матрица порядка п. Под невыро>кденпой здесь и далее понимается матрица, которая не является почти вырожденной в смысле, указанном в й 2. Никакого специального строения матрицы А мы не предполагаем, так как прямые методы, как правило, применяются для решения систем, матрицы которых могут быть целиком записаны в оперативном запоминающем устройстве. Мы будем говорить в первую очередь о решении систем линейных уравнений, но те же преобразования матрицы могут быль применены и применяются для вычисления детерминантов и обратных матриц.
Об этом будут сделаны соответствующие замечания. Методы вычислений оцениваются по трем важнейшим качествам: а) числу выполняемых арифметических операций, определяющему время счета, б) требованию к объему оперативной памяти и в) максимальной точности, достижимой при их помощи. Хотя сравнение методов — сложное дело, результат сравнения зависит от разных обстоятельств и часто носит условный характер, можно уверенно выделить в качестве лучших две группы методов. Первая группа может быть объединена под общим названием метода Гаусса, вторая группа связана с умножением матрицы системы на ортогональные преобразующие матрицы, Эти две группы методов и будут ниже рассмотрены. 1.