Вычислительные методы алгебры и оценивания. И.В. Семушкин (2011) (1185350), страница 35
Текст из файла (страница 35)
В алгебре эти свойства обобщены на случай эрмитовых матриц, т. е. матриц A, в которых понятие симметричности в отношении комплекснозначных элементов расширено добавлением требованиякомплексной сопряженности aij = āji , что выражается записью A = A∗ , гдеA∗ — сопряженно транспонированная матрица к A.Напомним некоторые определения, а затем приведем четыре основныесвойства эрмитовых матриц.Определение 10.9. Число λ называется собственным значением(n×n)-матрицы A с соответствующим собственным вектором x, если Ax == λx, т.
е. λ есть любой из n корней уравненияdet(A − λI) = 0.Это — характеристическое уравнение для матрицы A.Определение 10.10. Ортогональной матрицей называется квадратная вещественная матрица Q, столбцы которой ортонормированы, то естьвыполнено условие QT Q = I.Упражнение 10.1. Матрица QT ортогональна тогда и только тогда,когда ортогональна матрица Q.Определение 10.11. Унитарной матрицей называется квадратнаяматрица U , столбцы которой ортонормированы с добавлением требованиякомплексной сопряженности элементов столбцов: U ∗ U = I.Упражнение 10.2. Матрица U ∗ унитарна тогда и только тогда, когдаунитарна матрица U .Теорема 10.17.
Если A = A∗, то для всех комплексных векторов xчисло x∗Ax вещественно.Доказательство. Вычислите (x∗Ax)∗ как эрмитову (1 × 1)-матрицу ипримите во внимание, что в любой эрмитовой матрице диагональные элементы должны быть вещественными.Теорема 10.18.вещественно.Каждое собственное значение эрмитовой матрицы23310 Теоретические основыДоказательство. Умножьте Ax = λx слева на x∗ и используйте предыдущую теорему 10.17.Теорема 10.19 ( [13]).Собственные векторы эрмитовой матрицы,отвечающие различным собственным значениям, взаимно ортогональны.Доказательство.
Пусть λ 6= µ и Ax = λx, Ay = µy. Возьмем (1 × n)матрицу x∗A∗ = λ̄x∗, сопряженно транспонированную к Ax = λx, заменимA∗ = A и учтем, что λ = λ̄ (по теореме 10.18), т. е. запишем x∗ A = λx∗.Умножая это равенство справа на y, а равенство Ay = µy слева на x∗, получимx∗ Ay = λx∗ y,x∗Ay = µx∗y.Следовательно, λx∗y = µx∗y, а так как λ 6= µ, то x∗y = 0, т. е. вектор xортогонален к y.2Этот результат является основным по своей важности. Разумеется,любые кратные собственным векторам x/α и y/β, равным образом остаются собственными векторами. При выборе α = kxk, β = kyk и т.
п.мы имеем возможность нормировать все собственные векторы к единичнойдлине и, таким образом, далее использовать ортонормированные собственные векторы {u1, u2, . . . , un} эрмитовой матрицы A. Запишем их в виде матрицы U = [ u1 | u2 | . . . | un ], которая, по определению, является унитарной:U ∗ U = I. Имеем Aui = λi ui, по определению собственных значений λi ,i = 1, 2, . . . , n. Эту систему уравнений перепишем в виде одного уравнения,если введем обозначение Λ = diag {λ1 , λ2 , . . .
, λn }:AU = U Λ,что равносильно соотношениямU ∗ AU = Λ,A = U ΛU ∗ .Тем самым приходим к следующей теореме о спектральном разложенииэрмитовой матрицы.Теорема 10.20. Если A = A∗, то существует диагонализирующаяматрица T , которая является также и унитарной, T ∗ T = I, такая чтоT ∗ AT = Λ,A = T ΛT ∗ ,(10.17)где Λ = diag {λ1 , λ2, . . . , λn} — диагональная матрица, составленная из собственных значений матрицы A.
Если эти значения простые (среди λi нет23410.9 Основные свойства симметрических / эрмитовых матрицкратных), то T = U , где U = [ u1 | u2 | . . . | un ] — матрица, составленнаяиз соответствующих собственных векторов матрицы A. В этом случае спектральное разложение матрицы A имеет видA = U ΛU ∗ = λ1 u1u∗1 + λ2 u2 u∗2 + . . . + λn un u∗n.При наличии кратных собственных значений любая эрмитова матрица Aпо-прежнему имеет полный набор ортонормированных собственных векторов и, следовательно, может быть диагонализирована с помощью некоторойунитарной матрицы T , т.
е. (10.17) справедливо в общем случае. Каждаяэрмитова матрица с k различными собственными значениями имеет свое«спектральное разложение»A = T ΛT ∗ = λ1 P1 + λ2 P2 + . . . + λk Pk ,где Pi есть проекция матрицы A на собственное подпространство, соответствующее значению λi .Доказательство. Полное доказательство можно найти в [13] или [23].Это очень важный результат, имеющий и «обратную» формулировку:только эрмитовы матрицы обладают одновременно и вещественными собственными значениями, и ортонормированными собственными векторами.Если T −1AT равняется некоторой вещественной диагональной матрице Λ иматрица T унитарна, T −1 = T ∗, то матрица A обязательно является эрмитовой: A∗ = (T ΛT ∗ )∗ = T ΛT ∗ = A.
Теорема 10.20 имеет множество применений при обработке экспериментальных данных, — не только в регрессионном анализе, но также в области так называемого многомерного анализа.Интересны примеры, когда по экспериментальной корреляционной матрицеR нужно провести анализ основных компонент и факторный анализ [13]. Дляспециалистов-прикладников эти примеры очень поучительны. Они показывают, как два специалиста, вводя различное число p факторов и диагональную компоненту D в разложении R = F F T + D, а также любую ортогональную (p × p)-матрицу Q в представлении F̃ = F Q, могут получать совершенно различные интерпретации F и F̃ (матрицы факторных коэффициентов) одних и тех же экспериментальных данных. Мы эти частные вопросыне рассматриваем и за деталями отсылаем к [13] и специальной литературепо факторному анализу.
Когда A = AT , (10.17) принимает следующий вид:T T AT = Λ,A = T ΛT T .23511Оценивание по методу наименьшихквадратов11.1Модели, регрессии и оценкиИзучение объектов, явлений или процессов реального мира заключаетсяв построении их моделей, т. е. тех или иных форм описания для выявления существенных закономерностей. Когда тип, т. е. форма модели выбрана,требуется определить ее наилучшее параметрическое наполнение.
При этомкритерием естественно считать соответствие между откликами объекта имодели, когда они погружены в одни и те же или одинаковые внешние условия. Иными словами, та модель будет наилучшей, чей отклик, по даннымпроведенного наблюдения, менее всего уклоняется от отклика реальногообъекта в разнообразных, но одинаковых для модели и объекта условиях.Таким образом, оптимальная модель строится на основе опытного анализа прошлых поведений объекта, но способна предсказывать и ближайшеебудущее поведение. Обращение к прошлому опыту для объяснения причинили закономерностей называют регрессией.Регрессионный анализ в статистике, регрессионное моделирование, идентификация моделей и оценивание состояния объекта в теории систем, адаптивная обработка сигналов — это примеры очень близких или тесно связанных задач, имеющих общую математическую основу, один и тот же математический метод решения [21, 26, 27, 32, 33, 34, 50, 53, 62, 64, 66, 69, 82, 88].Если модель — линейная по параметрам, а критерий ее качества есть квадрат расхождения (невязки) между откликами модели и объекта, этот метод иесть знаменитый линейный Метод Наименьших Квадратов (МНК) [47, 53],возникновение которого связывается с работами Гаусса и Лежандра в начале19 столетия, см.
подробнее стр. 199. При отказе от линейности модели по ее11.1 Модели, регрессии и оценкипараметрам получаем нелинейную задачу о наименьших квадратах [22, 35].В разделах 11 и 12 этой книги мы ограничиваемся обыкновенной линейной статической детерминистской задачей НК [15].
Она хорошо разработана,но имеет обобщения по разным направлениям (для них она является базовой). Основные обобщения:1. Динамическая задача: оцениваемый вектор не постоянен, а эволюционирует во времени, подчиняясь какому-либо уравнению состояния[61, 115].
Это обобщение присутствует в разд. 13, 14.2. Стохастическая задача: оцениваемый вектор постоянен, но случаен, и онизмеряется на фоне случайных помех [61, 115]. Это обобщение начинается в подразд. 11.9. Если задача, к тому же, динамическая, то допускаются случайные возмущения в уравнении состояния или/и в уравнениинаблюдений [61, 115]. Это обобщение присутствует в разд. 13, 14.3. Полная МНК-задача: имеются возмущения в матрице наблюдений, т. е.в матрице регрессоров. Это обобщение здесь отсутствует.