В.А. Столярчук. Анализ результатов расчетов в САЕ-системах (учебное пособие) (1013886), страница 7
Текст из файла (страница 7)
не могут, вообще говоря, все обратиться в нуль, и в этом случае
также не может обратиться в нуль. Н. к. м. предписывает в качестве оценок выбрать такие значения Xj, которые минимизируют сумму S. В тех исключительных случаях, когда условные уравнения совместны и, значит, обладают решением, это решение совпадает с оценками, полученными согласно Н. к. м.
Сумма квадратов S представляет собой квадратичный многочлен относительно переменных Xj; этот многочлен достигает минимума при таких значениях X1, X2,..., Хm, при которых обращаются в нуль все первые частные производные:
Отсюда следует, что оценки Xj, полученные согласно Н. к. м., должны удовлетворять системе так называемых нормальных уравнений, которая в обозначениях, предложенных Гауссом, имеет вид:
где
Оценки Xj, получающиеся в результате решения системы нормальных уравнений, лишены систематических ошибок (Exj = xj); дисперсии Dxj; величин Xj равны kdjj/d, где d — определитель системы (5), а djj — минор, соответствующий диагональному элементу [раjaj] (иными словами, djj/d — вес оценки Xj). Если множитель пропорциональности k (k называется дисперсией на единицу веса) заранее неизвестен, то для его оценки, а также для оценки дисперсии Dxj служат формулы:
k » S/(n - m) и Dxj » s2j = Sdjj/d (n - m)
(S — минимальное значение исходной суммы квадратов). При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то абсолютная погрешность приближённого равенства xi » Xj меньше tsj с вероятностью, близкой к значению интеграла (1). Если случайные ошибки наблюдений di подчиняются нормальному распределению, то все отношения (Xj - xj)/sj распределены по закону Стьюдента с n - m степенями свободы [точная оценка абсолютной погрешности приближённого равенства производится здесь с помощью интеграла (2) так же, как в случае одного неизвестного]. Кроме того, минимальное значение суммы S в вероятностном смысле не зависит от X1, X2,..., Xm и поэтому приближённые значения дисперсий оценок Dxj » s2j не зависят от самих оценок Xj.
Один из наиболее типичных случаев применения Н. к. м. — «выравнивание» таких результатов наблюдений Yi, для которых в уравнениях (3) aij = aj (ti), где aj (t) — известные функции некоторого параметра t (если t — время, то t1, t2,... — те моменты времени, в которые производились наблюдения). Особенно часто встречается в приложениях случай так называемой параболической интерполяции, когда aj (t) — многочлены [например, a1(t) = 1, a2(t) = t, a3(t) = t2,... и т.д.]; если t2 — t1 = t3 — t2 =... = tn — tn-1, a наблюдения равноточные, то для вычисления оценок Xj можно воспользоваться таблицами ортогональных многочленов, имеющимися во многих руководствах по современной вычислительной математике. Другой важный для приложения случай — так называемая гармоническая интерполяция, когда в качестве aj (t) выбирают тригонометрические функции [например, aj (t) = cos (j - 1) t, j = 1, 2,..., m].
Пример. Для оценки точности одного из методов химического анализа этим методом определялась концентрация CaO в десяти эталонных пробах заранее известного состава. Результаты равноточных наблюдений указаны в таблице (i — номер эксперимента, ti — истинная концентрация CaO, Ti — концентрация CaO. определённая в результате химического анализа, Yi = Ti - ti — ошибка химического анализа):
i | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
ti | 4 | 8 | 12,5 | 16 | 20 | 25 | 31 | 36 | 40 | 40 |
Yi | - 0,3 | - 0,2 | - 0,4 | - 0,4 | - 0,2 | - 0,5 | + 0,1 | - 0,5 | -0,6 | -0,5 |
Если результаты химического анализа не имеют систематических ошибок, то Eyi = 0. Если же такие ошибки имеются, то в первом приближении их можно представить в виде: Eyi = a + bti (a называется постоянной ошибкой, а bti — методической ошибкой) или, что то же самое,
где
Для отыскания оценок a и b достаточно оценить коэффициенты
Условные уравнения в данном случае имеют вид:
поэтому ai1 = 1, ai2 = ti - t (согласно предположению о равноточности наблюдений, все pi = 1). Так как
то система нормальных уравнений записывается особенно просто:
[a1a1] X1 = [Ya1]; [a2a2] X2 = [Ya2],
где
Дисперсии компонент решения этой системы суть
где k — неизвестная дисперсия на единицу веса (в данном случае k — дисперсия любой из величин Yi). Так как в этом примере компоненты решения принимают значения X1 = -0,35 и X2 = -0,00524, то
Dx1 » s12 = 0,00427,
Dx2 » s22 = 0,0000272,
s1 = 0,065, s2 = 0,00522.
Если случайные ошибки наблюдений подчиняются нормальному распределению, то отношения |Xj – xjl/sj (j = 1, 2) распределены по закону Стьюдента. В частности, если результаты наблюдений лишены систематических ошибок, то x1 = x2 = 0 и, значит, закону Стьюдента должны подчиняться отношения |X1|/s1 и |X2|/s2. С помощью таблиц распределения Стьюдента с n – m = 8 степенями свободы можно убедиться, что если действительно x1 = x2 = 0, то с вероятностью 0,999 каждое из этих отношений не должно превосходить 5,04 и с вероятностью 0,95 не должно превосходить 2,31. В данном случае |X1|/s1 = 5,38 > 5,04, поэтому гипотезу отсутствия систематических ошибок целесообразно отвергнуть; в то же время следует признать, что гипотеза об отсутствии методической ошибки (x2 = 0) не противоречит результатам наблюдений, так как |X2|/s2 = 1,004 < 2,31. Т. о., можно заключить, что для определения t по результату наблюдения Т целесообразно пользоваться приближённой формулой t = Т + 0,35.
Во многих практически важных случаях (и в частности, при оценке сложных нелинейных связей) количество неизвестных параметров бывает весьма большим и поэтому реализация Н. к. м. оказывается эффективной лишь при использовании современной вычислительной техники.
Применение регрессионного анализа для обработки результатов наблюдений или вычислений позволяет получить оценку влияния переменных, рассматриваемых в качестве аргументов (независимых переменных) на переменную, которая считается зависимой от первых.
Одной из составляющих 1-ой части курсовой работы 8-го семестра является освоение методов регрессионного анализа в процессе разработки математического описания исследуемого процесса или явления. Курсовая работа предусматривает обработку экспериментальных данных и поиск наиболее удовлетворительной гипотезы взаимосвязи между функцией и аргументами.
В качестве таких гипотез рассматриваются линейная и нелинейная регрессионные модели, каждая из которых может быть парной (только две переменных (функция и аргумент) или множественной (одна функция и несколько аргументов).
Относительно закона изменения независимых переменных x не делается никаких ограничений
5.2.2 Линейная парная регрессия
Пусть, например, независимой {Y}. положим переменную {X}. Тогда говорят, что переменная Y связана с {X} некоторой зависимостью, которую без ограничения общности можно представить: Y = F(Х), где F - некоторый неизвестный оператор, связывающий множество Х со множеством Y. Для простоты можно считать преобразование взаимно однозначным, т.е. X = F(Y), хотя на практике это выполняется далеко не всегда.
Теперь математически задача сводится к построению явного вида оператора F и затем его уточнению. Методов решения указанной задачи существует достаточно много. Рассмотрим методы линейного регрессионного анализа.
Одним из самых простых операторов F является линейный, определяющий линейную зависимость вида Y = АХ + В. Для начала положим В = 0 и определим связи между переменными Х и Y, вычислив параметр А.
метод выбранных точек
Проведем прямую как можно ближе к нанесенным точкам (рис. 1) и выберем на этой прямой произвольную точку М(Х, Y).
Рис. 1. Множество экспериментальных точек {X} и {Y}, нанесенных на плоскость.
М(X,Y) - выбранная точка для регрессии.
Тогда параметр А определится из отношения А=Y/X. Преимущество этого метода перед всеми состоит в его наглядности. Но заметим, что значения А могут колебаться довольно значительно, так как прямая строится произвольно и в выборе точек, через которые проводится прямая, нет однозначности.
метод средних
Этот метод дает лучшие результаты по сравнению с методом выбранных точек. Если предположим, что зависимость построена, тогда yi = aхi даст приближенные значения yi. Определим параметр a из условия минимума средней ошибки
.
Перепишем последнее выражение в виде
,
откуда получаем выражение для .
метод наименьших квадратов
Этот метод дает еще более точные результаты по сравнению с двумя рассмотренными выше. В этом методе параметр а определяется из условия минимальной суммы квадратов отклонений табличных значений уi от полученных уi* : . Условие минимума F, как известно, дает равенство нулю ее первой производной, т.е.
. Продифференцировав F по а, получим
, откуда находим
.
Каждый из приведенных выше методов является более точным (по порядку возрастания). Поэтому рекомендуется сначала воспользоваться методом выбранных точек, а затем - одним из двух оставшихся (для уточнения параметра а).