6Simulation systems Лекция 23 Выч.Эксп. (1014331), страница 3
Текст из файла (страница 3)
Это алгоритм, с помощью которого находят значение аргумента х, соответствующее заданному значению функции у, которое лежит между двумя его значениями, приведенными в таблице. Чтобы применить изложенные выше методы, нужно видоизменить таблицу, поменяв в ней местами х на у. Единственный недостаток этого приема в том, что теперь значения аргумента не будут расположены через равные интервалы, что исключает использование методов, для которых шаг аргумента должен быть обязательно постоянным.
11.3.2. Аппроксимация
(Аппроксимация –термин происходит от латинского approximo- «приближаюсь», буквальное значение – «приближение»).
Существует два основных подхода к аппроксимации табличных данных кривыми.
При одном из них требуют, чтобы аппроксимирующая кривая (возможно, кусочно-гладкая) проходила через все точки, заданные таблицей. Это удается сделать с помощью методов интерполяции, рассмотренных выше.
При другом подходе данные аппроксимируют простой функцией, применимой во всем диапазоне табличных данных, но не обязательно проходящей через все точки. Такой подход называется подгонкой кривой, которую стремятся провести так, чтобы её отклонения от табличных данных были минимальными.
Обычно стремятся свести к минимуму сумму квадратов разностей между значениями функции, определяемыми выбранной кривой и таблицей. Такой метод подгонки называется методом наименьших квадратов.
Метод наименьших квадратов
Пусть в таблице задана точка
и требуется найти аппроксимирующую кривую
в диапазоне
. В этом случае погрешность в каждой табличной точке будет равна
.
Тогда сумма погрешностей определяется выражением .
Обычно функцию выбирают в виде линейной комбинации подходящих функций
.
Условие минимума определяется уравнениями:
Поскольку , то это условие эквивалентно системе уравнений:
……………………………………………………………………….
Эти k уравнений, очевидно, можно представить в виде:
Так как элементы матрицы в левой части и вектора – столбца правой определяются табличными данными, то выписанная система k линейных уравнений с k неизвестными может быть решена. Можно выбрать любую функцию g(x), лишь бы она линейной относительно своих коэффициентов. Фактический выбор функции должен осуществляться с учетом специфики табличных данных, под которой понимается их периодичность, экспоненциальный или логарифмический характер, свойства симметрии и наличие асимптотики.
Иногда таблицу разбивают на несколько частей и подбирают отдельную аппроксимирующую кривую для каждой части, однако это надо делать осмотрительно. Такой подход оправдан в тех случаях, когда есть основания полагать, что аппроксимируемые данные соответствуют разным физическим состояниям системы. Примерами могут служить переходы конструкции от устойчивого состояния к неустойчивому, переходы от дозвукового течения к сверхзвуковому или от ламинарного к турбулентному. Пользуясь приближенной формулой, не следует выходить за пределы интервала, в котором она справедлива.
Ортогональные полиномы
Если при построении аппроксимирующей функции используются ортогональные полиномы, для которых
при
, то матрица выписанной в предыдущем разделе системы уравнений будет диагональной, а выражения для коэффициентов
упростятся:
Это очень облегчает задачу, и именно поэтому во многих стандартных программах подгонки кривых используются с ортогональные полиномы.
Сплайны
Сплайны сравнительно недавно стали использовать в вычислительной математике. Однако в машиностроительном черчении они фактически применяются уже давно, так как сплайн не что иное, как гибкая линейка, которую деформируют так, чтобы по ней можно было провести кривую через заданные точки . Будучи деформирована таким образом, линейка приобретает форму, при которой запасенная в ней упругая энергия минимальна.
Используя теорию изгиба бруса при малых деформациях, можно строго показать, что сплайн — это группа сопряженных кубических многочленов, в местах сопряжения которых, первая и вторая производные непрерывны.
Такие функции называют кубическими сплайнами. Чтобы построить кубический сплайн, необходимо задать коэффициенты, которые единственным образом определяют кубический многочлен в промежутке между данными точками.
Например, в случае, представленном на рисунке, необходимо задать все кубические функции . В наиболее общем случае эти многочлены имеют вид:
, где
, а
– постоянные, определяемые указанными выше условиями.
Первые 2т условий требуют, чтобы сплайны соприкасались в заданных точках. Эти условия имеют вид: при
и
при
.
Следующие 2m—2 условий требуют, чтобы в местах соприкосновения сплайнов были равны первые и вторые производные.
Чтобы система алгебраических уравнений имела решение, необходимо, чтобы число уравнений точно равнялось числу неизвестных. На данном этапе мы имеем 4m от неизвестных и 4m-2 уравнений. Следовательно, мы должны найти еще два уравнения.
Обычно используют уравнения и
.
Полученный таким способом сплайн называют «естественным кубическим сплайном». Найдя коэффициенты сплайна, можно использовать эту кусочно-гладкую полиномиальную функцию для представления данных при интерполяции, подгонке кривой или поверхности.
На первый взгляд может показаться, что определение коэффициентов сводится к решению 4m уравнений с 4m неизвестными. Однако, специально выбрав вид кубических многочленов можно значительно упростить задачу.
Если отдельные кубические уравнения имеют вид:
Где , a
, то каждое из уравнений
содержит только два постоянных неизвестных коэффициента.
После того, как первое уравнение записано, с каждым следующим уравнением добавляется только один новый неизвестный коэффициент. При этом, при
.
Следовательно, при таком выборе кубических многочленов автоматически удовлетворяются все условия, кроме условий, налагаемых на вторые производные. Последние выражаются для внутренних точексоотношениями , а для двух внешних – соотношениями
и
.
Таким образом, решаемая система уравнений является линейной, а ее матрица – трехдиагональной:
В этой системе уравнений число определяемых коэффициентов равно числу заданных точек. Поэтому решение оказывается не более сложным, чем в случае аппроксимации m+1 точек многочленом m-й степени. Часто оказывается, что кубический сплайн, аппроксимирует функцию лучше, чем многочлен степени т. Следует отметить, что существуют и другие сплайны, получающиеся при других условиях на концах или использовании многочленов более высоких степеней.
11.4. Обработка результатов вычислительного эксперимента методами регрессионного анализа
11.4.1.Основные понятия.
-
Дисперсия
Дисперсия (от лат. dispersio — рассеяние), в математической статистике и теории вероятностей, наиболее употребительная мера рассеивания, т. е. отклонения от среднего.
В статистическом понимании дисперсия:
есть среднее арифметическое из квадратов отклонений величин от их среднего арифметического
.
В теории вероятностей дисперсией случайной величины Х называется математическое ожидание Е(Х — mх)2 квадрата отклонения Х от её математического ожидания mх= Е (Х). Т.е. Е(Х — Е (Х))2. Дисперсия случайной величины Х обозначается через D (Х) или через , т.е.
.
Квадратный корень из дисперсии (т. е. , если
) называется средним квадратичным отклонением.
Для случайной величины Х с непрерывным распределением вероятностей, характеризуемым плотностью вероятности р(х), дисперсия вычисляется по формуле:
В теории вероятностей большое значение имеет теорема: дисперсия суммы независимых слагаемых равна сумме их дисперсий. Не менее существенно неравенство Чебышева, позволяющее оценивать вероятность больших отклонений случайной величины Х от её математического ожидания.
-
Регрессия
Регрессия в теории вероятностей и математической статистике – это зависимость среднего значения какой-либо величины от некоторой другой величины или от нескольких величин.
В отличие от чисто функциональной зависимости у = f(х), когда каждому значению независимой переменной х соответствует одно определённое значение величины у, при регрессионной связи одному и тому же значению х могут соответствовать в зависимости от случая различные значения величины у. Если при каждом значении х = xi наблюдается ni значений величины у, то зависимость средних арифметических от xi , а именно
и является регрессией в статистическом понимании этого термина. Примером такого рода зависимости служит, например, зависимость средних диаметров сосен от их высот.
Изучение регрессии в теории вероятностей основано на том, что случайные величины Х и Y, имеющие совместное распределение вероятностей, связаны вероятностной зависимостью: при каждом фиксированном значении Х = х величина Y является случайной величиной с определённым (зависящим от значения х) условным распределением вероятностей.
Регрессия величины Y по величине Х определяется условным математическим ожиданием Y, вычисленным при условии, что Х = х: Е(Y (х)) = u(х).
Уравнение у = u(х), в котором х играет роль «независимой» переменной, называется уравнением регрессии, а соответствующий график — линией регрессии величины Y по X. Точность, с которой уравнение регрессия Y по Х отражает изменение Y в среднем при изменении х, измеряется условной дисперсией величины Y, вычисленной для каждого значения Х = х: