Методические указания (1161391), страница 21
Текст из файла (страница 21)
Удобным является представление системы нормальных уравнений в матричной форме
(12)
При невырожденной матрице решением системы нормальных уравнений (12) является вектор оценок неизвестных параметров
Матрица в (13) размера
(14)
называется дисперсионной матрицей.
Оценки , рассчитанные согласно (13), отличаются от истинных значений параметров, причем погрешность тем больше, чем больше дисперсия наблюдений
. Показателями точности оценок
являются дисперсии
. Эти дисперсии зависят не только от дисперсии наблюдений
, но и от выбранной структуры регрессионной модели и точек постановки опытов, т.е. от матрицы
(см. Выражение 5).
В определении этой зависимости необходимо прежде всего найти выражение для ковариационной матрицы (15) В силу сделанных допущений
(16)
где -вектор значений теоретической функции регрессии .
Используя выражение (16), получаем
Так как матрица симметрична, то
и для ковариационной матрицы получаем
(17)
В частности, для дисперсии оценка
имеет вид
(18)
а для коэффициента корреляции между оценками
и
(19)
Мерой отклонения оценки регрессионной функции от истинной зависимости может служить дисперсия предсказанных по уравнению регрессии значений
Таким образом,
(20)
В полученные формулы (17), (18) и (20) входит дисперсия результатов наблюдений . Если она не известна, то вместо
используется её оценка
.
Изложенные результаты были получены в предположении, что модель вида (2) является адекватной. Считалось, что выполнены основные предпосылки регрессионного анализа:
а) выходная (зависимая) переменная - случайная величина с нормальным законом распределения. Входные параметры (факторы) - неслучайные величины. Практически это означает, что погрешности в управлении входными переменными по крайней мере на порядок меньше погрешностей измерения входной переменной;
б) корреляция между входными переменными отсутствует и результаты наблюдений в различных точках независимы друг от друга;
в) дисперсия входной переменной не зависит от её абсолютного значения или дисперсии выходной переменной однородны в любой точке факторного пространства;
г) исследуемый объект лишён динамических свойств, т.е. на результаты измерения выходной переменной динамические свойства объекта влияния не оказывают.
Процедура статистического анализа уравнения регрессии включает следующие этапы :
а) оценивание дисперсии воспроизводимости (оценивание погрешности опыта);
б) проверка значимости параметров уравнения регрессии;
в) проверка адекватности регрессионной модели;
Классический регрессионный анализ базируется на обработке результатов так называемых пассивных экспериментов. Предполагается, что исследователь ведёт наблюдение за некоторым неуправляемым процессом. Классический регрессионный анализ имеет хорошо разработанную теорию, однако он не нашел широкого применения в силу того, что при решении подобного типа задач приходится иметь дело с очень большим числом независимых переменных, и в этом случае метод становится крайне громоздким.
Существенно новые возможности открылись после того, как в регрессионный анализ были принесены идеи планирования эксперимента. Основная идея метода планирования эксперимента - возможность целенаправленного оптимального управления экспериментом при неполном знании механизма изучаемых явлений.
На математическом языке задача планирования эксперимента формулируется так: на каждом этапе исследования нужно выбирать оптимальное, в некотором смысле, расположение точек в факторном пространстве, для того, чтобы получить некоторое представление о поверхности отклика. Выбор критерия оптимальности в значительной степени произволен. Здесь приходится учитывать как постановку задачи экспериментатором, так и ту реальную ситуацию, в которой приходится решать данную задачу.
3.8. Поисковые методы оптимизации при активном эксперименте
3.8.1. Сущность поисковых методов оптимизации.
Решение большого числа разнообразных задач исследований в той или иной мере связано с оптимизацией , то есть с нахождением наилучших в определенном смысле значений различных параметров. Задача оптимизации сводится к отысканию таких значений переменных , при которых целевая функция (параметр оптимизации)
достигает экстремума. В тех случаях , когда зависимость
задана в аналитической форме , координаты (
) точки экстремума
функции
можно найти , решив систему уравнений вида:
; i=1,..,К (1)
Решением системы (1) является так называемая стационарная точка , в которой градиент функции
обращается в нуль
, где
. Однако во многих практических случаях аналитическая зависимость
неизвестна , и единственное , чем располагает исследователь ,- это возможность наблюдать значение отклика при различных комбинациях варьируемых факторов
. Причем, поскольку такое наблюдение обычно связано с проведением эксперимента и процедурой измерения , то фактически наблюдается сумма истинного значения выходного параметра
и случайной погрешности
, т.е.
.
Для решения задачи оптимизации используются два принципиально различных подхода :
-
Каким-либо способом определяется полная математическая модель и далее задача решается аналитическим или численным методом.
-
Осуществляется экспериментальный поиск стационарной точки
в факторном пространстве переменных
непосредственно на реальном объекте без использования полной математической модели.
При втором подходе предполагается существование объекта и возможность проводить на объекте эксперимент.
Методы активного эксперимента одним из эмпирических путей решения задач оптимизации при неизвестной или не полностью известной целевой функции. Для получения максимальной информации о положении оптимума с помощью небольшого числа опытов применяются специальные методы в стратегии планирования эксперимента .
Математическое описание реальных объектов оптимизации обычно представляются в виде полиномов. Чтобы избежать необходимости использования полиномов высокого порядка , для описания поверхности отклика используют шаговый метод изучения этой поверхности .
Вначале ставят небольшую серию опытов для локального описания малого участка поверхности отклика полиномом первой степени. Далее движутся в самом «крутом» направлении - в направлении градиента линейного приближения. Если одного линейного приближения окажется недостаточно, то ставят новую небольшую серию опытов и находят новое направление движения. Шаговый процесс продвижения продолжается до тех пор, пока исследователь не попадет в стационарную область, где линейное приближение оказывается уже невозможным. В стационарной области ставится большая серия опытов и поверхность отклика описывается полиномом второго, а иногда (хотя и редко) третьего порядка.
Рис.1.Факторное пространство (а) и поверхность отклика (б)
Рассмотрим более подробно поисковые методы оптимизации.
Методами поиска называют методы нахождения оптимального значения функции , относительно которой не располагают полными данными.
При поиске , в отличие от аналитического исследования , осуществляется локальное изучение поверхности отклика по результатам ряда экспериментов, специально спланированных вблизи текущей точки , экстремальное значение отклика достигается с помощью многократной последовательной процедуры изучения поверхности и продвижения в факторном пространстве.
Поисковые методы отличаются большим разнообразием как по способам определения направления движения ,так и организацией самого движения. Вместе с различными модификациями их насчитывают несколько десятков. Основные методы поиска приведены на рис.2.
Рис.2. Поисковые методы оптимизации.
3.8.2. Метод Гаусса-Зейделя
При оптимизации методом Гаусса-Зейделя экстремум ищут поочередным варьированием каждой входной переменной (фактора) до достижения частного экстремума выходной переменной. В начале достигается экстремум по направлению одной из координатных осей при фиксированных значениях фактора по другим координатным осям. Затем, зафиксировав найденное значение , переходят к варьированию другого фактора , где опять достигается частное значение экстремума и т.д.
Одним из методов оптимизации при активном эксперименте является метод Гаусса-Зейделя. Преимущество метода - его простота. Недостаток - длительность продвижения в область оптимума.
3.8.3. Метод градиента
При оптимизации методом градиента экстремум ищут в направлении наиболее быстрого возрастания (убывания) выходной переменной, т.е. в направлении градиента целевой функции . Направление движения корректируется после каждого рабочего шага, т.е. каждый раз заново вычисляется значение вектора
по результатам специально спланированных экспериментов.
Поскольку координатами вектора градиента служат коэффициенты при линейных членах разложения функции в ряд Тейлора по степеням
, то соответствующие компоненты вектора градиента могут быть как коэффициенты
линейной аппроксимации поверхности отклика вблизи исходной точки
: