С.Л. Ахназарова, В.В. Кафаров - Методы оптимизации эксперимента в химической технологии (1062947), страница 26
Текст из файла (страница 26)
106) Действительно, перемножив матрицу Х и Х, имеем Х. Х" *. я 1=1 г =.1 л л ~яр ~х„хр; ~я~', к, ~~ карлы г 1 л ~р ~к,гхаг Хтх= (1Ч. 109) г'=1 г'=1 У=Ьк+Ьк,+Ьк,+ .+Ьака, я х, ~я~', Казхрг ~Р~ КЫХ,1 ... г=! ХТХ вЂ” матрица моментов. Умножив матрицу Х Х на матрицу- столбец В, получим матрицу-столбец: Хр, Х„... Кг„ х„к„... х„, (! Ч. 104) Ьр ~Ч~', х + Ь, ~~ Рк гх,1 + ° + Ь 1 ! г=г л л ьо ~к~ ~хзгхрг+ ь, ~~~~ х, + ° ° + ьй Х ХВ= . (1Ч.П0) г=! г'=1 (1Ч. 1Об) Ь!з ~~~э Кйгкрг + Ьз ~и~! ха!К!1 1 ' ' +Ьй 44 «1 1 1=! 1 1 г 1 Умножив матрицу Хгиа вектор наблюдений Р, получим вектором наблюдений Х У= (1Ч.
111) г'=1 х„х„... хгл Х (1Ч . 106) ка, каа ... ка„ ат,' КП1У1 140 147 праеерим адекаатнасть полученного уравнения по критерию Фишера: ест! Зееепр' Дисперсию воспроизводимости определим по данным трех параллельных опытов где Гр — среднее по нераздельным опытам, ЧИСЛО СГЕПЕНЕй СЯОбаДМ Зеесор РаВНО 2. ОСтатОЧНУЮ ДИСПЕРСИЮ ОПРЕДЕЛИМ ПО формуле (1».55).
Число степеней свободы гс „ Равно 101; г"-отношение Раано 9,4 табличное значение критерия Фишера для уровня значимости р — 0,05 и чисел степеней свободы Дг-101 и гг-2 н-р 1д, д)-19,5. Оледоаагельно, полученное урааиение регрессии адекватно эксперименту. 10. Регрессионный анализ в матричной форме. Регрессионный анализ в матричной форме удобен для решения задач на ЦВМ. Метолом наименьших квадратов нсобхолимо найти коэффициенты уравнения регрессии по данным табл.
26 г.ле хо — фиктивная переменная, равная 1, Представим исходный статистический материал в матричной форме. Будем называть матрицу «рл хьл ° . ° кап матрицей независимых переменных, а матрицу-столбец :1 Г'1 1Ь,1 Введем матрицу-столбец коэффициентов В =; и матрицу,транс- Ьл понироианную к Х: хр! «еа крл Ьр ~~', кйгхр1 + Ь! ~я~~ кягх,г 1=! г=г В матричной форме система след ющиы зом: Г»1 г=! л к, 1У1 ,У', ХМ«йг 1=1 л ~я~', хззхдр Из уравнения (!Ч 106) матрица-столбец коэффициентов В определяется следующим образом: в=(х'х) 'х' у, где (Хгх)-~ — матрица, обратная матрице [ХтХ); ([Ч. ! 12) еоо еог " сох е,о е„...
сои е„см ... еяь (Хт Х)-1— (1Ч. 1 13) Элементы обратной матрицы определяются соотношением С)п = Ап ([Ч. 1 ! 4) ае[(Хз Х) где г[ег (Х'Х) — определитель матрицы Х'Х, а А — алгебраическое » т о дополнение элемента г.х„;х„ в матрице Х Х. ио эо Для существования обратной матрицы (Хгх) должна быть не- вырожденной. В связи с этим при использовании рассматриваемого вычислительного метода необходимо, чтобы переменные хп хг,...,хь были линейно независимы, Тогда в матрице независимых переменных элементы одного столбца не будут линейной комбинацией соответствующих элементов друзих столбцов. Для опрелеления остаточной дисперсии опрелеляют матрицу- столбец т'г Л Уг Л Л Уо Г= ([Ч. ! !6) = ХВ. Л У» Числитель остаточной дисперсии получается умножением матриц: Л1т~ М~ рд Л 2 з=! (1Ч.
116) Обозначим через 6 вектор-столбец коэффициентов истинной регрессии, при этом математическое ожидание В равно М(В)-6. Тогла оь гсочьь ... сочв [, сочь,Ь, оь, " сечь,ь, 2 м [(в 6) (в 6т)] = ([Ч.! 17) сочв Ь соч[ Ь ... »2Ь гдеоьг — генеральная дисперсия коэффициента Ь,; соч„„— ковариация, или корреляционный момент, между коэффициентами Ь, и (ь, Таким образом, диагональные члены матрицы представляют собой дисперсии коэффициентов, необходимые для проверки гипотезы !48 значимости, а неднагональные — ковариации соответствующих коэффициентов регрессии, определяющие статистическую зависимость между коэффициентами.
Выразим матрицу М[( — 6)( — 6)т] через результаты наблюдений, имея в виду, что В= (Хтх)-~ХтК В результате получим м[(в — 6)(в — 6)т]= м((х'х) ' х' у'[(хтх) 'хт у']т), где [" — случайный нормальный вектор с независимыми компонентами, имеющими дисперсии ог: т' Уо пг (Уд уо — ао (уо) Уопп У вЂ” М(у) = Уп — вз(У ) Матрица коэффициентов нормальных уравнений симметрична и, следовательно, [(Х'Х) з]т=(ХтХ) ' Полагая ог =ог = ..=ог -ог висимость ошибок, получаем г.
,г вз и учитывая статистическую неза- О = Еог. ог Уп М (уоуот) (!Ч. 118) О Таким образом, имеем м [(в 6) (в 6)т ] (хтх)-з ог Отсюда »Ь =ело; соч — е) о 2 ° 2 )ь» (1Н, ! 19) (!Ч. 120) Матрица !ХгХ)-~ называется матрицей ошибок или ковариационнай манзрицей. Так как ковариационная матрица недиагональна и, следовательно, все коэффициенты регрессии взаимно связаны, нельзя проверить значимость каждо~о коэффициента в отдельности. Поэтому отношения (ь) ! от) ом ([Н. 121) можно рассматривать только как средство ранжировки факторов Используется процедура последовательного исключения незначимых факторов: фактор, для которого г, оказывается наименьшим, исключается, и расчет повторяется.
Исключение Факторов производится до тех пор, пока уменыцается остаточная дисперсия. При этом улучшаются интерполяционные свойства уравнения регрессии, однако полученные коэффициенты оказываются смещенными оценками для соответствующих генеральных коэффициентов. При большом числе Факторов для расчета множественной регрессии необходимо использовать ДВМ !49 и = Ьв+ Ьаха + Ьахв, уравнения с эффектом парного взаимодействия и = Ьв+ Ьаха 4- Ьвха+ Ьаах ха 150 (1Н,122) (1У.12З) При решении линейных алгебраических систем часто приходится сталкиваться с проблемой плохой обусловленности этих систем. Так, если для системы ХВ-У малым изменениям элементов матрицы Х или вектора У отвечают достаточно большие изменения решений (элементов вектора В), то система плохо обусловлена.
В противном случае система обусловлена хорошо. Погрешности в определении экспериментальных величин х и у сказываются на определяемых величинах коэффициентов и при плохой обусловленности влекут за собой сильные вариации в значении коэффициентов и, следовательно, малую достоверность полученных результатов расчета. Хорошая или плохая обусловленность тесно связана с величинами определителя матрицы (ХГХ) н ее элементов.
Введено большое число различных критериев, определяющих обусловленность. Для плохо обусловленных систем возникает проблема выбора алгоритма решения, При проведении расчетов по рассмотренному алгоритму на каждом шаге будет возникать некоторая ошибка, например, за счет округления или заданной точности на ЦВМ, а также ощутимая потеря значащих цифр в результате вычитаний. В конечном итоге это может привести к достаточно сильному искажению решения. Для таких систем требуются так называемые устойчивые алгоритмы, позволяющие исключить появление нежелательных ошибок, связанных, в частности, с плохой обусловленностью. Наиболее общим и наиболее часто используемымподходом является метод регуляризации, разработанный А.
Н. Тихоновым. Проблем, связанных с плохой обусловленностью, не возникает при обработке планированного эксперимента (см. гл. Ч). 11. Метод группового учета аргументов (МГУА). Метод группового учета аргументов, предложенный А. Г. Ивахненко, существенно уменьшает вычислительные трудности, возникающие при применении метода наименьших квадратов в задачах большой размерности. МГУА дает возможность решение исходной многофакторной задачи свести к решению большо~о числа сравнительно простых задач аппроксимации экспериментальных данных функциями двух переменных †полинома обычно невысокого порядка. Метод Ивахненко состоит в выборе иерархии частных моделей вместо одной общей модели.
На каждой из стадий этого процесса производится отбор наилучших, в некотором смысле, полиномов, которые используются на следующей стадии в качестве Фиктивных аргументов новых полиномов. На рис. 27 приведена схема применения МГУА. Каждая частная модель имеет два входа и один выход, Параметры частных моделей (коэффициенты частных полиномов) подбираются так, чтобы как можно точнее аппроксимировать величину у. В качестве частных полиномов используют линейные уравнения для двух факторов: ЧаСтнаи модель Рис 22. Схема МГУА или второго порядка а = Ьв + Ь,х, + Ь, хв + Ь„х,х, + Ь„ха + Ьаахз. (1Ч. 124) проверочное и =(хл,, х',1, а =а +1, а +2,,;,, а; контРольное ми= ( хвв, (гве), 1=ив+1, ах+2..., а.
На первом этапе (рис. 27) построим С, частных полиномов для двух факторов х„и х,, например, вида (1Ч. 124): ои) = Ьвиз+ Ьихи + Ьзх) + Ьи)хихз + Ьиихи + Ьу)а) ' и, /=1, 2, ..., Ь; и+1. КоэфФициенты частных полиномов определим методом наименьших квадратов по данным табл.
26, принадлежащим обучающему множеству М при этом число точек в множестве а~ должно быть больше числа коэффициентов в частном полиноме. Прн определении каждого частно~о полинома на первой стадии (рис. 27) минимизируется сумма квадратов отклонений вида Л 1в фа = и~~~ (.у! оиз(1)! . (!У.126) Среди полученных полиномов необходимо выбрать лучшие. Используем для этой цели проверочное множество экспериментальных точек М„. Вычислим о„, для каждого полннома во всех точках множества М„и определим средние квадратичные ошибки аппроксимации экспериментальных данных проверочного множества М„ каждым частным полиномом: 151 Последовательно образуя, согласно схеме на рис.
27, новые переменные, стараются в конце концов получить расчетные значения у, являющиеся хорошей аппроксимацией экспериментальных данных. Пусть исходные экспериментальные данные представлены в табл. 26. Раюбьем совокупность экспериментальных данных на три множества. обучающее ив=(х',, у',.1, а=), 2, ..., и,; (1Ч.! 26) ии/— и, /=1, 2, ..., Ь; иЧЬ/. Среди ошибок аппроксимации найдем наименьшую и обозначим ее з, Выберем среди частных полиномов т; лучших (сн о,,...,ц ), которым соответствуют меньшие ошибки аппроксимации гч. В методе группового учета аргументов процедура выбора числа лучших полиномов наименее формалиювана. Чрезмерное уменьшение числа отбираемых на следующую стадию полиномов может привести к потере значимых факторов, увеличение т — к резкому росту объема вычислений.
Вычислим значения Ч///, /=1,2,...,т1 отобранных полиномов во всех точках обучающего множества Мо и контрольного М,. Полученные значения Ч09 на контрольном множестве М„используем для определения средних квадратических ошибок 82: ([Ч.! 27) Среди всех величин 8, найдем наименьшую и обозначим ее 6, Эта величина используется на следующих стадиях аппроксимации. На второй стадии отобранные полиномы ия о,,...,о, служат аргументами новых частных полиномов: 2и/ = Ьии/ + Ьион + Ь/г/ + Ьи/сии/ + Ьиио~ + ЬИиз; и, / = 1, 2, ..., т ; и ~ /.