С.Л. Ахназарова, В.В. Кафаров - Методы оптимизации эксперимента в химической технологии (1062947), страница 27
Текст из файла (страница 27)
Число полиномов (!Ч. 128) на вгорой стадии равно С2. Коэффициенты новых частных полиномов определяются методом наименьших квадратов на обучающем множестве М., значения ЧП/ и ц///,/, и =1, 2, „, т,;9+ и; /-1, 2,, и, бьши вычислены на первой стадии При определении коэффициентов полиномов (1Ч.128) мннимизируется сумма квадратов отклонений вида (!Ч.128) Ф, = ~и(у; — 2ш(!)~ г=! (!Ч, 129) Для выборки лучших полиномов воспользуемся проверочным множеством точек М„Вычислим 2„для каждого нового частного полинома во всех точках множества М. и определим средние квадратичные ошибки аппроксимации экспериментальных данных проверочного множества Ми, подставив для этого в формулу (1Ч.!29) 2„, вместо ц,, Среди ошибок аппроксимации снова найдем наименьшую и обозначим се 5,2, Выберем орели новых частных полиномов т, лучшие 2„2,, ..., 2, которым соответствуют меньшие ошибки аппроксимации эксперимен- 152 тальных точек на множестве М,, Число отобранных полиномов т2 меньше отобранных на первой стадии отбора та( С Каждый такой полипом ,2 представляет собой зависимость уже от четырех факторов, поэтому вероятность аппроксимации им с требуемой точностью экспериментальных данных табл 26 выше, чем полиномами, полученными на первой стадии.
В связи с этим необходимо выяснить целесообразность перехода к третьей стадии аппроксимации Процедура последовательной аппроксимации оканчивается, когда средняя квадратичная ошибка аппроксимации экспериментальных данных контрольного множества М, лучшим полиномом О, статистически незначимо отличается от ошибки воспроизводимости, Для проверки точности аппроксимации вычислим средние квадратичные ошибки 8, на множестве М„: /=-1. 2, ...,,. ((Ч.!ЗЮ) Найдем наименьшую среди всех 6, и обозначим о, Если окажется, что 8.2 статистически незначимо отличается от ошибки воспроизводимости, то процедура аппроксимации закончена Если же о.и существенно больше ошибки воспроизводимости, необходима третья стадия аппроксимации, на которой уже в качестве фиктивных аргументов будут использоваться полиномы 2,, 2,, ..., 2 При отсутствии информации об ошибке воспроизводимости для окончания процесса аппроксимации можно применять величину (!ч.!зц 2 = ! Ь вЂ” Ь„и ! / Ьии ° Если к относительно невелико, например менее 0,1 — 0,15, то дальнейшая аппроксимация малоэффективна Следует отметить, что во многих случаях величина 8.
возрастает с ростом числа стадий аппроксимации Это явление называют неустойчивостью МГУА, Неустойчивость МГУА проявляется и в изменении величины 2', которая с ростом числа стадий вначале убывает, а затем начинает быстро возрастать Величина з' менее чувствительна к росту числа стадий, чем Ь„так как точки, принадлежащие проверочному множеству М„, участвуют в формировании аппроксимирующего поли- нома Рекомендуется заканчивать процедуру последовательной аппроксимации на стадии, соответствующей минимальному значению 5*. Многие вопросы применения и обоснования метода группового учета аргументов еще нуждаются в детальной разработке, Важным достоинством этого метода является возможность на каждой стадии аппроксимации иметь дело с информационной матрицей порядка„не превышающего б Х 6, что в общем случае способствует улучшению ее обусловленности, 12.
Метод главных компонент. Метод главных компонент был предложен Пирсоном (1901) и позднее детально разработан Хотеллингом (1933). Метод дает возможность от непосредственно измеряемых факторов х,(/- 1, ..., /г/ перейти к их некоррелированным линейным комбинациям. !55 аз= ~~'иг!хг, !', 1=1, 2, ..., 3, !=1 (1Н. 132) дисперсии которых убывают, т, е, 5~ Ъзк ~ ... Э„ЗХ и..а " г„ Коэффициентами линейных комбинаций, нагрузками 1-й переменной в у'-й компоненте их являются элементы собственных векторов матрицы ковариаций, а дисперсии компонент равны собственным числам этой матрицы.
Пусть Х вЂ” матрица центрированных наблюдений с нулевым вектором средних, х„хх, ... хы х= хгх хм ° ° ° хы Ез< Е Е! = ЬВ! р! = 1г(Е,) 1 р! = — 1г (Е!) 2 В! — — Ц! — р!Е В = Ь! — рзЕ Тогда матрица <<ч. (зв) Е, = ЕВ хгх Ь= — =(л — 1) ! л — 1 <(ч.(зз) ~ч~~ хх!хх! ... ч!! х х! ~~~~ хь!хм 1 г=-! дисперсионно-ковариационная матрица наблюдений; ее диагональные элементы представляют собой дисперсии, недиагональные элементы— ковариации Если от центрированных переменных перейти к нормированным (см, 1Ч.93), получим корреляционную матрицу; 11 ' * (1У. 139) г х,х, ' ' ' 1 ... г «ахь гх,», (1Н.134) г г хх, х„х, (1Н. 140) Для любой симметрической матрицы Ь (илиЯ) существует ортогональ- ная матрица У, такая, что л о ... о ЕгЛ<, „О Л,, О о о ...
л„ Пн. )зз) где Л„(г-1, 2,, 1с) — собственные значения матрицы Е а <г является такой ортогональной матрицей,в которой г-й столбец является г-м собственным вектором, соответствующим г-му собственному числу, Соб- 154 155 л! х г=! г! ~~~ х!!хг! г=! Ю Ф „Г.) хг!хз! ° ~~'.! хггхы г=! !=! гг л! х ... ~~~ хмхь! я г=! ственные числа матрицы Ь определяются как корни характеристического многочлена (Š— ЛЕ) = О, (1Ч.
136) где Š— единичная матрица; < е — ле < - < — В" л" + < — И'- Ргл'- + " + л . <<ч. (зт) ПеРвый, второй и последний члены -характеристического полинома матрицы Ьопределяются просто: р! =1г(2) — след матрицы А (сумма ее диагональных элементов); Рх = <АЕ )начительно трудней определить остальные члены характеристического полинома, Предложены следующие формулы для коэффициентов характеристического полинома; 1 рь ! = — (г(ьь !) Вх ! = Ех ! — рь Е ! Еь = 1.Вь ! рь = — 1г (Аь) л Вь = Ль — рьЕ где Š— единичная матрица.
Геометрически нахождение главных компонент сводится к переходу к новой ортогональной системе координат, Первую координатную ось определяют так, чтобы соответствующая ей линейная комбинация извлекала возможно большую дисперсию, далее находят ортогональную ей ось, которая делает то же самое с оставшейся дисперсией, и т д, От новых координат о, можно вернуться к старым х,. хг= У„ит!иГ, !', )=1, 2, ..., 4, /=! гДе о! — ~'-Я главнаЯ компонента; ил — масса улй компоненты в г-й пеРеменной Доля дисперсии, выраженная в ть объясняемая г-й компонентой, определяется следующим образом. 100 %.
ЧР. л! В ряде задач интересные выводы можно получить по небольшому числу компонент В этих случаях метод главных компонент дает возможность уменьшить размерность задачи за счет того, что линейные комбинации, имеющие маленькие дисперсии, отбрасываются, а рассматриваются лишь линейные комбинации с большими дисперсиями Например, процесс характеризуется не одной выходной величиной, а целым набором коррелированных показателей, Желательно знать, какие комбинации показателей объясняют большую долю дисперсии Это определит, что следует изучать дальше, Главные компоненты можно рассматривать как новое множество измерений, полученных в результате линейной комбинации исходных измерений, Используя метод главных компонент, можно попытаться свести большое количество сильно коррелированных характеристик процесса к одной-двум обобщенным характеристикам или компонентам что облегчит оценку качества процесса в каждой точке наблюдения Все зто будет иметь смысл только в том случае, если полученным линейным комбинациям удастся дать разумное физическое истолкование Метод главных компонент применяют и как способ ортогонализации матрицы независимых переменных Если У вЂ” матрица значений главных компонент, полученная ортогональным преобразованием.
у=-хи, (1Ч !4!) то новые переменные о, независимы и их ковариацнонная матрица диагональна Ут У итХт Хи=(п — П ит7.и. (1Ч. 142) С учетом (1Ч.135) имеем 1'т У = (л — !) Л. Если У вЂ” вектор значений выходной величины и все предпосылки регрессионного анализа выполняются, можно получить оценки коэффи- циентов линейного уравнения регрессии У= УВ, где — вектор коэффициентов, В соответствии с (1Ч.143) получим В = (и — !) з1."аУУ, или для каждого коэффициента (1Ч. 143) (! Ч. 144) (1Ч.
! 45) л Ь, = (и — И- Лу ЧР иу!у, (1Ч. ! 46) 1=1 оценка значимости коэффициентов регрессии по главным компонентам проводится по у-критерию Стьюдента вполне корректно, так как все ковариации между коэффициентами равны нулю; 1!— ( ь, ! ! ь, ! (!Ч.147) хау )т(л — Ц Лу хвоспр Можно показа!ь, что коэффициенты регрессии по независимым переменным х и по главным компонентам связываются следующим образом. нормированными переменными, в качестве масштабного множителя берут величину, обратную среднему квадратичному отклонению 1,— -ухз, т. е, все вычисления проводятся для матрицы корреляции, Метод главных компонент был успешно применен для построения математической модели промышленно~о процесса Флотации калийных руд в условиях комбината Белорускалий В ходе пассивного эксперимента на комбинате фиксировались значения 20 входных и двух выходных параметров процесса.
Были построены уравнения регрессии по главным компонентам для показателей процесса у, и у, проведена оценка значимости коэффициентов по формуле (1Ч.147). По уравнениям регрессии и по нагрузкам компонент оценена степень влияния переменных на показатели процесса у, и у,, сделаны выводы о взаимосвязях процесса и даны рекоменлации по его улучшению Упракннення !. В таблиде приведены характеристики гомотенныл анионитовых мембран, полученные при различных условиях нитрования сополимера: х~ — температура 'С; ха — продолжительность, ч; м — степень нитрования, уи у, — удельное объемное электрическое сопротивление, Ом . см уа — предел прочности нри растяжении, Мца. Номер опыта эа Номер Опыта з !о ж ю Глава посвящена методам корреляционного и регрессионного аналиюв, широко применяемым при обработке результатов наблюдении.
Математическая модель процесса представляется полиномом, коэффициенты которого определяются методом наименьших квадратов, Метод наименьших квадратов обосновывается как частный случай метода максимального правдоподобия при нормальном распределении наблюдаемой случайной величины, Полиномиальная модель очень удобна, так как позволяет улучшать аппроксимацию, повышая порядок полинома, приводит к линейной системе нормальных уравнений при определении коэффициентов уравнения регрессии методом наименьших квадратов Рассмотрены различные алгоритмы регрессионного анализа для обработки пассивного эксперимента Корреляция между коэффициентами уравнения регрессии, полученного обработкой пассивного эксперимента, затрудняет статистический анализ и интерпретацию результатов, Методы активного эксперимента, изложенные в следующей главе, дают возможность преодолеть эти недостатки классическо~о регрессионного анализа 85 59 89 53 505 ВО 195 82 82 88 68 54 50 50 157 156 а Ьу = ~чР ~иу!и!Г1, (!Ч.