Налимов В.В. - Теория эксперимента (1062946), страница 28
Текст из файла (страница 28)
4.3. Здесь, Таблица 43 Планирование эксперимента для линейной модели с тремя иеэависимыми перемепиыии по сути дела, та же схема планирования, что и в табл, 4.2, только факторы А, В и С заменены ноаависимыми переменными х„, хь и хе и добавлен еще столбец «фиктивной» переменной х, для оценки свободного члеяа В соответствии с этой таблицей, эксперименты выполняют следующим образом: в первом опыте переменные х, и хе находятся на нижних уровнях, а переменная х, — на верхнем уровне; во втором опыте переменная хт находится на верхнем уровне, а переменные хе и хь— на нижних уровнях и т.
д. Допустим теперь, что мы имеом дело уже с семью независимыми переменнылтк, варьируемыми также толь- +1 — ! +1 +1 +1 — 1 +1 +! +1 1 -',.1 +1 +! --1 +1 )-1 — 1 †! — 1 — 1 -)- ! — ! +1 -1 — 1 +1 — 1 +1 +1 +1 +1 +! я с дисперсией о'(Ьг) =* — --' —, кртжкн — знзчз- Ззчзрнзнпыс плАниРавАник экГпГРимкнфл (гл.
гч оргагональности: скалярные произведения"для всех векторов-столбцов равны нулю. Это значит, что матрица ковариаций вектора параметров уравнения регрессии (Х нХ) ' диагональна '), т. е. вса ковариации сот (Ь;Ь;) равны нулю и, следовательно, вса коэффициенты регрессии определяются назависимо друг от друга.
Из второго условия следует, что все диагональные элементы матрицы (Х*Х) ' равны 1йг)Г. Система нормальных уравнений распадается на ()с + 1) независимьгх уравнений. Отсюда следует, что коэффициенты регрессии определгпотся формулами х '| гк где, напомним еще раэ, )тг =.- й + 1. Вернемся теперь к обсуждению плана, заданного табл. 4.4. Семь интересующих нас коэффициентов регрессии можно было бы оценить обычным, традиционным, однофакторным экспериментом. Один опыт был бы поставлен так, чтобы все независимые переменные были на ни>кием уровне, а далыпе следовало бы семь опытов, в каждом из которых по очереди одна яз переменных переводилась бы па зерхний уровень. Для некоторого (-го опыта такой прием графически мо|кно было бы представить так, как было показано на рис.
2.4 (см, стр, бо). Тогда мы получяля бы коэффициенты регрессия с дисперсией о- (Ь;) -- о' (у))2. Вьшолняя опыты по схема„приведенной в табл. 4.4, при том же общем пх числе, мы ') 1!зазывны эдна|а чта н матричных абазянченнях нпктор столбец Ь канффпциентон рнгребсвн задастая саотнан|нннны ь = (х х)- х у, причем ат (ьг) = снт' (у); сач (ь ь.г = с )зз (гг), гдн сп н с|. — двнгаяачьныс а. соахннтстненаа, ннс диагональные элементы матрацы (Х«Х) ', поэтому последняя (нля матраца (Х Х) й ) аазыннатса канарпацпонной матрнцсй уранвеннн рзгрнссяи нлн просто матрлцнй ашнбак; матраца Х*Х (нлн (Хзх)ггу) вать|кается тогда явфарыациаш|ай матрицсй Фишера.
5 |1 липкяняя «го|гуль 1 13 получаем коэффициенты регрессии с дисперсией пз (Ьгг| ==. =и' (У)) ()с + 1) = — пз (У)г)8. В данном слУчае мы выигрываем в точности в четыре раза. При новой схеме постаповки опытов в знаменателе выражения, задшощего дисперсию, у нас стоит сумма й + 1, где й — число независимых переменных. Отсюда сладует, что с ростом числа назависимых переменных )с, включенных в исследование, эффективность многофакторного эксперимента будет расти как й + 1. Ряс.
4.1. График, аллюстркрующий зннискыасть ошибки и ацннкн коэффициента регрессии Ь; = ска ат расстояния между точками, н которых производятся измерения. «ртжкгг — нет«нные значения, скнслыз ння, нтсчктзнпые с ошнбкзнн. Попробуем дать этому явлению геометрическое истолкованиа. Ясно, что в линейных задачах коэффициенты регрессии опредсляготся тем точнее, чам болыпс радиус обследуемой сферы. В однофакторной задаче это легко проиллюстрировать графиком, приведенным на рис.
4.1. Здесь мы видим, что если две точки, в которых производятся измерения, располагаются близко друг к другу, то даже небольшая ошибка в эксперименте вызывает большую огпибку в оценке коэффициента регрессии. Чааг дальше разнесены точки, тем точнеа оценивается коэффициент регрессии при тех же ошибках в эксперименте. В реальной исследовательской работе мы, однако, не моясем сколь угодно увеличивать радиус обследуамого пространства.
Здесь надо учитывать по крайней иере два обстоятельства: 1) границы интервалов варьирования часто бывают ясестко заданы, исхоля из соображений, плаиигоильпш экопкгниннтл 1гл. 1ч 1П 14б линлзннян модкль связанных с техникой эксперимента", 2) с увелнчонием интервалов варьирования нередко затрудняется возможность линейной аппроксимации — появляется необходимость в прпбли;кении результатов полкномом более 1' х Рни. 4.2. 11уб, которым зздзиы границы иб следуемого ирострз яства незивнснл)ых исрилюнных, и тетраэдр (ирзвнльный трсхнериый снмилсис), воршииаил которого зздзн нзсыщенныи линейный ортогональпый план.
высокого порядка. Оказываотся, что, используя многофакторные планы, мы увеличиваем радиус обследусмой сферы просто за счет свойств многомерного пространства, не увеличивая при этом интервалов варьирования по каждой переменной в отдельности. Проиллюстрируом зто задачей с тремя независимымн переменными, Если калякая из переменных варьируотся на двух уровнях, а именно, — 1 и +1, то объем обследуемого пространства ограничен кубом, координаты вершин которого задаются перестановкой чисел ( ~-1, )-1, -~1).
План, представленный в табл. 4.3, оказывается, как нетрудно видеть (рис. 4.2), заданным координатами точек, которые являлотся подмножеством вершин куба и образулот правильный тетраэдр, или, как говорят в математике, правильный симплекс '). Опипшм мыслоняо вокруг симплекса сферу— ') Цииивсии ириса ииюя фигурз, Пи плосиииги это треугольник, и трехмерном ирострзнитвв — тетрввдр н т.
д. ') Это своиство следует нз того, что всв коэффнциенпз регрессии ецвннявются с однон н той же дисперсией, равной ал(И)/.у. Применяя закон нзкоилвпня ошибок к уравнению регрессии л) = Ьл+ Ьлхл + Ьзхз+... + Ьзх „ получаем зз(л))=- /у (1+и), из (у) ил= ~~ хз. 1 Л гдз ее радиус, очевидно, равон г = у 3. Сделаем то же самое для задачи с семью переменными.
Здесь план задается координатами вершин правильного сиьшлекса в семи- мерном пространство и радиус обследуемой сферы уже равен г = )/ 7. Мы видим, как с ростом числа независимых переменных растет радиус обследуемой сферы, хотя интервалы варьирования по каждой независимой переменной остаются по-прежнему теми жс. Итак, пореходя от традиционного однофакторного экспоримонта к многофакторному, мы увеличиваем радиус обследуомой сферы просто за счет свойств многомерного пространства и в результате этого резко повышаем эффективность нашего эксперимента.
Почему же студентов везде учат ставить эксперименты так, чтобы наждый фактор варьировать по очереди'. Этот вопрос остается без отвота. Перечислим теперь все свойства планов, удовлотворяющие условиям, указанным на стр. 141. Геометрически этн планы задалотся координатами воршин правильных снмплексов. Планы ортогональны — все коэффициенты регрессии оцениваются независимо друг от друга. Все коэффиционты регрессии в пространстве разморности /з оцениваются с одной и той зке дисперсией а' (Ь;) = = аз (у) / (/х + 1).
Можно строго показать, что эти планы выбраны на множестве всех возможных планов в заданной области так, что дисперсия оценок оказывается минимальной. Далее, такие планы ротатабелыпгн Это значит, что полученное по ним уравнснио регрессии обладает тем свойством, что дисперсия предсказанного значения зависит только от радиуса, проведенного из центра эксперимента ').
Если принять за мору информации ргл >х >1 липвйнхп модкль плдниговлнпк экспкзпмг;втх , 1 —.1 --1 +1 1+1 +1 ~ +1 '1 +1 +1 +1 (-! величину 1,'ое гг>1), то можно утверждать, что информв. ция, содержащаяся и уравнении регрессии, полученном для ротатабельного плана, ранпоморно лгразмазанаэ по сфере (в общем случае гиперсфере) с радиусом г. Исследователь не знает заранее той области факторного пространства, где находится интересу>ощий его участок, Поэтому представляется вполне разумным стремиться к такому планиро>ьаник> экснеримопта, при котором количество информации, содержащееся в уравнении регроссии, одинаково для всех эквидистантпых точек. Итак, мы видим, что рассматриваемыо нами лпнейныо планы обладают целым рядом прилтных свойств, и можно сказать, что они оптимальны в широком смысле.
Поговорим теперь немного о том, как строятся такие планы. Начнем опять с двух нозавис>лмых переменных, варьируомых на двух уровнях. Тогда легко видеть, что план, задаваемый всеми возможныии комбинациями уровней этих переменных, будет состоять из четырох опытов, 'Габлвца 4.5 Матрица независимых переменных Х для полного факториого экоперимег>та тпва Хт представле>гпых средней частью табл. 4.5.
Зто планирование принято называть полным ((>алтлгр>гым чплтге)ягхлептом типа 2> (в общем случае 2', где показатель стопсни 1> указывает на число независимых переменных, а основание 2 — на число уровней, на которых варьируются переменные). Пользуясь полным факторным экспериментом можно оценить коэффициенты уравнения регрессии, ц = ()е + ))гх + янгхэ т ()>гхгхт, катар~о содоржит уже один нелинейный член )>>тхгх>.
Если априори есть основания полагать, что ргг = О, то в матрице независимых пероменных, заданной табл. 4.5, можно приравнять хгхг — — х„и тогда получится план для трех независимых переменных, задаваемый табл. 4.3. Это ужо планирование в трехмерном пространстве. Коли же в действительности окажется, что в нашей вадаче 11>т Ч' О, то коэффициент Ьгп оцененный по плану, заданному табл. 4.3, будет о~(ен>лой для суммы (>э+ »гт, что можно записать следу>ощпм образом: Ьх --> р; + ~>„, такие оценки называются совместными, Проиллгострируои понятие совместных оценок одним простым орикором. Поли исслодователь реализовал пасыщониыи линейный план. >о у него пе остался степеней свободы дяя проверки гипотезы адекватности линейного приближения.
Мо здесь он может воспольловаться том обстоятольством, что свободный член есть совместг. вая оценка, т. е. Ь». рл+,> й л (если дополнить матрицу яеэависил=> мых переменных столбцами с элемонтамя х,", то воследпие тождестпевно равны элеиеитам столбца хе, напомним, что (>гл обозпачаот коэффициент регрессии прн аб). Пели тепорь поставить экспорпмент в центре планирования, т. о. в точке с коордвпатамп (О, О, 0...0), го здесь мы получим уже песмещенвую оценку у„- (>и Поэтому ~ слв разность Ье — - ус окажется статистически значимой, то это будет указывать на неадекватность линейной модели, т. с, на то, что хотя бы часть коэффициентов (1>г не равна нул>о.