Налимов В.В. - Теория эксперимента (1062946), страница 20
Текст из файла (страница 20)
3.,'у, !ллассифииаелия насекох!ых по методу главных компонент [49[ Рсскп тип,! иерее! Иеиип 110 рс.ии! тпых и!шоне!ъи! иредстиелсиы ое илоси! етл, еидимееми двуее ! п(рысил !и иио!лисой!и и представ !иярсь и виде матрицы — строки матрицы соответствова.ли разным коцентрациям, столбцы — разным длинам волн. Вел!л епектрофотомотр находитсл в хорошем СОСтОЯВИИе тО Раит ЛеатР1ЛЦЫ, ЕотоотВЕННО, РаВЕН ЕДИНИЦЕ (строки матрицы с точностью до олппбки измерения линейно зависимы). Ддя измерений, полученных на двух разли Рных спектрофотометрах, ранг лтатрицы равен двум.
Плохо от!оптированные спектрофотометры и плохо контролируемая техника измерений, естественно, дадут матрицы более высокого ранга. Первая главная компонента, как оказалось, определяетсп неравномерностью вортикального сдвига кривых поглощения — преобразованные значения этого вектора служат для проверки закона Ламберта — Ьера, вторая главная компонента задается сдвигом споктрограмм вдоль горнаонтальной ося; ее можно использовать для проверки грэдуировки прибора по д.шнам волн, Метод главных компонент првгодон и как прием для ортогонализации матрицы независимых переменных в регрессионном анализе. Одна из самых боль!них неприятностей многомерного регрессионного анализа, выполненного по схеме пассивного эксперимента, ваключается в том, что не все независимые переменные (как правило, они си!и но коррелированы) можно ввыночать в рассмотрение ').
Ото неизбежно приводят к смегцению в оценках козффиционтов регрессии — оно может оказаться столь сильным, что регрессионный анализ потеряет всякий смысл (подробнее см. стр. 162). Коэффициенты регрессии, вычисленные по главным компонентам, в этом смысле, повидимому, оказываются более устойчивыми, если, конечно, рами главные компоненты вычислялись по наиболее важным независимым перомевным. В работах [5'1, 52[ методом главных компонент была произведона ортогонализацпя матрицы независимых переменных в задачах металлурсии.
В первой из этих работ коэффициенты регрессии вычислялись по первьви главным компонентам и была показана их устойчивость в указанном вьппе смысле (наб!подалось лишь совсем малое смещение при отбрасывании части переменных), Во второй работе коэффициенты регрессии вычислялись ао всем главным компонентам и затем компоненты р незначимымп коэффициептаали регрессии отбрэсь!валисрь причем удалось дать очень чоткую физичоскуло интерпротипыо коэффициентам регроссии.
Ь регрессионном анализе затруднения могут возникать также пз-за того, что зависимая переменная задается не скалярно, а вокторно, Например, в металлургических зада !ах качество стали определяется не одним признаком, а целым их набороьл. В таком случае вектор можно свернуть в скаляр, перейдя от набора характеристик к их линснной комбинации, выбранной так, чтобы дисперсия получкавинсп линейной функции была наабольшей. Все '! Члети Иееааипки!ДХ ПЕРЕМЕВКЫХ ОПУСКастсп ХО!и бЫ ПОУОПА !то они трудно поддаются надежному иамерепяаи Эй и<<ТОЛЫ, О<'НОВАННЫВ НА НЗЪЧВНИН РАССКЯННЯ !ГЛ, 1Н $ «1 ГЧАЭНЫК КОМПОНГНТЫ. ФАНТОРНЫН АНАЛН:1 э5 аз о, конечно, будет иметь смысл только в том случае, если найденной линейной функции удастся придать разумное физнчесвое истолкование, как был<о сделано, например, в упоминавшейся выв<е работе (52!.
Перейдем теперь к описанию факторпого аналиаа. Здесь выбирается неболыпое число факторов, способных «объясияты> корреляционную матрицу. Нужно нанти минимальное число таких случайнь<х величин (факторов) 1„,<л,..., <, после учота которых корреляцяопная матрица аьпеременных превратится в диагональную. Иными словами, зто влачит, что после учета действия и факторов все корреляции между х-переменнь<ми доллкны стать незначил<ыми. Основяая модель факторного анализе записывается следующей системой равенств: т к<=-,Я~~ 1<Ь<; )-г,; <=1,2,...,Ф; о /с. 1=1 Здесь 1; — у-й простой фактор; и — заданпое число простых факторов; з< — остаточный член с двсперсией Ол (з), действукяцей только на х;; часто его называют специфическим фактором.
Коэффициенты 1<т называ<отся нагрузкой <-й переменной на <чй фактор, пли нагрузкой 1-го фактора ва <-у<о переменную. Вначале ради простоты будем полагз<ь, что факторы ~1 взаимно неаависимы. Далео предположим, что случайные величины з, не зависят друг от друга, а таьнке от всех факторов 1 (1 =- 1,..., и). Ь дальяеп<лем мы будем пользоваться просто термином фактор, поаимая под этим «простой фактор».
Разработаны приемы, позволяющие определять минимальное число прост<<х факторов, веоблодимоедля объяснения коварнационной матрицы. Максимальное возможное число факторов и при заданно<< числе переменных й определяется неравенством (й + и) " (<< — и)-', которое должно выполняться, чтобы задача яе вырождалась в тривиальную. Ото неравенство получено на основании подсчета степеней свободы, имеющихся в задаче (ш<дробнее см.
(57)). Дадим теперь представление об основной теореме факторного анализа. Допустим, что исходные переменные к и к, имеэн один простой фактор /д< тогда легко показать справедливость соотношения г (лег«) — 1Н /ль В общем случае, когда й переменных имеют и простых факторов, можно написать г ('~'лх ) = 1 11«+ („,(~ + ., ° + 11 1« Зто основное < оотнояюние факторного анализа показывает, что коэффициент корреляции любых двух незавпсямых переменных можно выразить су»<мой произведений нагрузок некоррелированных факторов.
Построим матрицу Г«размерности (/<М <в) из строк, элементами которой служат нагрузки на факторы. 1<як<<я пнбудь, скажем, <-я ее строка будет иметь вид "11~ 11«~ ' ' ~ ~<в~ тогда в матричной форме основная теорема вапишется так: Задача факторного аналиаа, как мы видим, заключается в линейном преобразовании Й-мерного пространства в т-мерное, Ее нельзя решить одпозвачно.
Написанные вьппо основные равенства (см. Нредыд. стр.) нельзя проверить непосредственно, так как там Й исходных х-переменных задается через (й + вг) других переменных — простых н специфических факторов. Продставление корреляциояной матриц<я факторамн, как говорят, ое факторизацию, можно произвести бесконечно большим числом раалкчных способов. Если нам удалось произвести факторизацию с помо<цыо некоторой матрицы 1'„, то любое ое линейное ортогональное преобразование (Ортогональное вращение) приведет к такой я<е факторизации. Моя<от случиться, что первая факторизация окан<ется малоблагоприятной, т.
е. трудно подда<ощойся интерпретации. Тогда исследователь может начать вращать факторь<, Он мо<кет это делать до тох кор, поко не получит результаты, легко поддающиеся физической интерпретации. Он, скак<ем, может потребовать, чтобы одни фактор был нагружен превмуществеппо переменными одного типа, а другой — переменными другого типа. Или можно потребовать, чтобы исчезли какие-то трудно интерпретируемые нагрузки с отрицателыгыми ьчшвами. Наконец, если нет агеева г И.!! И ~оем м рб ьптоды, основагнгык на пзгчкннп гасснянмв 1гл.
!!! каких-либо догтаточных теоретических сообраягеннй, то радк упрощонин в представлении розультатон можно опгнмизировнть процедуру, направленную на увеличение нагрузок по одним переменным и уьысн! н!ение по другим. Можно пойти дальше и рассматривать прлмоугольвуго систему факторов как честный случай косоугольной, т.
о. корролированной системы факторов. Факторный шилин — зто еще один прнмор мнотозначного представлен«л результатов исследования, о котором уже ! онори«ось выпье (см. стр. 94). Если теперь сравнить метод главных компонент с факторныь! анализом, то можно сказать, что в первом случае мы имеем дело с. замкнутой системой с однозначным решением (если, конечно, ь ы, исходл из каких-то сообрагьепнй, вараиее фиксировали шкалы, в которых представлены измерения), а во втором — с откр!стой системой— в ней окончание процесса врап!еннл задается последователем.
Далее мы видим, что глвнныс комповспть! но ппвз риаптны к выбору и!кап, то!еда как факторный анализ в значительной степени свободон от этой неприятности'). Если теперь принять во внимание произвол в выборе шкал, то станет ясным, что объективность, приписываемая методу главных коьшонент, может оказаться совсем лллгозорной. Если говорить о крнтичесной оценке факторного анализа, то следует вспомнить довольно старое, очень резкое, но, вероятно, не совсем справедливое замечание о т ом, что, пользуясь этим методом, го«учини то, что туда внесешь.
Оба метода не дают прлмого, однозначного ответа на поставленный вопрос, но они обострлют интуицию исследователя. помогают ему сформулировать гипотезу. Ну а если у исследователя плохо развита интуиция — что тогда". Попробуем проиллгострировать основную идею фактор- ного анализа несколькими примерами. Зтот метод сов!ем '1 Мы ве можем остаоаелнзатьс«па детальном апалнае етого вощюса. 3«ось трудно дагь «рость;е формул«рова«.
Иря различных сиособат проееденнн факторного ананнаа разным оорааом скааываотсн нонольауеман метр«ко. Гслп, например, факторы еыделвютсн по методу макснмальвого правдоподобна, то взмевенее масштаб!ваагн ио канай-внбудь гге переменных х! ар«ведет просто к щюпорциенальгюму изюе!«пшо и ео нагруюшх 1; ..