Айвазян С.А., Бухшгабер В.М., Енюков И.С., Мешалкин Л.Д. - Прикладная статистика (1027378), страница 74
Текст из файла (страница 74)
!'), причем условия центрированности независимости и нормированности дисперсий компонент вектора Р в этом случае имеют вид: и л т--. ! т=! Однако при обоих вариантах интерпретации вектора общих факторов Р исследуемый вектор наблюдений Х оказывается нормально распределенной р-мерной случайной величиной; при первом варианте как линейная комбинация двух нормальных случайных векторов (г' и У), а при втором вананте за счет нормальности специфических факторов и!'>. ри этом из (14.1) и из сделанных выше допущений немедленно следует, что Р' ам — — чр д>, + и>! Ех!>> = О, а' пы = ~ч" >!>! !)гт (! )= 1 Р) (14.2) и=! или в матричной записи ЕХ =.
О, Е = (Н ' + Ч П име ом остаточн Р Р д о прозрачной интерпретации модели факторного анализа может служить ее формулировка в терминах так называемых интеллектуальных тестов. При этом наблюдение по признаку х'," выражает отклонение оценки, например в баллах, данной !сму индивидууму на экзамене по т-му тесту, от некоторого среднего уровня. Естественно предположить, что в качестве ненаблюдаемых общих факторов )!>>, ..., (!"'>, от которых будут зависеть оценки индивидуумов по всем р тестам, выступят такие факторы, как характеристика общей одаренности индивидуума )!>>, ! Требование независимости компоненту<О и нормированности их дисперсий объясняется в основном соображениями идентифинаиии модели, см.
4 >4.!. ззо характеристики его математических )<»>, технических )<»> или гуманитарных г<«> способностей. Отметим, что соотношения (14.1) в точности воспроизводят модели множественной регрессии и дисперсионного анализа П21, в которых под ):<> (<' = 1, 2, ..., р') понимаются так называемые объясняющие переменные (факторы-аргументы). Однако принципиальное отличие модели факторного анализа от регрессионных схем и дисперсионного анализа состоит в том, что переменные Г<'>, выступающие в роли аргументов во всех этих моделях, не являются непосредственно наблюдаемыми в моделях факторного анализа, в то время как в регрессионном и дисперсионном анализе значения )<о измеряются на статистически обследованных объектах.
3 а м е ч а н и е 1. О связи метода главных компонент и метода факторного анализа. Рассмотрим следующую общую схему, включающую в себя в качестве частных случаев обе сравниваемые модели. Примем гипотезу, что существуют такие взаимно некоррелированные факторы )<», )<»>, ... (быть может, в неограниченном числе), что х<'> =а«)«>+а<»)<»> + .. х<»> = а„)«>+ а )<»>+ ... (14.3) х<ю =а„,~" >+<>„»)тю+ ... или в матричнои записи Х== Аг, где о случайных переменных )<», )<»>, ... без ограничения общности можно предположить, что Р)<о = 1. Очевидно, представление (14.3), если оно существует, не единственно, так как переходя от г" с помощью произвольного ортогонального преобразования С к новым переменным Л =-- СЕ, будем иметь вместо (14.3) следующее соотношение: Х=ВЕ. (14.4) Исследователю не известны коэффициенты а;,, но он хочет научиться наилучшим (в некотором смысле) образом аппроксимировать признаки х<'>, ..., х<»> с помощью линейных функций от небольшого (заранее определенного) числа и< факторов )и> (т), ..., )<«0(л<), которые поэтому естественно назвать главными или общими.
Аппроксимация признаков Х с помощью )«> (л<), ..., )<'"> (л<) означает представ- ление Х в виде (14.3), но с «урезанной» суммой, стоящей в пг вой части, т. е. Х(т) =-А )с(п>), 390 соч(х«», к«>) — сот( х'>(м), х<'>(з<)) ! (ап зп> (14.5) <.<=- ! << +/> при условии неотрицательности величин пп — Рх<<> (л<), то можно показать (180, 293),что ~'-я строка оптимальной в зтом смысле матрицы преобразования В состоит из л> факторных нагрузок общих факторов 1<>> (т), ..., 1<"'> (л<) на <-й исходный признак х<"> в модели факторного анализа вида (! 4.1).
Другими словами, сущность задачи минимизации (по В и г (т)) величины (!4.5) состоит в следующем. Первый из и< общих факторов 1<<> (т) находится из условия, чтобы попарные корреляции между исходными признаками были как можно меньше, если влияние на них зтогофактора (<<>(л>) учтено. Следующий общий фактор(<'>(и>) находится из условия максимального ослабления попарных корреляционных связей между исходными признаками, оставшихся после учета влияния первого общего фактора 1<'> (>и), и т.
д. где А — матрица, составленная из первых >и столбцов матрицы А, а г (и<) = (1<<> (л<), ..., 1<"'> (и<))'. Оказывается, что, по-разному формулируя критерий оптимальности аппроксимации Х с помощью г (т), придем либо к главным компонентам, либо к общим факторам. Так, например, если определение злементов матрицы А подчинить идее минимизации отличии ковариационной матрицы Х исследуемого вектора Х от ковариационной матрицы Х» =А А ' аппроксимируюшего вектора Х(т) (в смысле минимизации евклидовой нормы )(Х вЂ” Х-<>), то 1< >(т) определяется пропорционально <'-и главной ком! поненте вектора Х.
в частности (<'>(<и) =)<< '7п>, где Х<— <-й по величине характеристический корень ковариацнонной матрицы Х, а 1«> — >-я главная компонента Х; <чй столбец матрицы А,„(<=1, ..., т) есть )Г><<1<, где 1<— собственный вектор ма<рицы Х, соответствующий характеристическому корню л,.
Если же определение аппроксимирующего вектора Х(т) = В Р (т) подчинить идее максимального объяснения корреляции между исходными признаками х«> и х«> с помощью вспомогательных (ненаблюдаемых) факторов 1<<> (и<), 1<'> (и<), ...,1<'ч и, в частности, идее минимизации ве- личины Из сказанного, в частности, следует, что методы главных компонент и факторного анализа должны давать близкие результаты в тех случаях, когда главные компоненты строятся по корреляционным матрицам исходных признаков, а остаточные дисперсии вм сравнительно невелики. 3 а м е ч а н и е 2. Вопрос осуществовании моделифакторного анализа. По-видимому, не всякая ковариационная матрица Х допускает представление вида (14.2), а следовательно, не всякий вектор наблюдений Х допускает интерпретацию в рамках модели факторного анализа типа (14.1). Очевидно, условия представимости вектора наблюдений Х в рамках модели факторного анализа должны формулироваться в терминах свойств ковариационной матрицы Х, а также в виде некоторых соотношений между размерностью исходного пространства р и числом общих факторов р'.
Одним из наиболее общих (но малоконструктивных) результатов такого рода является, например, следующее утверждение: для того чтобы вектор Х допускал представление вида (!4.!), необходимо и достаточно, чтобы существовала диагональная матрица Ч с неотрицательными элементами, такая, что матрица Х вЂ” У была бы неотрицательно-определенной и имела бы ранг р'. Более детальное и конструктивное исследование условий существования модели факторного анализа читатель сможет найти, например, в 11801.
Заметим лишь, что изучение проблемы существования (разрешимости уравнений (14.1)) модели факторного анализа дает основу для построения различных статистических критериев адекватности модели по отношению к исследуемым наблюдениям Х„ Хм ...,Х„. 14.2.2. Вопросы идентификации модели факториого анализа. Будем в дальнейшем предполагать, что имеется по меньшей мере одно решение (Я, У) уравнений (!4.2).
При исследовании вопроса единственности решения системы (14.2) относительно ((2, У) (при заданных ом) следует различать два аспекта проблемы. Во-первых, надо понять, при каких дополнительных условиях на искомую матрицу нагрузок С) и на соотношение между р и р' не может существовать двух различных решений Я!и и Я!'>, таких, чтобы одно из них нельзя было бы получить из другого с помощью соответствующим образом подобранного ортогонального преобразования С (единственность с точностью до ортогонального преобразования или с точностью до вращения факторов). Оказывается !1801, достаточным условием единственности такого рода является требование к матрице (4, чтобы прц вычеркивании из нее любой строки оставшуюся матрицу 392 можно было бы разделить на две подматрнцы ранга р', от- куда автоматически следует требование р †! Р < 2 (14.6) Можно показать, что для р' = ! и р' = 2 это условие является одновременно и необходимым, откуда, в частности, следует, что случаи р = 2, р' = 1 и р = 4, р' = 2 не допускают идентификации модели факторного анализа в указанном выше смысле (более подробное исследование идентификации этого типа можно найти в 1180)).
Будем предполагать далее, что имеется по меньшей мере одно решение (4), Ч) системы (14.2) и что оно единственно с точностью до ортогонального преобразования. Вставляя в уравнения (14.2) вместо найденного решения (41, Ч) другую пару матриц (ЯС, Ч), где С вЂ” матрица (размера р'Х р') любого ортогонального преобразования, легко убедиться, что н она (эта пара матриц) удовлетворяет данной системе уравнений. Следовательно, возвращаясь к модели (14.1), получаем, что наряду с общими факторамн г = (1»>, ..., )т>г>)' можно рассмотреть (при тех же нагрузках (»>) общие факторы У = Сг. Поскольку, как известно, ортогональное преобразование координат г" геометрически означает вращение осей ~м>, ..., )ои> около начала координат на некоторый угол, то получается, что при отсутствии дополнительных условий на природу искомой матрицы нагрузок 0 общие факторы )т», ..., )тм> могут быть определены лишь с точностью до вращения системы координат в соответствующем р'-мерном пространстве.
Существует несколько вариантов дополнительных условий на класс матриц О, в котором следует искать решение системы (14.2), обеспечивающих уже окончательную однозначность решения (О, Ч). От конкретного содержания этих условий зависит и способ численного выявления структуры искомой модели и соответственно способ статистического оценивания неизвестных параметров д,п п„и факторов ~о>. Поэтому остановимся иа них параллельно с описанием методов статистического исследования модели факторного анализа.