Айвазян С.А., Бухшгабер В.М., Енюков И.С., Мешалкин Л.Д. - Прикладная статистика (1027378), страница 75
Текст из файла (страница 75)
!4.2.3. Определение структуры и статистическое исследование модели факторного анализа. Итак, в распоряжении исследователя — последовательность многомерных наблюдений Х„Х,, ..., Х„и с помощью модели (14.1) нужно перейти от исходных коррелироваиных признаков х<'>, хг», хо'>, являющихся компонентами каждого из наблюдений, к меньшему числу некоррелированных вспомогательных признаков (общих факторов) ~<'>, ..., 1!Рч. Для этого надо суметь определить оценки неизвестных нагрузок пы остаточных дисперсий оы и, наконец, самих общих факторов )тп. Как упоминалось, в основной модели (14.1) при р' ) 1 оказывается слишком много неизвестных параметров для их однозначного определения.
Поэтому вначале исследователь должен выбрать какую-то систему дополнительных априорных соотношений, связывающих неизвестные параметры модели, которые делают решение задачи однозначным и позволяют получить относительно простое частное решение системы (14.2). Затем он может отказаться от этих дополнительных соотношений, подбирая с помощью подходящего ортогонального преобразования (вращения осей) тот вариант оценок нагрузок ды и остаточных дисперсий оьь который ему кажется предпочтительнее в основном в отношении возможности содержательной интерпретации получаемых при этом общих факторов и их нагрузок.
Остановимся подробнее на основных этапах статистического исследования модели факторного анализа. Варианты дополнительных априорных соотношений между дп н он, постулируемых исследователем с целью однозначной идентификации анализируемой модели: 1) решение ((1, У) системы (14.2) лежит лишь в классе таких матриц 4! и У, для которых матрица (!' У (! имеет диагональный вид, причем диагональные элементы ее различны и упорядочены в порядке убывания'; 2) из всех решений системы (14.2) выбирается лишь то, для которого матрица (!'(! диагональна, причем все диагональные элементы различны и упорядочены (в порядке убывания); 3) решение системы (14.2) ищут лишь среди таких матриц 41, которые для заранее заданной матрицы (размера р х р') В =: (йы), — ! = — 1, ..., р, 1 = 1, ..., р' ранга р' удовлетворяютт требованию йлы йаэ " Ааа. х В некоторых случаях к этому условны добавляется требование специального вида матрицы остаточных дисперсия, а именно У= пэ!.
В частности, выбор РР— Р 1 ... 0 0 ... 0 1 0 ... 0 0 ... 1 0 ... 0 приводит к ограничению на (1 типа Ч„О ... О Ч„Ч, ... О Я= Ч»'> Ч»'« " Ч»'»' > Ч» Ч»««- Ч»»' что означает: первый исходный признак х»> должен выражаться только через один первый общий фактор Р», второй признак х>«> — через два общих фактора Р'> н Р«> н т.
д. Можно, кстати, показать, что прн соответствующем выборе вспомогательной матрицы В определение искомых параметров модели приводит к решению ранее сформулированной задачи (14.5). Содержательную интерпретацию условий 3) следует искать в ситуациях, когда исследователь располагает некоторой априорной информацией, нз которой можно, во-первых, извлечь реальный гипотетический смысл общих факторов, н, во-вторых, постулнровать наличие определенного числа нулевых элементов в матрице нагрузок 4)(с более нлн менее точным указанием нх «адреса»), что означает априорное отрицание зависимости исходных признаков х>'> от некоторых нз общих факторов РП> (>= 1, 2, ..., р').
Эта же идея реализуется и в других, менее формализованных вариантах дополнительных условий («простые структуры», «нулевые элементы в специфических позициях» !!80!), на которых здесь не будем останавливаться. Описание общего итерационного подхода к выявлению структурм модели факторного анализа. Конкретная реализация этого подхода зависит от выбора варианта идентифицирующих условий типа 1) — 3). Как правило, исследователю известна лишь коварнацнонная матрица Х (еслнеевыборочное значение Х, пока не будем нх различать). Логическая схема итераций следующая: задаемся некоторым нулевым приближением 1(<«> матрицы У; 396 Ч»Ь; = д, Нц + ... + д; Нр (1 =- 1, 2, ..., р'); Ь! Ч»Ь;= — бл«(м+...+й;>бы (1< 1, != 1, ..., р'). Отсюда можно последовательно находить (ы=ь;ЧЬ;, Ч,=Ч вЂ” д,д,; д,= —; ч«, ь« "»« ть и»= — ' «(»»=Ь»Ч~«Ь~; Чг»=Ч»» — о»4».
«и (14.7) В случае условий идентификации типа 1) легко проверить, что столбцы д„..., др являются первыми р' обобщенными собственными векторами (в метрике У) матрицы Чг, т. е. являются решением уравнения Ч»д, — Л, Чу~ «О (1 = 1...,, р'), (14.8) где Л~ — 1-й по величине характеристический корень уравнения 1Ч» — Л'(г ) = О. (14.8') 396 используя (14.2), получаем нулевое приближение Чгпч= = Х вЂ” Ч<«> матрицы Ч» = (К~' = — Х вЂ” Н; по Ч» с помощью некоторого специального приема (см. ниже) последовательно определяем нулевые приближения дч>, г(~«',..., ф~ для столбцов д„д„..., д ° матрицы Я. Затем определяем следующее (первое) приближение Ч<ц н т.
д. Специальный прием определения столбцов д, (1 = 1, 2, ..., р') матрицы Я при известной матрице Чг = 4К)' опирается на то, что матрица Ч» может быть представлена в виде Чг.=- гй4; + 4»4» + ... + др д» . Используя специ- фину выбранных идентифицирующих условий, определяют вначале столбец д,. Затем переходят к матрице Ч~, = = — Чг — г(,4( = д«д» + ... + др д' ° и определяют столбец д» и т.д.
Так, например, в случае условия 3) («обобщенного условия треугольности») этот прием дает 0=В а=((,, („..., (,). Здесь 4 — 1-й столбец матрицы 0: ЧВ=4)(1'В=а0 =д, (;, ...+д, (,; В Ч~'В= В Я(»«В= 00 «(««((+ +др' др' Последние два матричных уравнения можно расписать в ви- де Поэтому общая итерационная схема определения структу~>ы модели реализуется здесь в такой последовательности: 1>" » -- ЧЦ«> = Х вЂ” Ю«> -~ (1'ч — решение уравнений (14 8) > >$>>п — Я(О> Я(О> ~ «7> >> ~ »1»> и ф >> решение уравнений (14.8) н т.д.
Аналогичная реализация общей итерационной схемы определения структуры модели имеет место н в случае условий идентификации типа 2) с той только разницей, что уравнения (14.8) н (14.8') следует заменить уравнениями Чд,— Л,д,=о; ! Ч» — Л1 ~ = 0 (1 = 1, 2, ..., р'). (14.9) Статистическое оценивание факторных нагрузок >7» и остаточных дисперсий о„.
Оцеииванне производится либо методом максимального правдоподобия (см. (! 1, гл. 8)), лнб«» так называемым цент(>оидным методом. Первый метод используется обычно прн идентифицирующих условиях типа 1) н 2). Ои хотя н дает эффективные оценки для >7,> н оп, но требует постулнроваиня закона распределения исследуемых величин (разработан лишь в нормальном случае), а также весьма обременительных вычислений. Центрондный метод используется прн идентифицирующих условиях типа 3). Давая оценки, близкие к оценкам максимального правдоподобия, ои, как н всякий непараметрнческнй метод, является более «устойчивым» по отношению к отклонениям от нормальности исследуемых признаков н требует меньшего объема вычислений.
Однако нз-за определенного произвола в ег>» процедуре, которая приведена ниже, статистическая оценка метода, исследование его выборочных свойств (в общем случае) практически невозможны. Можно представить себе проведение подобных исследований лишь в каких-то специальных случаях, одни нз которых намечен, например, в!1801. Общая схема реализации метода максимального правдоподобия следующая. Составляется логарифмическая функция правдоподобия как функция неизвестных параметров >7» н и„, отвечающая исследуемой модели, т.
е. с учетом нормальности Х,, ..., Х„модели (14.1) н соответственно (14.2); в качестве дополнительных идентифицирующих условий берутся условия !) нлн 2). С помощью дифференцирования этой функции правдоподобия по каждому нз неизвестных параметров и прнравнивання полученных частных производных к нулю получается система уравнений, в которой известными величинами являются выборочные коварнацни а97 о„, а также числа р и р', а неизвестными — искомые параметры <)<> и о„.
И наконец, предлагается вычислительная (как правило, итерационная) процедура решения этой системы. Подробнее см. в 198, 161, 180). Реализация описанной вы<не (для случаев ! и 2) общей итерационной вычислительной схемы с заменой неизвестной ковариационной матрицы исходных признаков Х ее выборочным аналогом Х приведет как раз к оценкам максимального правдоподобия параметров д;; и оп (< == 1,2,..., р; 1 =- 1,2, ..., р'). Отметим также, что в (1801 при достаточно общих ограничениях доказана асимптотическая нормальность оценок максимального правдоподобия (1 и <(, что дает основу для построения соответствующих интервальных оценок. Как выше отмечено, центроидный метод является одним из способов реализации вычислительной схемы (14.7), приспособленной для выявления структуры модели фактор- ного анализа и оценки неизвестных параметров в случае идентифицирующих условий типа 3). Этот метод поддается весьма простой геометрической интерпретации.
Отождествим исследуемые признаки х<'>, ..., х<»> с векторами, выходящими из начала координат некоторого вспомогательного р-мерного пространства, построенными таким образом, чтобы косинусы углов между х<'> и х<л равнялись бы их парным корреляциям (гы), а длины векторов х<'> — стандартным отклонениям соответствующих переменных (а„). Да- <<2 лее изменим, если необходимо, направления, т.