Ким_ Мьюллер и др - Факторный_ дискриминантный и кластерный анализы (1185345), страница 18
Текст из файла (страница 18)
Общность (сошшипа!!(у): доля дисперсии наблюдаемых переменных, обусловленная общими факторами; в модели с ортогональными факторами она равна сумме квадратов факториых нагрузок. Ортогональное вращение (ог!йояопа! го1айоп); преобразование, с помощью которого получается простая структура при выполнении огра~щчения ортого- нальиости (некоррелированности) факторов; факторм, вмделяемые с'помощью этого вращения по определению, некоррелированм. Ортогональные факторы (ог!)тояопа! (ас(огз): факторы, которые ие хоррелируют друг с другом; получаются при ортогональном вращении.
Отсенваннн критерий (аггее (ез!): эвристический критерий определения числа факторов; основан на графическом изображении всех собственных значений корреляционной матрицы; применим при влиянии второстепенных (незначимых) факторов. Ошибки дисперсии (еггог ссяпропеп!): часть дисперсии наблюдаемой переменной, связанной с несовершенством измерений; входит в характерность Простая структура (ышр!е з(гцс(цге): специальный термин, относящийся к факторной структуре, которая обладает определенными свойствами просто. ты: некоторые из этих свойств сводятся к тому, что переменные должны иметь нагрузку на минимальное число общих факторов, каждый общий фактор должен нагружать некоторые переменные и ие нагружать остальные. Прямой облимнн (б!тес! о)т))ш!п): метод получении косоугольного решения, в котором вращение выполняется без использования вторичных осей.
Разведочный факториый анализ (ехр)ога(огу (ас(ог апа)уиз): факториый анализ, который используется при исследовании скрытой факторной структуры без предположения о числе факторов н их нагрузок. Ранг матрицы (гапк о! а ша(г!х): максимальное число линейно-независимых строк или столбцов матрицы; является порядком наибольшего ненулевого детерминанта матрицы. Редуцированная корреляционная матрица (ад)цз!еб согге)ацоп ша(г!х): корреляционная матрица, в которой элементы главной диагонали соответствуют общностям: корреляционные илн ковариацнонные матрицы, которымн пользуются перед выделением факторов. Собственное число (е!пента)це): характеристика матрицы; используется при декомпозиции ковариацнонной матрицы одновременно как критерий определения числа выделяемых факторов и как мера дисперсии, соответствующей данному фактору.
Собственный вектор (е)цептес(ог): вектор, связанный с соответствующим собственным числом; получается в процессе выделения первоначальных факторов; зтя векторы, представленные в нормированной форме, являются факторнымн нагрузками. Специфичность (зрес!(!с согпропев!): доля дисперсии наблюдаемой переменной, соответствующая специфичному фактору; применяется для обозначения части характерности, получаемой при исключении дисперсии ошибки Сумма квадратов отклонений (тапайоп): мера разброса переменной; сумма квадратов отклонений от среднего. Факторы ((ас(огз): гипотетические, непосредственно неизмеряемые, скрытые переменные, в терминах которых описываются измеряемые переменные; часто подразделяются на характерные и общие.
Факторной детерминации коэффициент ((ас(опа! бе(епп)пайоп): доля общ. ности в дисперсии наблюдаемой переменной. 7б Факториая нагрузка (!ас1ог !оаб!пц): общий термин, означающий коэф. фициенты матрицы факториого отображения или структуры. Факторного отображения матрица !!ас1ог ра11егп гпа1пх): матрица коэффициентов, в которой столбцы соответствуют общим факторам, а строки— наблюдаемым переменным; элементы матрицы факторного отображения пред.
ставляют собой коэффициенты регрессии для общих факторов при условии, что наблюдаемые переменные являются линейной комбинацией факторов; для ортогонального решения матрица отображения содержит коэффициенты кор. реляции между переменными и факторами. Факторная сложность переменной (!ас1ог!а! сошр!ехйу): характеристика наблюдаемой переменной представляет собой число общих факторов с ненулевыми нагрузками для данной переменной. Факториой структуры матрица (!ас1ог з)гцс1цге гпа!пх): матрица коэффи.
цнентов корреляции между переменными и факторами; в случае некоррелированных (оргогональных) фахторов совпадает с матрицей факторного отображения. Факторной причинности принцип (роз)ц!а!е о! !ас1ог!а! савва(юп): предположение о том, что наблюдаемые переменные являются линейной комбинацией скрытых факторов и что ковариацин между наблюдаемыми переменными воспроизводятся с помощью общих факторов. Характерность (цп!цце сошропеп1); доля дисперсии наблюдаемой переменной, не связанная с общими факторами и свойственная именно данной веременной; она часто разделяется на специфичность и дисперсию ошибки. Характерный фактор (цпщце !ас1ог): фактор, влияющий только на данную переменную; часто относится ко всем независимым факторам (включая ошвбку измерений), характерным только длн данной переменной. 1(елевая матрица (1агце! пта1пх): матрица коэффициентов, используемая при вращении в качестве целевой", первоначальное факторное решение вращается таким образом, чтобы результирующие факториые нагрузки в наибольшей степени приближалн целевую матрицу.
Зквнмакс (ецццпах); критерий, применяемый для получения косоуголь. ного решения, сочетает свойства критериев варнмакс и квартимакс. Экономия принцип (роз1ц!а!е о! рагзцпопу): состоит в том, что из двух конкурирующих моделей выбирается наиболее простая; в факторном аналнзе принимаются модели, включающие минимальное число общих факторов.
У. Р. Клекка ДИСКРИМИНАНТНЫЙ АНАЛИЗ 1Ч1111а го й. К! ес1са. 0!асс!пг!пап! Апа!уз!а (Бегепьь Рг1п11пд, !986). ПРЕДИСЛОВИЕ Работа Уильяма Клекка «Дискриминантный анализ» представляет собой простое введение в круг вопросов, связанный со статистическими процедурами, объединенными общей идеей. Она носит практический характер и содержит многочисленные примеры приложений дискриминантного анализа. В первом разделе У.
Клекка приводит основные предположения, в том числе с математическими выкладками. Рассмотрение дискриминантного анализа начинается с нескольких примеров из области социальных наук. Дискриминантный анализ представляет статистический аппарат для изучения различий между двумя и более группами объектов по отношению к нескольким переменным одновременно. Этот метод успешно использовался: ° психологами для разработки тестов; дискриминантный анализ особенно полезен для предсказывания (или объяснения) того, какие студенты будут иметь хорошую успеваемость, причем этот анализ проводится еще до того, как студенты прослушают какой-либо специальный курс; ° учеными, изучающими поведение горожан и законодателей во время выборов; выделяются переменные, позволяющие идентифицировать горожан, голосующих, например, за демократов и против республиканцев, или законодателей, голосующих обычно за либералов и против консерваторов; ° социологами и психологами, занимающимися изучением половых стереотипов в поведении детей; ° учеными, исследующими всевозможные закономерности, проявляющиеся в судебном производстве.
Соруг18Ь! !пГ 1980 Ьу Баде Рпш!сацопа, 1пс. 1БВЫ 0-8039-1491-1 78 Можно назвать много других примеров из области социальных наук. Дискриминантный анализ оказался весьма полезен в широком спектре исследовательских задач и в прогнозировании. Работа профессора Клекка является очень хорошим введением в предмет. Она доступна неспециалистам, и вместе с тем в ней дается фундамент для последующего, более глубокого изучения материала. Он рассматривает канонические дискриминантные функции, алгоритмы и функции классификации, а также различные критерии выбора для включения переменных.
Здесь приводится геометрическая интерпретация коэффициентов канонической дискриминантной функции, представлено использование коэффициентов в стандартной и нестандартной форме, а также алгоритмы определения числа значимых дискриминантных функций. Профессор Клекка начинает рассмотрение дискриминантного анализа с самых простых вещей, а затем постепенно переходит к более сложному материалу. В конце работы дается обсуждение возможных нарушений предположений, лежащих в основе дискриминантного анализа, которое послужит отправной точкой для тех, кто собирается впервые применять дискриминантный анализ в исследовательских задачах.
Работа У. Клекка, безусловно, заслуживает самой высокой оценки. Джон Л. Сулливан, редактор серии Е ВВЕДЕНИЕ Дискриминантный анализ является статистическим методом, который позволяет изучать различия между двумя и более группами объектов по нескольким переменным одновременно. Этот метод часто бывает полезен в социальных науках. Рассмотрим, например, такую ситуацию. Группа экспертов исследует возможность переговоров с террористами, захватившими заложников. Их интересуют те особенности ситуации, прн которых было бы возможно безопасное освобождение заложников, даже если требования террористов не выполнены. В качестве альтернативы, что заложникам будет причинен вред, существует несколько переменных, предсказывающих их благополучное освобождение.
Например, число террористов, наличие поддержки их местным населением, являются лн они независимой группой или принадлежат к большой военной организации, характер их устных заявлений, тип и количество оружия, отношение числа террористов к числу заложников и т, д. Изучая предыдущие инциденты, в которых власти отказались выполнить требования террористов, эксперты должны найти ответ на следуюшие вопросы; !) какие из этих пераменных могут быть полезными для предсказания судьбы заложников; 2) как эти переменные могут быть связаны в математическую функцию для предсказания наиболее вероятного исхода; 3) какова точность предсказания. Дискриминантный анализ может обеспечить получение необходимых данных.