И.С. Енюков, С.Б. Королёва - Факторный дискриминантный и кластерный анализ (1119914), страница 27
Текст из файла (страница 27)
Кроме того, это доказывает, что наша первая функция статистически значима. После определения первой функции, снова проверим значимость оставшихся различий. Как и следовало ожидать, значение статистики хи-квадрат стало меньше, а уровень значимости стал равным 0,224 (й 1). Большинство исследователей будут считать этот результат незначимым, поэтому определять вторую и третью функции не следует, полагая таким образом, что вся значимая информация о различиях групп уже извлечена, Другими словами, одного-единственного измерения достаточно для представления всех замеченных различий между группами.
Второе измерение (которое вместе с первым обрадует плоскость) не добавит никаких существенных различий. Но если бы вместо этого была установлена значимость остаточной дискриминантной способности, то мы приступили бы к определению второй функции. Затем проверка значимости для новой остаточной дискриминаитной способности была бы повторена (й=2).
В нашем примере уровень значимости так велик (0,954), что никто не посчитал бы оставшиеся различия значимыми. Следовательно, нет абсолютно никакой необходимости нычислять третью функцию, так как она вряд ли что-либо добавит к объяснению различий между группами. Найденный результат помогает понять, почему у нас было так много трудностей при интерпретации структурных коэффициентов функции 3 и почему не было обнаружено больших различий между центроидами групп по этой функции.
В рассматриваемом примере число статистически значимых функций меньше того, которое допускается математикой Одечако так бывает не всегда. Во многих ситуациях остаточная дискриминантная способность для й=д — 1* оказывается значимой. В таком случае нужно вычислить все возможные функции (вплоть до й=й — 1), если, конечно, нет других причин не делать этого (таких, ~например, как низкая каноническая корреляция). Примем разумное решение — продолжить определение функций до тех пор, пока остаточная дискриминантная способность перестанет быть значимой. Таким образом, мы можем быть уверены в том, что полученные функции являются статистически значимыми в целом каксистема. Это не доказывает значимость какой-либо одной функции (если, конечно, она ие была получена специально), а скорее дает значимость всех полученных функций.
А поскольку мы используем функции как систему и наша цель — привести информацию, необходимую для разделения, к наименьшему числу размерностей, то этого вполне достаточно, Единственная реальная проблема, которая может быстро уничтожить любой исследовательский проект, возникает, если общее количество информации является незначимым, т. е. при я=б (если только не нужно показать, что между классами нет различий). ' Более точно е=оч1о (я — 1, р).
— Примеч. ред, Здесь мы рассмотрели все то, что обычно делает исследователь, но для лучшего усвоения — в обратном порядке. Логически исследователь должен начать с вопроса: «Какая из моих функций является статистически и реально значимой?» Нет необходимости продолжать анализ любой функции, исключенной из рассмотрения. Для выбранных функций исследователь должен сочетать рассмотрение структурных коэффициентов с определением положений центроидов классов, чтобы выявить значение каждой функции.
Структурные коэффициенты дают, кроме того, информацию о том, как каждая из переменных участвует в различении классов в этой системе координат. В некоторых исследованиях работа аналитика заканчивается вместе с окончанием интерпретации канонических дискриминантных функций. Более вероятно, исследователь продолжит классификацию объектов — либо для практических, либо для аналитических целей, что и является темой следующего раздела. !7. ПРОЦЕДУРЫ КЛАССИФИКАЦИИ Как уже было сказано, целью дискриминантного анализа является решение двух задач: интерпретации н классификации.
До снх пор внимание фокусировалось в основном на задаче интерпретации, которая связана с определением числа н значимости канонических дискрнмннантных функций и с выяснением их значении для объяснения различий между классами. Классификация — это особый внд деятельности исследователя, в котором либо дискриминантные переменные, либо канонические дискримннантные функции используются для предсказания класса, к которому более вероятно принадлежит некоторый объект. Существует несколько процедур классификация„но все онн сравнивают положение объекта с каждым нз центроидов классов, чтобы найти «ближайший». Например, целью исследования Бардес было сформировать подпространство, определяемое канонической дискриминавтной функцией, используя данные о 19 сенаторах и выделенных фракциях. Затем она, воспользовавшись результатами их голосования, вычислила значения дискриминантной функции для позиций остальных сенаторов и смогла отнести позицию каждого сенатора к одной из четырех групп.
Таким образом, она определила размеры н состав фракций и выяснила, как они изменяются со временем. КЛАССИФИЦИРУЮЩИЕ ФУИКЦИИ Классификация — это процесс, который помогает исследователю принять решение: указанный объект «прннадлежит к» нли «очень похож на» данную группу (класс). Такое решение принимается на основе информации, содержащейся в днскримннантных переменных. Существует несколько способов проведения классификация.
Обычно они требуют определения понятия «расстояния» !!2 между объектом и каждым центроидом группы, чтобы можно было п иписать объект к «ближайшей» группе. Р роцедуры классификации могут использовать или самими днскриминантные переменные, илн канонические дискриминантные функции. В первом случае днскриминантный анализ вовсе не проводится". Здесь просто применяется подход максимизации различий между классами для получения функции классификации.
Различение классов или размерность дискрнминантного пространства ~на значимость не проверяется. Если же сначала определяются канонические днскриминантные функции н классификация проводится с их помощью, можно провести более глубокий анализ. К этому мы вернемся позднее, а сейчас продолжим рассмотрение классификации, когда дискриминантные переменные используются непосредственно. Простые классифицированные функции Фишер (1936) был первым, кто предположил, что классификация должна проводиться с помощью линейной комбинации дискрнминантных переменных. Он предложил применять линейную комбинацию, которая макснмизирует различия между классами, но минимизирует дисперсию внутри классов. Разработка его предложения приводит нас к определению особой линейной комбинации для каждого класса, которая называется «классифицирующая функция»'. Она имеет следующий вид: йд=йдо+Ьд1Х1+ЬдзХа+ "'+ЬдрХр (12) где Ьд — значение функции для класса й, а Ьд,— коэффициенты, которые необходимо определить.
Объект относится к классу с наибольшим значением (наибольшим Ь). Коэффициенты для классифицирующих функций определяются с помощью таких вычислений: Ьд,= (п -д) 2, а„Х,д (1З) где Ьд, — коэффициент для переменной 1 в выражении, соответствующему классу )г, а а„— элемент матрицы, обратной к внутри- групповой матрице сумм попарных произведений (ртз. Постоянный член определяется так: (14) Ьде= — 0.5 ~., 'ЬдрХ,д Мы обычно не интерпретируем этн коэффициенты классифици.
рующей функции, потому что они не стандартизованы и каждому классу соответствует своя функция. Точные значения функции ро- * Во многих работая именно этн функции называкпси дискрнминантными функциями, а функции, определяемые из соотношения (4), — каноническими переменными нли каноническими дискриминаитиыми функциями (каноническими направлениями).
— Примеч ред ыз Таблица 11 Коэффициенты простой каассифицирукпцей функции ли не играют: нам нужно знать лишь, для какого класса это значение наибольшее. Именно к нему объект ближе всего. Функции, описываемые соотношением (12), называются «простымн классифицирующими функциями» потому, что они предполагают лишь равенство групповых ковариационных матриц и не требуют никаких дополнительных свойств, обсуждаемых далее.
Рассмотрим табл. 11, в которой приведены коэффициенты классифицирующих функций для данных о голосовании в сенате, чтобы проиллюстрировать использование этих функций. Применив такую функцию к первичным данным по позиции сенатора Айкена, мы получим следующие значения для четырех групп: 89,?42; 46,578; 78,101 и 78,221. Поскольку первое значение — наибольшее, мы отнесем позицию Айкена к первой группе (что является верным предсказанием). Обобщенные функции расстояния Более понятным способом классификации является измерение расстояний между объектом и каждым из центрондов классов, чтобы затем отнести объект в ближайший класс.
Однако в тех случаях, когда переменные коррелированы, измерены в разных единицах и имеют различные стандартные отклонения, бывает трудно определить понятие «расстояния», Индийский статистик Махаланобис (1963) предложил обобщенную меру растояния, которая устраняет эти трудности. Мы можем использовать ее в следующей форме: р р Ю(Х(ба)=(п — и) 2', 2„ан(Х; — Х,а ) (Х,— Хто ), (15) а=1 7=~ где 11'(Х~ ба) — квадрат расстояния от точки Х (данный объект) до центроида класса й. После вычисления Рт для каждого класса классифицируем объект в группу с наименьшим Ю. Это класс, чей типичный профиль по дискриминантным переменным больше похож на профиль для этого объекта, Если расстояние до ближай- 1Ы щего класса велико, то согласие между профилями будет плохим, но по сравнению с любым другим классом — хорошим.
Соотношение (15) предполагает, что классы имеют равные ковариационные матрицы. Если это предположение не выполняется, то выражение можно модифицировать, как предлагает Татсуока (1971; 222). Вероятность принадлежности к классу Оказывается В» обладает теми же свойствами, что и статистика хи-квадрат с р степенями свободы. Таким образом, мы измеряем расстояние в «хн-квадрат единицах». Если предположить,что каждый класс является частью генеральной совокупности с многомерным нормальным распределением, то большинство объектов будет группироваться вблизи центроида, и нх плотность будет убывать по мере удаления от центроида. Зная расстояние от центроида, можно сказать, какая часть класса находится ближе к центроиду, а какая — дальше от него. Следовательно, можно оценить вероятность того, что объект, настолько-то удцленный от центроида, принадлежит классу.