Болч К._ Хуань К.Дж. - Многомерные статистические методы для экономики (1185342), страница 34
Текст из файла (страница 34)
220 средних и ковариационные матрицы), то удовлетворительная классйфикация студентов может оказаться невозможной ввиду большого перекрытия между группамн. Рис. 7.1 иллюстрирует это соображение. Пусть на этом рисунке Х, обозначает устные оценки, а Х, — количественные оценки. Вспомним наше предположение о том, что оценки для каждой группы распределены нормально и с одинаковыми ковариационными матрицами.
Поэтому пусть два эллипса, показанные на рис. 7.1, являются линиями одного и того же уровня для плотностей 2 Уф Рис. 7.1. Эллипсц постояииой плотности, разделяющие плоскости и проекп,ии двух двумерных нормальных распределений. Обратите внимание, что эти два эллипса частично перекрываются.
Очевидно, что, чем ближе векторы средних, тем больше будет перекрытие для любой заданной постоянной плотности и тем труднее будет классификация между двумя совокупностями. Процедура линейного дискриминантного анализа заключается в нахождении такой линейной комбинации параметров Х, и Х„чтобы перекрытие распределений для этих двух групп было «малою. Линейная Функция 1„=.Р,Х„, +Р, Х„„. =1,~, ~=1,2, ...,и,, (7.1) называется линейной дискриминантной функцией с неизвестными ко" эффициентами р. Индекс ~ обозначает группу, а индекс 8 — номер наблюдения в группе.
Обратите внимание, что в отличие от регрессионного анализа, переменная У вЂ” это результат переменных Х, а не множество значений, которое требуется аппроксимировать с помощью переменных Х. Геометрически уравнение (7.1) определяет плоскость. Поэтому проекция Х;,~ и Х;,~ на эту плоскость преобразует двумерные оценки в одномерную оценку $'г~, Заметим, что в левой части рис. 7.1 эта плоскость разделяет эллипсы по линии ЛВ, проходящей через нх точки пересечения.
Проекцией линии АВ будет У'. Таким образом, эта плоскость так пересекает эллипсы, что болциая часть эллипса 1 оказывается ниже плоскости, а большая часть эллипса 11 оказывается выше плоскости. Студенты с Оценками, проектирукацимися на Ось У выше У®, будут отнесены к группе 1. Для одного из таких студентов проекция равна У1~. Студенты с оценками, пректирующимися ниже У'", будут отнесены к группе П. Для одного из таких студентов проекция равна У»~. Точно так же векторы средних для групп 1 и 11 проектируются на ось У в точках р,у, и ру,. Непрсвильная классификация происходит всякий раз, когда проекция оценки студента из группы 1 оказывается ниже У~ или когда проекция оценки студента из группы 11 Оказывается выше У~.
Из рис. 7.1 видно, что наблюдения, которые будут классифицированы неправильно, находятся в перекрывающейся части эллипсов (область неправильной классификации)~. Пользуясь этим рисунком, читатель должен попытаться сам убедиться в том„что если плоскость рассекает эллипсы в точках их пересечения, то область ошибочной классификации будет меньше, чем для любой другой плоскости, рассекаьщей эллипсы не в точках их пересечения. Однако существует бесконечное число плоскостей, проходящих через точки пересечения эллипсов. Например, одна из таких плоскостей с большим угловым коэффициентом показана в правой части рис.
7.1, Сравним теперь две дискриминантные плоскости на рис. 7.1. Пусть квадраты расстояний (р~, — ц~,)» и (рх, — рх,)» характеризуют разделение рассматриваемых двух групп левой и правой дискриминантными плоскостями соответственно. Каждое из этих расстояний измеряет вариацию между средними значениями классифицируемых отметок (наблюдений) для каждой группы, или, говоря кратко, межгруппавую вариацию. Из рис. 7.1 видно, что квадрат такого расстояния по оси У больше, чем по оси У. В этом отношении ось Е предпочтительнее Оси У, поскОльку мы хОтим В максимальнО возмОжной степени отделить одну группу от другой.
С другой стороны, заметим, что, например, для группы 1 вариация между проекциями на ось т" меньше, чем вариация между проскциями группы 1 на ось Я. Таким образом, для любых заданных У„и Я„величина (ӄ— р,~,)' меньше величины (Я1~ — рг,)». В этом отношении ось Я уступает оси У, поскольку вйдтригруггловая вариация для осн Я больше, чем для осп У. Повидимому, большая внутригрупповая вариация — это та цена, которую приходится платить за лучшее разделение средних (большую межгрупповую вариацию). Разумеется, болыная внутригрупповая вариация нежелательна, поскольку любое заданное расстояние между двумя средними тем менее значимо в статистическом смысле, чем больше вариация распределений, соответствующих этим средним.
Конечно, существует некоторая оптимальная днскриминантная плоскость, и ' Утверждение не совсем точное: в действительности неправильно расилассифицированнме наблюдения могут находиться и вне перекрыв»1окейся части эллипсов, и даже вне эллипсов. — Примеч, рад.
1 : ься по~редине между ру, и р~,. Для выборки Г~ = — (К, + У~), .~, пользуясь уравнениями (7.3) и (7.4), можно записать У"'" = — р (Х1+ Хй)- (7.13) ,Цля нашего примера 1174,46 ~ 1306,77 ~ При сделанных нами предположениях правило классификации можно выразить в следующей форме: классифицировать как группу 1, если $'гг ~ У*; классифицировать как группу 11, если Г;, <' Г". В качестве последнего шага определим вектор 1": 7'=~Уд~ Кг~ ...
У'г ~, $» ~ $»~~ ... Уу~ ~. Тогда можно записать дискриминантную функцию из (7.1а) для выборки: У=фХ'. (7.14) Теперь пользуясь (7.13) и (7.14), можно сформулировать правило классификации В его окончательном виде: классифицировать как группу 1, если 11Х' — — ~3 ~Х,+Х.):: О; (7.15) классифицировать как группу 11, если Р Х' — — Р' (Х, -г- Х,) с-О. Поясним ход вычислений на примере первой парыэкзаменационных оценок в первой группе (успевающпе студенты). Согласно табл. 3.2 Х1 = 750, а Х~ = 590.
Тогда — О,ОО43 (750) + 0,0289 (590) — 16,36 =- — 2,5. Это число меньше нуля, следовательно, данный студент был неправильно отнесен к группе И. Такие же подсчеты были выполнены с помощью программы и для остальных пар оценок из табл. 3.2, результаты приведены в приложении к зтой главе. Обратите внимание, что два студента были неправильно отнесены к группе 1, а два других студента были неправильно отнесены к группе 11.
Таким образом, среди 23 человек 19, или около 83о»,', были классифицированы ~грави.гьна. В главе 3 мы пришли к выводу„что словесные оценки для успевающих и неуспевающих студснтов не были существенноразличными. Читателю рекомендуется в качестве упражнения повторить всю.процедуру дискрнминантного анализа, пользуясь только количественными оценками. Выполнив зтот анализ, читатель обнаружит, что те же четыре студента „которые были неправильно классифицированы при использовании словесных и количественных оценок, оказались классифицированными неправильно и при использовании только количестве1ппг1х оценок.
С точки зрения ошибочной классификаций данной конкретной выборки студентов словесные оценки нисколько не увеличивают возможности дискриминации между группами успевающих и неуспевающих студентов. Результаты анализа, проведенного в главе 3, подтверждаются, и если способность этой функции классифицировать студентов на успевающих и неуспевающих нас удовлетворяет, то мы, по-видимому, могли бы воспользоваться ею в будущем при принятии решений о том, допускать студентов к аспирантскому курсу или не допускать. Проверка гипотез. Имеются три общих типа критериев, которые мы сейчас назовем: 1) критерий пригодности дискриминантной функции в целом'„2) критерий для принятия решения о том, согласуется ли некая гипотетическая дискриминантная функция с дискриминантной функцией, вычисленной по имеющимся данным; 3) критерий для включения некоторой переменной в эту функцию или ее исключения.
1. Если две генеральные совокупности однородны, то способа разделения этих двух совокупностей при помощи дискриминантной функции не существует. Если две генеральные совокупности неоднородны, то дискримипантная функция по определению пригодна, так как она основана на некотором оптимальном методе разделения совокупностей. Однако, если обе совокупности распределены нормально с одинаковыми ковариационными матрицами, то неоднородность может означать лишь неравенство векторов средних значений этих совокупностей. Следовательно, для проверки предполагаемой пригодности дискриминантной функции мы пользуемся статистикой Т' Хотеллинга из (3.23) и сравниваем ес значение с критическим значением Т', даваемым (3.24).