Дюран Б._ Оделл П. - Кластерный анализ (1977) (1185343), страница 17
Текст из файла (страница 17)
Некоторые методы, строго говоря, нельзя отнести ни к классу разделительных, ни к классу агломеративных; ' к таким методам относятся, например, методы, описанные в главе 1 [18], [33] и [237]. К этому же классу относится метод динамического программирования Джен. сена [183], описанный в главе 4. Очень мало сделано в области сравнения кластерных 102 методов. Очень трудно бывает определить, какой метод лучше. Выбор метода зависит как от целей исследования, так и от вида данных. Более того, в некоторых случаях вообще невозможно сравнивать два метода. Гауером [137] были сделаны сравнения методов Сокала и Миченера [334], Эвардса и Кавалли-Сфорца [93], Уильямса и Ламберта [394].
Рэнд [288] предлагает объективный критерий сравнения двух различных методов кластеризации. По другим вопросам применения кластерных методов см. Джардайн и Сибсон [180], глава 2, Борко [34] и Грин и Рао [144]. Фишер и Ван Несс [!02] определили некоторые условия приемлемости, которые можно считать желательными почти во всех случаях кластерного анализа и сравнения этих свойств для некоторых стандартных методов. Условия приемлемости позволяют отбросить те процедуры, которые приводят к «плохому» разбиению на группы. Однако одновременно с исключением «плохих» методов применение этих условий в некоторых случаях приводит к отбрасыванию и пригодных методов кластеризации.
Некоторые из условий приемлемости, рассматриваемые в [102], -обсуждаются также Хартигеном [162], Джонсоном [186], Джардайном и Сибсоном [178]. Работа Фишера и Ван Несса [103], в которой рассматриваются проблемы приемлемости дискриминантного анализа, также представляет некоторый интерес. Желаемое число кластеров, которые будут получены в результате применения того или иного метода кластеризации, может быть неизвестно.
Часто это число не определяется из результатов кластеризации. В иерархических (агломеративных) и разделительных методах исследователь может найти нужное т из рассмотрения различных иерархических уровней. В динамическом подходе число и необходимо знать заранее. Методы паттерн-рекогносцировки также требуют предварительного знания значения т.
Следующий, достаточно неопределенный момент связан с понятием сходимости метода. Это понятие обсуждалось нами при рассмотрении некоторых методов минимальной дисперсии в главе 1. Результаты кластеризации должны быть единственными. Если данные мультимодальны, а моды определены достаточно хорошо, то результаты кластеризации имеют тенденцию быть един- 1ОЗ ственными. Если данные представляют собой плоскую поверхность, т. е. такие, какие получаются, если выборку производить из равномерного распределения, то результаты кластеризации не обязательно будут единственными. Это приведет к нечеткому разбиению иа кластеры, и практически результатом разбиения будет один кластер, содержащий все объекты (гп=1).
Методы, которые мы обсуждали в этой монографии, предназначались для кластеризации объектов или элементов. Однако этн же методы можно применять и для кластеризации признаков или характеристик. В [!61] Хартиген предлагает метод двойной кластеризации, т.е. метод, который кластеризует и по объектам и по признакам одновременно. Кластерный анализ тесно связан с другими методами многомерного анализа, методом главных компонент, дискриминантным анализом, факторным анализом. Дискриминантный анализ предназначен для получения предварительной классификации данных. Перегруппировывая данные и вычисляя новое значение дискриминантной функции в результате итераций, приходят к «наилучшему» разбиению данных на группы. Касетти [45], Ханг и Дюбс [170] описывают программу применения этого метода.
Мейер [261] предлагает аналогичный метод, в котором пользуются одной характеристикой, представляющей наибольший интерес. В более поздней статье Мейер [263] рассматривает метод, при котором матрица наблюдений предварительно сокращается (р'(р) с помощью метода главных компонент, после чего для построения кластеров вводится критерий расстояния и линейная дискриминационная функция. Урбах [375] предложил метод дискриминантного анализа разбиения разнородной многомерной совокупности на группы; разбиения повторяются до тех пор, пока не будет получен удовлетворительный результат, который записывается в терминах вероятности «плохой» .классификации. ЛИТЕРАТУРА [!] АЬгаЬ а ш С.
Т. А по1е оп а шеавиге о! япи!агПу изей !и 1Ье Р!СО ехрегипепг, Аррепй!х 1, (сиаг!ег!у йерог1 3, $го!. Тч Соп$гас1 АР !9(626) — !О. [2] АЬ гаЬа гп С. Т. Еча!иаИоп о$ с!иь1егв оп (Ье Ьаяв о! гвийош КгарЬ !Ьеогу, УогМожп Не!8Ь(в, ?$. Ул 1ВМ СогрогаИоп, 1ВМ йев. Метло. Ноч., !962. [3] АйЬ ! 2 а г! В. Р, апй йо з Ь! О. Р. О!в1апсе гйзсг!пипабоп е1 гевшпе ехЬаивИ1, РЬ!я 1пь1. 51аИв1., Уо!. 5, (!956), 57 — 74. [4] А!18'еп М, А.
Т!зе согге!айоп Ье!чгееи чапа!е чв!иез аий гапЬь !п а йоиЫу $гипса1ей попив! й!ь!г!Ьийоп, В!оше!г!)га, З7о!. 53, Раг1з !/2, (1966), 281 — 282. [5] АпйегЬег8 М. й. С1ив1ег апв1уяв $ог аррПсаИопз, (!и ргеьь), Оес., !97!. [6] АпйегЬегй М. й. Ап Аппо$а1ей В!Ы!ойгарЬу о1 С!иь1ег Апа!уяв,МесЬап!са! . Епб!пеег!пб Оераг$шеп1, $)п!четв!!у о$ Техав а1 Аивйп (!и ргерагайоп), (1972). [7] Апйегвоп Т.
)$7. Ап !п1гойисИоп 1о Ми)йчаг!а1е Б!аИзИса1 Апа1ув!в, ]оЬп $)г!!еу 8 Бонз, 1пс., Ь(ем уог(г, (!958). А н д е р с о н Т. Введение в многомерный статнстнческйй анализ. М., Фнзматгнз, !963. [8] АгсЬе г %. В. Сошри1айоп о1.Огоир ЯоЬ Оезсг!рИопз 1гош Оссира$!опа! Бигчеу Ра1а, Керог1 Хишбег Рй(:Тй-бб-!2, Регвоппе! КезеагсЬ (.аЬога1огу, Еас)г!апй АРВ, Техав, 31 рр.
[9] Аггп ь1гои 8 Л Б. апй 3 ое!Ь ег д Р. Оп 1Ье 1п1егрге1аИоп о$ !ас$ог апа!уяь, РьусЬр!. Вий., 70 (1968), 361 — 364. [10] Ав1гаЬап М. М. БреесЬ Апа!уяв Ьу С1из(ег!пй, ог (Ье НурегрЬопепзе Ме1Ьой, Б!ап(огй Аг(И1с!а! !п(ей!8епсе Рго!ес1 Мешо А1М-!24, Б!ап!огй Ошчегзйу, 22 рр., (!970). [!1] В а ! а ь Е, Ап айй!Иче а18ог!(Ьш $ог во!ч!пб Ипеаг рго8гагпв тч!1Ь гего-опе чапвЫев,'ОрегаИопз йев., 13 (1965), 517 — 546. [!2] Ва1!пв1г! М. 1.. !п[е8ег ргобгапип!пйр ше(ЬогЬ, ивез апй сошри$абоп, Мапа8ешеп( Бс1., !2 (?(оч. !965), 253 — 3!3. [13] В а !1 О. Н. А Сошрагмоп о1 Боше С!иь1ег — БееЫпй ТесЬп1- 9иез, йерог1 Ь)ишЬег КАРС-Тй-66-514, Б!ап!огй йевеагсЬ 1пв1, Меп!о РагЬ, Саиогша, 47 рр., (1966). [14] В а !! О.
Н. С1авв!ПсаИоп Апа!ув1в, ТесЬпгеа! Ь)о!е, Б(ап1огй йезеагсЬ 1пв1. Меп1о Раг1г, СаЬтогп1, (!970). [15] В а11 О, Н. Ра1а Апа!уяз 1и 1Ье вос!а! вс!епсев — гчЬа1 аЬои1 йе1айв? Ашепсап Гейегайоп о$1п1огшаИоп Ргосеьь!пй Бос!еИев Соп1егепсе Ргосеей!пбя 1965 РвП ао!и( Сошри1ег Соп(егепсе, 27. (1965), Раг$ 1, 533 — 560, ($$?азЬ!пб(оп; Браг. 1аи ВооЬя 1.опйоп: Маспи!1ап]„ [16) В а11 О. Н. апй На!1 О.
Х. А с!ив1ег!пй 1есипщие 1ог зшпгпаг!г!пй пшИ!чапа1е йа1а, ВеЬачюга! 5с1епсев, Чо!. 12, Хо. 2, (Маг., 1967), 153 — 155. [17) Ва!1 О. Н. апй На11 О. Л. Вас)гбгоипй )и!оппаИоп оп с)ив1ег!пб 1есЬпщиев, 5(ап1огй йеьеагсЬ 1пгй» (Зи!., 1968). [18) В а11 О. Н. апй На!1 О. з. 15ООАТА, А. Хоче1 Мебюй о1 Оа1а Апа1уыв апй РаИегп С! азв!1каИоп, ТесЬп1са! йерог1, Меи!о Раг)с, СаШогп1а: 5(ап1огй йевеагсЬ 1пв1., 72 рр., (1965).
[19] Ва11 О. Н. апй На!! О. н. РйОМЕХАОŠ— Ап Оп-1.(пе Ра1(егп йесобп!Иоп буЫеш, йерог1 ХшпЬег йАОС-Тй-67-3!О, 5!ап1огй йевеагсЬ !пв(., 124 рр., (1967). [20] В а)ге г Р. В. Ьа1еп! с1авв апа1уьВ ав ап аввос1аИоп июйе! 1ог 1п(оппаИоп ге1г!ена1, 1и 5(енепв, Огийапо апй Нейрпп (ейь.), 51аИзйса) Азьос(айоп Мейойв )ог МесЬап!зей Ооеишеп!аИоп, Хабопа! Вигеаи о( 51апйагйз М!всейапеоив РиЬИсайоп ХшпЬег 269, !). 5. Оонегпшеп! Рг1ийпб Обйсе, %авЫпб(оп, О. С,, (1965), 149'— 155. [2!] Ваг1е!в Р, Н,, ВаЬг О.
Г., Са!Ьоип О, %. апй )Ч1е й О. 1.. СеИ гесобп!йоп Ьу пе!дЬЬогЬоой йгоцр!пд 1есипщие !и Т1СА5, Ас1а Суго!об!са. Чо!. !4, Хо. 6, (Ш70), 313 — 324. [22] В а г1о п О. Е. впй О а ч!й Р. Х. 5реапиапь 'йЬо' апй 1Ье ша(сЫпб ргоЫеик Вгй. Л. 51аИаЬ РьусЬо1., 9 (1956), 69 — 73. [23) Вава В. М. Негайче !пчегве 1ас(ог апа!ув(з — а гарЫ ше1- Ьой 1ог с!из(ег!пй регвопв, РзусЬоше1г!Ьа, Чо1. 22, Хо. 1, . (Маг., 1957), 105 — 107. [24] В ах ел й а!е Р. Ап ешр!г)са1 пюйе! (ог согори1ег !пйех!пб, МасЫпе 1пйех!пбв Ргобгевв апй РгоЫепзз, Ашепсап ()п(чегвйу, ЧуавЫиб(оп, О.
С., (ГеЬг. 13 — 17, 1961), 267. [25] Веа!е Е. М. 1., Еис1Ыеап с!ов1ег впа!ув!з, Ви11. 1. 5. 1., 43, 2 (1969), 92 — 94. [26) Вез!е Е. М. 1. 5е!есйпб ап орИппии зиЬзе1, !и Л, АЬайе (ей.), 1п(едег апй Хоп!(пеаг Ргобгашш!пд, Ашв!егйаш: Хог(Ь Нойапй РиЫЫЫпб Сошрапу, (1970): [27] Ве!!шап й. Е, апй Огеу1ив 5г Е. АррИей Оупаппс Ргобгаппп!пб, Рг!псе!оп, Х. Лс Рппсе(оп ()п!нега!(у Ргевз, (1962) . Беллман Р., Дрейфус' С. Прикладные задачи динамического программирования.
М., «Наука», 1965, [28] В ел й егв Л. Г. РагШюпшб ргосейигез 1ог во!ч!пб пихейчапаЫев ргобгапнп)пб ргоЫешв, ХшпепзсЬе Ма(ЬешаИЬ, 4, (РеЬг. 1962), 238 — 252. [29] ВЬ а11асЬагу у а А. Оп а шеаьиге о( й!чегдепсе Ье1агееп 1»но в(аИвИса! рори!а11опв йейпей Ьу (Ье!г ргаЬаЬг!йу Шв1г1- Ьи(юпв, Вий. Са1си11а Майк 5ос,, Чо1. 35, (1943),,99 — !09. [30) В1г п Ь а и ш А.