Айвазян С.А., Бухшгабер В.М., Енюков И.С., Мешалкин Л.Д. - Прикладная статистика (1027378), страница 37
Текст из файла (страница 37)
е. обусловлены влиянием множества случайных, не поддающихся управлению и учету факторов) и незначительны по сравнению с различиями в потребительском поведении семей, представляющих разные типы. При этом предполагается, что случайный разброс структур потребительских поведений У Е внутри любого (1-го) типа описывается многомерным (в нашем случае р-мерным) норл1альным законом распределения с некоторым вектором средних (и в то же время — наиболее характерных, наиболее часто наблюдаемых) значении 1! ) а си аф а(!) =- аМ ич и с ковариационной матрицей он(/) о,хО) ...
о,р (!) ият()) азх(!) ... озр (!) ор,(/) ор ()) ... ирр()) (см. сведения о многомерном нормальном законе в 111, и. 6.! .5!). Однако в начале исследования нет сведений об упомянутых гипотетических типах потребительского поведения: неизвестно ни их число я, ни значения определяющих этн типы многомерных параметров О( ---. (а (1), Х (1)). Г1оэтому вынуждены рассматривать имеющиеся в нашем распоряжении результаты бюджетных обследований семей У„)'„..., У„ (6. 2) как выборку из генеральной совокупности, являющейся смесью многомерных нормальных законов распределения. Другими словами, функция плотности Г (У), описывающая распреде- ление вектора У в этой объединенной генеральной совокуп- ности, имеет вид 1()') — ~ Рг Рб', а(!)1 ~0)), (6Л) <=1 где р, (!' = 1, 2, ..., Й) — не известный нам удельный вес (априорная вероятность) семей 1-го типа потребительского поведения в общей совокупности семей; <р (У; а (!); Е (!)) = 1 — <т — <гн х«;,' т — <гп е 1 <зя) ! л (!Н многомерная нормальная плотность, описывающая закон распределения исследуемого признака 1'(!) внутри совокупности семей 1-го типа потребительского поведения (! = 1, 2, А).
Далее необходимо по выборке (6.2) оценить неизвестные значения параметров й, р„р,, ..., рд,, а(!) и Х (!) (! = 1, ..., А) модели (6.3), чтобы в конечном счете суметь раскласснфицировать (в определенном смысле наилучшим образом) семьи <6.2) по искомым типам потребительского поведения. Общая схема действии, увязывающая задачу статистическо<о оценивания параметров смеси типа <6.3) с задачей автоматической классификации, изложена в п.6.2. 6.1.2. Общая математическая модель смеси распределений. Рассмотренные а примерах смеси (6.1) и (6.3) представляют собой частные случаи общей модели смеси, определение которон дадим здесь. О<юбщение рассмотренных в примерах смесей может быть произведено в направлении: 1) отказа от конечности и даже дискретности компонентов, составляющих смесь, распространения понятия смеси на непрерывную смешивающую функцию; 2) отказа от однотипности участвуя<щит в смеси компонентов (под однотипностью компонентов-распределений понимается их принадлежность к общему параметрическому семейству распределений, например к нормальному).
Итак, пусть имеется двухпараметрическое семейство рмерных плотностей (полигонов вероятностей) распределения Г =- (!„> (Х; О (<я)) ), (6.4) где одномерный (целочисленный илн непрерывный) параметр <» в качестве нижнего индекса функции ! определяет <88 7(Х) = ~( (Х; 0(гв))йр(ю)) (6.6) называется Р-смесью (или просто смесью) распределений семейства Г (интеграл в (6.6) понимается в смысле Лебега— Стильтьеса; см., например, [86[).
Нас интересует использование моделей смесей в теории н практике автоматической классификации, поэтому сузим данное выше определение смеси и будем рассматривать в дальнейшем лишь случай конечного числа й возможных значений параметра !о, что соответствует конечному числу скачков смешивающих функций Р (!о).
Величины этих скачков как раз и будут играть роль удельных весов (априорных вероятностеи) р, компонентов смеси (( = — 1, 2, ..., А), так что (6.6) в этом случае может быть записано в виде (6.6') у=- ! Если же дон оп н ител ьно постул ировать сднотипность компонентов-распределений 77 (Х; 0 (()), т. е.
принадлежность всех )7 (Х; О([)) к одному общему семейству (~(Х; О)), то модель смеси может быть представлена в виде (6.6") 7=.. ! Интерпретация в задачах автоматической классификации )ьго компонента смеси ()ьй генеральной совокупности) в качестве )-го искомого класса (сгустка, скопления) обусловливает естественность дополнительного ограничения условия, накладываемого на плотности (полигоны вероятностей) 77 (Х; 0([)) и заключающегося в их одномодальности.
6.1.3. Задача расщепления смеси распределений. Решить 187 специфику общего вида каждого компонента — распределения смеси, а в качестве аргумента при многомерном, вообще говоря, параметре 0 определяет зависимость значений хоти бы части компонентов этого параметра от того, в каком именно составляющем распределении 7'„он присутствует. И пусть Р = (Р (!о)) (6.5) — семейство смешиаиощик функций распределения. Функция плотности (полигон вероеиноспчей) распреде- эту задачу в выборочном варианте — значит по выборке классифицируемых наблюдений (6.7) извлеченной из генеральной совокупности, являющейся смесью (6.6) генеральных совокупностей типа (6.4) (при заданном общем виде составл яющих смесь функций 7„(Х.
0(ы)), настропать статистические оценки для числа компонентов смеси й, их удельных весов (априорных вероятностей) р„ р,, ..., Рь н. главное, для каждого из компонентов 7ч (Х; 0(ы)) анализируемой смеси (6.6). В некоторьж частных случаях имеющиеся априориыесведения дают исследователи» точное знание числа компонентов смеси й, а иногда и априорных вероятностей р„р.„..., р„. Тогда задача расщепления смеси сводится лишь к оцениванию функций 7„(Х; 0(<в)). Однако не следует с~авить знак тождества между задачей расщепления смеси и задачей статистического оценивания параметров в модели (6.6) по выборке (6.7), поскольку задача расщепления сохраняет смысл и применительно к генеральным совокупностям, т.
е, в теоретическом варианте. В этом случае она заключается в восстановлении компонентов ) (Х; 0 (ы)) и смешивающей функции Р (ы) по заданной левой части 7" (Х) соотношения (6.6) и называется задачей идентификации компонентов смеси. В п. 6.3 показано, что эта задача не всегда имеет единственное решение. 6.2. Общая схема решения задачи автоматической классификации в рамках модели смеси распределений (сведение к схеме днскриминантиого анализа) Базовая идея, лежащая в основе принятия решения, к какой из й анализируемых генеральных совоку пностей отнести данное классифицируемое наблюдение Хп состоит в том, что наблюдение следует отнести к той генеральной совокупности, в рамках каторги оно выглядит наиболее правдоподобныи.
Другими словами, если дано точное описание (например, в виде функций 7", (Х), ..., 7' д (Х) плотности в непрерывном случае или полигонов вероятностей в дискретном) конкурирующих генеральных совокупностей, то следует поочередно вычислить значения функций правдоподобия для данного наблюдения Х; в рамках каждой из рассматриваемых генеральных совокупностей (т. е.
вычислить значения ), (Х»), ), (Х~), ..., )ь (Х )) и отнести Х, к тому классу, функция правдоподобия которого максимальна'. Если же известен лишь общий вид функций )'> (Х; 6,), 7> (Х; Оз), ..., 7'„(Х; Оь), описывающих анализируемые классы, но не известны значения, вообще говоря, многомерных параметров 6,, Оя ..., 6„, н если прн этом располагают так называемыми обучающими выборками, то данный случай лежит в рамках параметрической схемы дискриминантного анализа и порядок действии будет следующим (см.
гл. 2 и 3): сначала по 1чй обучающей выборке оцениваем параметр 6; (1= 1, 2, ..., й), а затем производим классификацию наблюдений, руководствуясь тем же самым принципом максимального правдоподобия, что и в случае полностью известных функций >> (Х). В схеме автоматической классификации, опирающейся на модель смеси распределений, как и в схеме параметрического ДА, задающие искомые классы функции )<> (Х; 6,), > (Х; 6,),... также известны лишь с точностью до значении параметров. Но в схеме автоматической классификации неизвестные значения параметров 6>, 6„..., так же, впрочем. как и параметров й, р„р,, р„, оцениваются не по обучающим еь<боркам (их нет в распоряжении исследователя), а по классифицируемым наблюдениям Х,, Х„..., Хя с помощью одного из известных ме~одов статистического оценнвания параметров (метода максимального правдоподобия, метода моментов или какого-либо другого; см, о процедурах статистического оценивания параметров смеси в 9 6А).
Начиная с момента, когда по выборке (6.7) сумели получить оценки й, р„р„..., рю О„..., 6х неизвестных параметров й, р„р„ рю 6> Ою ..., Ох модели (6.6') или (6.6"), снова имеем схему дискриминантного анализа и собственно процесс классификации наблюдений (6.7) производим точно так же, как и в схеме параметрического ДА (т. е. относим наблюдение Х> к классу с номером )е, если р;,уб (Х,; 6„) = >пах (р> х ху>(Х;; 6,))). Итак, главное отличие схемы параметрического ДА от схемы автоматической классификации, производимой в рамках модели смеси распределений, — в способе оценпеания непзвестнь<х пирометров, от которых зависят функции, оп исывающие классы.
Но оценнвание параметров в модели смеси— процесс неизмеримо более сложный, чем оценивание параметров по обучающим выборкам. ' Для большей ясности здесь водразумеваегся простой случай равных апвяорвых вероятностей в равных потерь от неправильного отвесеввя наблюдения Х> к любому из классов. Более обв>ав схема в более подробно представлена в гл.1. 189 О.З. Идеитифицируемость (различимость) смесей распределений Семейство смесей (6.6) (Р(в» Е Р, см.
(6.5)) называется иден- а>и4>и>(ируемым (различимым), если из равенства следует, что Р (о» = Рч (о>) для всех Р (м) Е Р. Поскольку нас интересуют в первую очередь конечные смеси типа (6.6'), переформулируем понятие идентифнцнруемости (разлнчнмости) смесей специально применительно к ннм. Конечная смесь (6.6') называется иденпшфиг4ируемой (различимой), если из равенства следует:й = И и для любого) (1 <1 ( й) найдется !акое Я (1 ( 1(й~), что рт = р! и ~т(Х; О(1)) = — 1>(Х; О*Я). В работах 1320, 321, 3271 сформулированы необходимые и достаточные условия различимости для непрерывных и конечных смесей. Из ннх, в частности, следует, что различными являются конечные смеси нз распределений: 1) нормальных (в том числе многомерных); 2) экспоненциальных; 3) нуассоновских; 4) Коши. Описание и свонства перечисленных распределений см., например, в 111, гл.