Айвазян С.А., Бухшгабер В.М., Енюков И.С., Мешалкин Л.Д. - Прикладная статистика, страница 8
Описание файла
DJVU-файл из архива "Айвазян С.А., Бухшгабер В.М., Енюков И.С., Мешалкин Л.Д. - Прикладная статистика", который расположен в категории "". Всё это находится в предмете "системы автоматизированного проектирования (сапр)" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "книги и методические указания", в предмете "интеллектуальные подсистемы сапр" в общих файлах.
Просмотр DJVU-файла онлайн
Распознанный текст из DJVU-файла, 8 - страница
В определенных условиях (в первую очередь в задачах педагогики, психологии, построения различных рейтингов' и т, п ) построенные таким образом условные переменные поддаются содержательной интерпретации и могут тогда рассматриваться в качестве латентных характеристик определенных свойств анализируемых объектов (такого типа задачи называют часто задачами латентно-структурного анализа). Снижение размерности происходит здесь в том смысле, что от исходного массива информации размерности л х и переходим к матрице типа «объект — свойствою (см.(В.1)) размерности р' хп, где р' .~", п Аппарат для решения подобных задач состоит из методов так называемого многомерного иисалирования и представлен в гл. 16.
В.З. Типологизация математических постановок задач классификации и снижения размерности Целесообразность и эффективность применения тех или иных методов классификации и снижения размерности так же, как их предмегная осмысленность, обусловлены конкретизацией базовой математической модели, т. е. математической постановкой задачи. Определяющим моментом в выборе математической постановки задачи является ответ на вопрос, на какой исходной информации строится модель. пр....,'.„.д...,.е,р„„„. 'в ь« * и О1 р обычно результаты попарныя сравнений обьектов О, к Оу по анализируемому результирующему свойству н, следовательно, представляют одну нз возможных форм обучающей ннформапнн (см. В.З).
33 2 Заказ № 291 тей: 1) ив априорных сведений об исследуемых классах; 2) из информации статистической, выборочной, т. е. так называемых обучающих или частично обучающих выборок (точные определения см. в й 2.1 и 9.1). Априорные сведения об исследуемых генеральных совокупностях относятся обычно к виду или некоторым общим свойствам закона распределения исследуемого случаиного вектора Х в соответствующем пространстве и получаются либо из теоретических, предметно-профессиональных соображений о природе исследуемого объекта, либо как результат предварительных исследований.
Получение выборочной исходной информации в экономике и социологии, как правило, связано с организацией системы экспертных оценок' или с проведением специального предварительного этапа, посвященного решению задачи простой типологизации анализируемых объектов в пространстве результирующих показателей (см. выше пример В.!). Классификация задач разбиения объектов на однородные группы (в зависимости от наличия априорной и предварительной выборочной информации) и соответствующее распределение описания аппарата решения этих задач по главам и параграфам данной книги представлены в табл.
В.4. Математическая модель, лежащая в основе построения того или иного метода снижения размерности, включает в себя обычно три основных компонента 1. Форма задания исходной информации. Речь идет об ответе на следующие вопросы: а) в каком виде (т. е.
в виде (В.!), (В.!') нли еще каком-либо) задана описательная информация об объектах? б) имеется ли среди исходных статистических данных обучающая информация, т. е. какие- либо сведения об анализируемом результирующем свойстве? в) если обучающая информация присутствует в исходных статистических данных, то в какой именно форме она представлена? Это могут быть, в частности, в привязке к объекту О~ (1 = 1, 2, ..., л): значения «зависимой» количественной переменной («отклика») у; в моделях регрес- ' Медяке.бнологнческне н фнзнко-техннческне задачи имеют в этом смысле определенное пренмущество там обучающие ныборкн можно получнть с помощью спецнально органнзованного контрольного экспернментального нсследозання.
Спецнфнка же соцнальноэкономнческнх ксследонаннй до последнего временн практнческн нсключала возможность нспользовання идей н методов контролнруемого н планнруемого эксперимента Ло последнего ерше»на потому, что проводящиеся сейчас и стране работы по созданию средств машинного экспернмента в экономнке !1001 дают надежду на возможность осуществлення подходов, основанных на актннном эксперименте в экономнке, уже в ближайшем будущем.
34 Непарамет- рнческке методы днскрнмн нантного анализа (4 3.2) Параметры- ческке ме. тоды днс- крнмннант- ного ана- лиза (гл. 2 — 4) Различаемые генеральные сово. купностн заданы однозначным описанием соответствующих законов распределения Некоторые самые общие поедполо. ження о законе распределения ис. следуемого некто.
ра гладкость, со. средоточенность внутри ограниченной области н т. п. Разлкчаемые ге керальные сово купностн заданы в виде параметрк ческого семейства законов распре деленкя вероят ностей (парамет ры неизвестны) Классификация без обученкя кла- стер-аналкз, так сономня, распоз наванне образов «без учителя», иерархические процедуры хласек фнкацнк (гл. Б, 7 8, 10 — 12) Интерпретация исследуемой гене. ральной совокупностк как смеси нескольккх генеральных совокуп. ностей «Расщепление» этой сме си с помощью мего.
дов опеннванкя неизвестных пара. метров (гл, 6) Классификация прн полностью описанных классах различение статнстнческкх гипотез (гл 1) Табл кца В4 Методы кластер- аналнза, дополнен- ные осно- ванным на частично обучающих выборках выбором начальных приближе- ний чксла к центров классов, нх коварнацн- онных матриц (9 7 3, гл. 9) Методы расщепления смеси, дополненные оценками, полученными нз частично обучающих выборок Модификация методов кла- стер-анализа (гл 9) Обучающие выборки не нужны сии; номер однородного по анализируемому свойству класса, к которому относится объект О, в задаче классификации; порядковый номер (ранг) объекта О> в ряду всех объектов, упорядоченных по степени проявления рассматриваемого свойства, в задачах анализа предпочтений и построения упорядоченных типологизаций; наконец, значения 'г", = — (у,">, ..., у~«>)' набора результирующих признаков, характеризующих анализируемое в классификационной задаче свойство (см.
пример В.1)'. 2. Тип оптимизируемого критерия >' ° (Е) информативности искомого набора признаков Х = (ги>, ..., г«п'>)' Как уже отмечалось, критерий информативности может быть ориентирован на достижение разных целей. Следует выделить целый класс критериев автоинформативности, т.
е. критериев, оптимизация которых приводит к набору вспомогательных переменных д = (г<», ..., аое>)', позволяющих максимально точно воспроизводить (в том или ином смысле, в зависимости от конкретного вида критерия) информацию, содержащуюся в описательном массиве данных типа (В,1) или (В.1'). Если описательная информация представлена в виде матрицы «объект — свойство» (В.1), то речь идет о максимально точном восстановлении рхл значений исходных переменных х!'>, х,"', ..., х)л> по значениям существенно меньшего числа (р' ха) вспомогательных переменных г!», ..., г>л', Если же описательная информация представлена в виде матрицы попарных сравнений объектов (В.1'), то речь идет о максимально точном воспроизведении и' элементов этой матрицы а,> (>, 1 =. 1, ..., и) по значениям существенно меньшего числа (р'>сп) вспомогательных переменных гы>, ..., г>!и > (> — 1, ..., и).
Будем называть критериями внешней информативности (имеется в виду информативность, внешняя по отношению к информации, содержащейся в описательном массиве (В.1) или (В.1')), такие критерии 1» (Л), которые нацелены на поиск экономных наборов вспомогательных переменных Х (Х) == (г!»(Х), ... х!»'> (Х))', обеспечивающих максимально точное воспроизведение (по значениям Х, а значит в конечном счете по значениям Х) информа- з Перечисленные варианты не исчерпывают всех возможных форм представления обучающей информации. Так, например, прн надлежащей интерпретации элементов п,> матрицы (В.!') она может быть также отнесена к разновидностям обучающей информации (если, скажем, аи понимать как результат сравнения по анализируемому результирующему свойству объектов О! и 0>].
ции, относящейся к результмруюи(ел<у признаку (варианты ее задания перечислены выше, в п.1)), 3. Класс 1. (Х) допустимых преобразований исходных. признаков Х. Вспомогательные признаки Л = (г<'>, д<зч)' в случае представления исходной описательной информации в форме матрицы «объект — свойство» (т. е. н виде (В.1)) конструируются в виде функций от Х, т. е, Я == = 2 (Х). Как обычно в таких ситуациях, чтобы обеспечить содержательность и конструктивную реализуемость реше- ния оптимизационной задачи !р (Е(Х))- ех1г', г <х< следует предварительно договориться об ограниченном классе допустимых решений Е (Х), в рамках которого эта оптимизационная задача будет решаться. Очевидно, от выбора Е (Х) будет существенно зависеть и получаемое решение 7 (Х) =- (г<ц(Х), ..., г<зч (Х)) упомянутой оптимизационной задачи.
Итак, следуя предложенной выше логике, мы должны были бы произвести типологизацию задач снижения размерности по трем «входам» (или «срезам»): форме задания исходной информации, типу (смыслу) оптимизируемого критерия информатинности и классу допустимых преобразований исходных переменных. Однако в предлагаемой нижеформе представления результатов типологизации задач снижения размерности (табл. В.б) эти принципы реализованы в упрощенном виде за счет следующих двух практических соображений: 1) подавлякицее большинство методов снижения размерности базируется на линейных моделях, т.