Дуда Р., Харт П. - Распознование образов и анализ сцен (1033979), страница 16
Текст из файла (страница 16)
вильной классификации й+1 или меньшего числа точек. Фактически при большом Й, пока н не составляет значительной части от 2(й+1), это не означает, что задача начинает становиться трудной, При значении числа а=2 (с(+1), которое иногда называется емкослтью гиперплоскости, половина из возможных дихотомий еще линейка. Таким образом, избыточность для по~троения линейных разделяющих функций до тех пор не будет достигнута, пока число выборок в несколько раз не превзойдет размерности пространства признаков. 3.8.
Проблемы раэмераоспш Чтобы исследовать это теоретически, требуется выполнить следую- щие действия: 1) произвести оценку неизвестных параметров по выборкам; 2) применить зти оценки для определения классификатора; 3) вычислить уровень ошибки полученного классификатора. В целом такой анализ очень сложен. Проведение его зависит от многих причин — частных значений получаемых выборок, способа их использования для определения классификатора и неизвестной вероятностной структуры, положенной в основание расчетов.
Однако аппроксимнруя неизвестные плотности гистограммами н усредняя их соответствующим образом, можно прийти к некоторым интересным выводам. Рассмотрим случай с двумя классами, предполагаемыми равно- вероятными. Предположим, что пространство признаков мы разбили на некоторое число т отдельных ячеек й„..., Ж„.
Если в пределах каждой из ячеек условнме плотности р(х~а,) и р(х!а,) заметно не изменяются, то вместо того, чтобы отыскивать точное значение х, потребуется лишь определить, в какую из ячеек попадает х. Это упрощает задачу, сводя ее к дискретной. Пусть Р~ =Р(х Е Ж; кз1) и д~=Р(хЕ Фяв). Тогда, поскольку мы предположили, что Р(в)= =Р(м,)=1~2, векторы р=(рь..., р )'и п=(д„..., д )' определят вероятностную структуру задачи. Если х попадает в Жь то байесовское решающее правило выразится в принятии решения еь если р~)до Получаемый байесовский уровень ошибки определится выражением Р(е! Р й) = 2 „~ шЫРыМ 1 Если параметры р н о неизвестны и должны быть оценены по множеству выборок, то получаем уровень ошибки, больший, чем байесовский.
Точный ответ будет зависеть от взятого множества выборок и способа построения по ним классификатора. Допустим, что одна половина выборок помечена а„а другая в„причем пм представляет число выборок с пометкой еь попавших в ячейку Ж;. Допустим далее, что мы строим классификатор, пользуясь оценками по максимуму правдоподобия р~=2п~,/и и д~=2п;,/п, как если бы они и были истинными значениями.
Тогда новый вектор признаков, попадающий в Жь будет отнесен к в„если лп)иы. Со всеми этими предположениями вероятность ошибки для получаемого классификатора определится выражением Р (е|р, и, Х) = — ~Я~~~ д;+ 2 ~я~ ' рп »и> лм ац~ и,. Гл. 3. Оценка аараметрое и обучение с учителем Чтобы оценить вероятность ошибки, надо знать истинные значения условных вероятностей р и и и множество выборок или по меньшей мере числа лы. Различные множества из н случайных выборок приведут к различным значениям Р(е1р, и, .й').
Для усреднения н случайных выборок по всем возможным множествам и получения средней вероятности ошибки Р(е~р, и, .2') можно использовать тот факт, что числа лп распределены по полиномиальному закону. Грубо говоря, это даст типичный уровень ошибки, который можно ожидать для и выборок. Однако оценка этого среднего уровня потребует еще решения второстепенной задачи — оценки величин р и и. Если р и и различаются сильно, то средний уровень ошибки будет близок к нулю; при сходных р и и он приближается к 1/2. Радикальным путем устранения этой зависимости решения от задачи будет усреднение результатов решения всех возможных задач.
Для этого следует выбрать некоторое априорное распределение неизвестных параметров р и и, а затем усреднить Р(е)р, и, и) в соответствии с этими р и и. Получаемая усредненная по задачам вероятность ошибки Р(е1т, л) будет зависеть только от числа еп ячеек, числа и выборок и вида априорного распределения.
Выбор априорного распределения является, несомненно, тонким моментом. Стараясь облегчить задачу, мы можем принять величину Р близкой к О, а стараясь ее усложнить — близкой к 112. Априорное распределение следовало бы выбирать соответствующим тому классу задач, с которым мы обычно встречаемся, однако не ясно, как это сделать. Можно просто предположить эти задачи «равномерно распределенными», т. е. предположить, что векторы р и и распределены равномерно на симплексах р;)О, ~ р,=1, д;)О, — ° .е1е=1. Г.
Ф, Хугсом, предположившим такой подход, проведе=! ны необходимые вычисления, результаты которых представлены графиками рис. 3.5. Рассмотрим некоторые приложения его результатов. Заметим сначала, что эти кривые представляют Р как функцию числа ячеек для постоянного числа выборок. Если число выборок бесконечно, то становятся верны оценки по максимуму правдоподобия, и Р для любой задачи будет средним значением байесовского уровня ошибки. Кривая, соответствующая Р(е(т, аа), быстро убывает от 0,5 при ел=1 до асимптотического значения 0,25 при стремлении еп к бесконечности, Не удивительно, что Р=0,5 при ел=1, так как в случае всего лишь одного элемента решение должно основываться только на априорных вероятностях. Эффектно и то, что Р стремится к 0,25 при стремлении т к бесконечности, так как эта величина находится как раз посередине между предельными значе- 8.8.
Проблемы розмеряости пнями 0,0 и 0,5. Столь большое значение уровня ошибки свидетельствует лишь о том, что в этой средней величине отражено множество безнадежно трудных задач, связанных с классификацией. И конечно, не следует считать, что «типичная» задача распознавания образов может иметь такой уровень ошибки. Однако самая интересная особенность этих кривых заключается в том, что для каждой из них, соответствующей конечному числу выборок, имеется оптимальное число ячеек, Это непосредственно связано с тем, что если при конечном числе выборок использовать д(о ( аьа) а,чь Рис.
3.8. Усредненный по задаче уровень ошибки (по данным Г. Ф. Хугса, !968. Здесь л — число выборок, т — число ячеек). излишнее количество признаков, то качество работы ухудшится. Почему это так, в данном случае ясно. Во-первых, увеличение числа ячеек позволяет легче различать р(х~ш,) и р (х!ш,) (представляемые векторами р и с)), тем самым способствуя улучшению качества работы. Если, однако, число ячеек становится слишком большим, то ие хватит выборок, чтобы их заполнить. В конечном счете число выборок в большинстве ячеек окажется равным нулю, и для классификации придется вернуться к неэффективным априорным вероятностям, Таким образом, при любом конечном а величина Р(ерп,п) должна стремиться к 0,5 при стремлении т к бесконечности.
Значение т, для которого Р (е,( т, и) достигает минимума, чрезвычайно мало. При числе выборок а=500 эта величина лежит где-то около т=20 ячеек. Допустим, что мы сформировали ячейки посредством разбиения каждой оси на ! интервалов. Тогда для с( признаков получим ль=!и ячеек. Это будет означать, что при (=2, т. е. 86 Гл. 8. Оценка аарамапров и обучение с учителем предельно грубом квантовании, использование более четырех-пяти бинарных признаков ухудшит, а ие улучшит качество работы. Такой результат весьма пессимистичен, но не более чем утверждение о том, что средний уровень ошибки равен 0,25. Приведенные численные значения получены в соответствии с априорным распределением, выбранным для конкретной задачи, и могут не иметь атношения к частным задачам, с которыми можно еще столкнуться. Основной замысел проведенного анализа состоит в том, чтобы усвоить, что качество работы классификатора безусловно зависит от числа конструктивных выборок и что при заданном числе выборок увеличение числа признаков сверх определенного может оказаться вредным, 3.9.
ОЦЕНКА УРОВНЯ ОШИБКИ Существуют по меньшей мере две причины, чтобы пожелать узнать уровень ошибки классификатора. Первая причина — это оценить, достаточно ли хорошо работает классификатор, чтобы считать его работу удовлетворительной. Вторая состоит в сравнении качества его работы с неким конкурирующим устройством. Один из подходов к оценке уровня ошибки состоит в вычислении его, исходя из предполагаемой параметрической модели. Например, при разделении на два класса в случае многих нормально распределенных величин можно вычислить Р (е) посредством уравнений (45) и (46), подставляя оценки средних значений и ковариационных матриц неизвестных параметров.
Такой подход связан, однако, с тремя серьезными трудностями. Во-первых, оденка таким способом Р (е) почти всегда оказывается излишне оптимистичной, так как при этом будут скрыты особенности, связанные со своеобразием и нецредставительностью конструктивных выборок.
Вторая трудность заключается в том, что всегда следует сомневаться в справедливости принятой параметрической модели; оценка работы, основанная на той же самой модели, не внушает доверия, за исключением случаев, когда она неблагоприятна. И наконец, в большинстве общих случаев точное вычисление уровня ошибки очень трудно, даже если полностью известна вероятностная структура задачи. Эмпирический подход, позволяющий избежать указанных трудностей, состоит в экспериментальных испытаниях классификатора.
На практиие это часто осуществляется подачей на классификатор системы контрольных выборок с оценкой уровня ошибки по части выборок, классификация которых оказалась неверной. Излишне говорить, что контрольные выборки должны быть отличными от конструктивных, иначе оцениваемый уровень ошибок окажется излишнеоптимистичным'). Если истинный, нонеизвестный уровень В В ранних работах по распознаванию образов, когда эксперименты нередко проводились с весьма малым количеством выборок, при проектировании и испы- 8.9.
Оценка ррознл ошибки ошибки классификатора равен р н если классификация Й нз л независимых, случайно взятых контрольных выборок неверна, то распределенне й бнномнально '): (49) Таким образом, неверно классифицированная часть пробных выборок н есть в точности оценка р по максимуму правдоподобня: (50) Свойства этой оценки для параметра р бнномнального распределения хорошо известны. В частности, на рнс. 3.6 изображены графики зависимости величины 95%-ного доверительного интервала от р н а. Для заданного значения р вероятность того, что истинное значение р лежит в интервале между нижней н верхней крнвымн прн заданном числе п пробных выборок, равна 0,95. Из кривых видно, что, пока и не очень велико, оценку по максимуму правдоподобия следует принимать с осторожностью. Например', если не было ошибок на 50 пробных выборках, то истинный уровень ошибок лежит в пределах от 0 до 8е/о.