2010 Лекции МОТП. Записки (2010 Лекции МОТП. Записки.pdf), страница 10

PDF-файл 2010 Лекции МОТП. Записки (2010 Лекции МОТП. Записки.pdf), страница 10 (ММО) Методы машинного обучения (63118): Лекции - 10 семестр (2 семестр магистратуры)2010 Лекции МОТП. Записки (2010 Лекции МОТП. Записки.pdf) - PDF, страница 10 (63118) - СтудИзба2020-08-25СтудИзба

Описание файла

PDF-файл из архива "2010 Лекции МОТП. Записки.pdf", который расположен в категории "". Всё это находится в предмете "(ммо) методы машинного обучения" из 10 семестр (2 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .

Просмотр PDF-файла онлайн

Текст 10 страницы из PDF

выходящие из вершин дуги помечены значениями, принимаемыми предикатами ввершине;3. концевые вершины помечены метками классов;4. ни в одной ветви дерева нет двух одинаковых вершин.Пример подобного дерева для конфигурации из трех классов (рис.7) приведен на рис. 8.x2 = x1x2K3K3×× ××x1K1K2Рис. 7. Конфигурация объектов трех классов. Объекты классовсимволамиK1 , K 2 , K 3 обозначены, соответственно,× , Ο, ∆..58y101y20K3y310K21y4y20K3101K2K20K1y21K2Рис.8. Решающее дерево для классов рис.

7.На рис.8 приведено некоторое решающее дерево, позволяющее правильно распознаватьобъекты трех классов, изображенных на рис.7. Вершины дерева помечены следующимиy1 =" x1 > 0" , y2 =" x12 + x22 < 1" , y3 =" x1 > x2 " , y4 =" x2 > 0".предикатами:Данномурешающему дереву соответствуют характеристические функции классов f1 ( S ) = y1 y2 y3 y4 ,f 2 ( S ) = y1 y2 ∨ y1 y2 y3 ∨ y1 y3 y4 ∨ y1 y2 y3 y4 , f 3 ( S ) = y1 y2 ∨ y1 y2 y3 , принимающие значение 1 наобъектах «своего» класса и 0 на объектах остальных классов.Приведем еще один пример решающего дерева (рис.9), построенного непосредственно по 0 0111  ∈ K11 1101 таблице обучения: T5.4, 2 = .1 0 1 11 ∈ K 2 0 1 01 0 (9)В качестве признаковых предикатов используются y1 = x1 , y2 = x3 .y101y2K20K21K2Рис.9.

Решающее дерево бинарной таблицы обучения (9)59Здесь в качестве приближений для характеристических функций классов выбраныфункцииf1 ( S ) = y1 y2 = x1 x3 ,f 2 ( S ) = y1 ∨ y1 y2 = x1 ∨ x1 x3 .Вданномпримере,дляпостроения решающего дерева использованы только два признака.Задача построения решающего дерева по обучающим данным решается неоднозначно,методам построения решающих деревьев посвящена обширная литература /……../.1.3.Алгоритмыраспознавания,основанныенапринципечастичнойпрецедентностиНастоящий класс алгоритмов выделен в отдельный раздел по нескольким причинам.Представляя исторически логические подходы в теории распознавания, в рамках данногоподхода разработана также теория алгоритмов вычисления оценок, объединяющая всесуществующие методы распознавания и положенная в основу алгебраического подхода втеории распознавания. Теоретические основы алгоритмов частичной прецедентности(вычисления оценок, голосования, или комбинаторно-логических алгоритмов) описаны вмногочисленных научных публикациях /…./.

В настоящем разделе описана частьалгоритмов, широко используемая в практическом распознавании.Принципиальная идея данных алгоритмов основана на отнесении распознаваемогообъекта S в тот класс, в котором имеется большее число «информативных» фрагментовэталонныхобъектов(«частичныхсоответствующим фрагментампрецедентов»),приблизительноравныхобъекта S [1, 2]. Вычисляются близости – «голоса»(равные 1 или 0) распознаваемого объекта к эталонам некоторого класса по различныминформативным фрагментам объектов класса. Данные близости («голоса») суммируютсяи нормируются на число эталонов класса.

В результате вычисляется нормированное числоголосов, или оценка объекта S за класс Γ j (S ) – эвристическая степень близости объекта Sк классу K j . После вычисления оценок объекта за каждый из классов, осуществляетсяотнесение объекта к одному из классов (т.е. распознавание класса объекта) с помощьюпорогового решающего правила.601.3.1. Тестовый алгоритм.Первоначально тестовый алгоритм распознавания был предназначен для бинарныхи к-значных признаков.

Впервые был опубликован в /…/ и базируется на понятии теста,введенного в 1956 году С.В.Яблонским. Приведем одну из основных модификацийалгоритма.Определение. Тестом таблицы Tnml называется совокупность столбцов {i1 , i2 ,..., ik } таких,что после удаления из Tnml всех столбцов, за исключением имеющих номера {i1 , i2 ,..., ik } , вполученной таблице Tn−k ,m ,l все пары строк, принадлежащих разным классам, различны.Тест {i1 , i2 ,..., ik } называется тупиковым, если никакая его истинная часть не являетсятестом /71/.Пусть найдено множество {T } тупиковых тестов таблицы Tnml и T = {i1 , i2 ,..., ik }∈ {T } .

Выделим в описании распознаваемого объекта S фрагмент описания (ai1 , ai2 ,..., aik ) ,соответствующий признакам с номерами i1 , i2 ,..., ik . Сравним (ai1 , ai2 ,..., aik ) со всемифрагментами (a ji1 , a ji2 ,..., a jik ) объектов S j , j = 1,2,..., m, таблицы Tnml .Число совпадений (ai1 , ai2 ,..., aik ) с (a ji1 , a ji2 ,..., a jik ) , j = mk −1 + 1, mk −1 + 2,..., mk , k = 1,2,..., l ,m0 = 0, ml = m , обозначим через Γ j (T ) .Величина Γ j ( S ) =1∑ Γj (T )m j − m j −1 T∈{T }(78)называется оценкой S по классу K j .

Имея оценки Γ1 (T ), Γ2 (T ),..., Γl (T ) объект S легкоклассифицируется с помощью решающих правил. Например, он относится в тот класс, закоторый получена его максимальная оценка. В случае наличия нескольких классов смаксимальными оценками, происходит отказ от его классификации.Если отдельное совпадение в (78) назвать «голосом» в пользу класса K j , то выражение(78) будет нормированным числом голосов за данный класс.

В связи с даннойинтерпретацией, алгоритмы с подобной схемой вычисления оценок называют такжеалгоритмами голосования.Тестовый алгоритм является удобным базисом для оценки информативности (важности)признаков. Пусть N i - число тупиковых тестов таблицы Tnml , содержащих i-й столбец , аN = {T } - общее число тупиковых тестов таблицы.

Тогда вес i-го признака определяется61какpi =Ni. Чем больше вес, тем важнее признак для описания объектов. ЭтоNутверждение основывается на следующем рассуждении. Таблица Tnml является исходнымописанием классов и признаков. Тупиковый тест есть не сжимаемое далее по признакамописание классов, сохраняющее разделение классов. Чем в большее число такихнеизбыточных описаний входит i-й признак, тем он важнее.Задача нахождения множества тупиковых тестов таблицы Tnml сводится квычислению всех тупиковых покрытий строк некоторой бинарной матрицы ее столбцами.Рассмотрим постановку данной задачи.

ПустьTnml = aijm×n, гдеaij = x j ( S i ) ∈{0,1,..., k − 1} . Таблице T nml ставится в соответствие матрица сравнения попризнакам всевозможных пар объектов из различных классовC = cijN ×n, где1, aνj ≠ aµj ,cij = i = i (ν , µ ) , Sν ∈ K u , S µ ∈ K v , u ≠ v ,0, aνj = aµj ,∑ (mN=i> ji− mi −1 )(m j − m j −1 ).i , j =1, 2 ,...,lСтолбцы (i1, i 2 ,... , i k ) образуют покрытие строк матрицы∀i = 1,2,...,N , ∃j ∈ {i1 , i2 ,..., ik } : сij = 1 .C = cijN ×n, еслиПокрытие называется тупиковым, еслипроизвольное его собственное подмножество не является покрытием.

Каждомутупиковому тесту соответствует тупиковое покрытие строк матрицы сравнения инаоборот. Нахождение всех тупиковых тестов является сложной вычислительной задачей.Тем не менее здесь существуют подходы, эффективные для таблиц средней размерности /…/. При решении практических задач достаточно нахождение лишь части тупиковыхтестовдлявычисленияоценоксогласно(78).Вслучаеналичияпризнаковвещественнозначных используют обычно один из следующих двух подходов. Областьопределения каждого вещественнозначного признака разбивается на k интервалов.Значение признака из i- го интервала полагается равным i-1. Далее задача распознаваниярешается относительно полученной k- значной таблицы обучения и k- значных описанийраспознаваемых объектов. Другой подход связан с введением числовых пороговых62параметров для каждого признака.

Для вещественнозначных таблиц вводится аналогтупиковых тестов, в котором требование несовпадения значений признаков заменяется ихразличием не менее чем на соответствующий порог. В обоих подходах при выборезначности новой таблицы или значений пороговых параметров необходимо учитывать,что соответствующие матрицы сравнения не должны содержать нулевых строк, поэтомузначность (или пороговые параметры) следует выбирать из требования отделимости kзначных «образов» эталонных объектов различных классов (или отделимости с точностьюдо пороговых значений).1.3.2. Алгоритмы распознавания с представительными наборами.Другими алгоритмами данного вида являются алгоритмы типа “Кора” /16,12/, вкоторых опорные множества связаны со значениями признаков конкретных объектов.Sν ∈ KПустьj,апризнакиu = {xi1 ( Sν ), xi2 ( Sν ),..., xik ( Sν ), }K j,еслидлялюбогопринимаютзначения0или1.Наборназовем представительным набором для классаS µ ∈ T nml ,⋅S µ ∉ Kjхотябыодноизравенствxit ( Sν ) = xit ( S µ ), t = 1,2,..., k , невыполнено.

Представительный набор называется тупиковым,если любой его собственный поднабор не является представительным набором, т.е. длялюбого его поднабора существует равный ему поднабор в каком-либо другом классе.Таким образом, тупиковый представительный набор некоторого класса Kjестьнесократимый фрагмент некоторого эталона данного класса, для которого нет равных емуфрагментов эталонов других классов.Пусть вычислено V j− множество тупиковых представительных наборов для класса K j .Тогда степень близости распознаваемого объектаS к классу K j по заданномумножеству тупиковых представительных наборов V j можно оценить по формулеΓj (S ) =1Vj∑ B( S , u )u∈V j(181),где B ( S , u ) равно 1, если в признаковом описании объекта S имеется фрагмент u.

Свежие статьи
Популярно сейчас
А знаете ли Вы, что из года в год задания практически не меняются? Математика, преподаваемая в учебных заведениях, никак не менялась минимум 30 лет. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5184
Авторов
на СтудИзбе
436
Средний доход
с одного платного файла
Обучение Подробнее