Главная » Все файлы » Просмотр файлов из архивов » PDF-файлы » ММО и поиск достоверных закономерностей в данных. Учебное пособие. Сенько

ММО и поиск достоверных закономерностей в данных. Учебное пособие. Сенько (2015 Учебное пособие ММО (Сенько)), страница 2

PDF-файл ММО и поиск достоверных закономерностей в данных. Учебное пособие. Сенько (2015 Учебное пособие ММО (Сенько)), страница 2 (ММО) Методы машинного обучения (63161): Книга - 10 семестр (2 семестр магистратуры)ММО и поиск достоверных закономерностей в данных. Учебное пособие. Сенько (2015 Учебное пособие ММО (Сенько)) - PDF, страница 2 (63161) - СтудИзба2020-08-25СтудИзба

Описание файла

Файл "ММО и поиск достоверных закономерностей в данных. Учебное пособие. Сенько" внутри архива находится в папке "2015 Учебное пособие ММО (Сенько)". PDF-файл из архива "2015 Учебное пособие ММО (Сенько)", который расположен в категории "". Всё это находится в предмете "(ммо) методы машинного обучения" из 10 семестр (2 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .

Просмотр PDF-файла онлайн

Текст 2 страницы из PDF

В общем случаеММП требует априорных предположений о типе распределений. Чаще всего используетсягипотеза о нормальности распределения. Значения параметровконкретныйвидраспределений,правдоподобия, представляющегоищутсяпутём1 , , rмаксимизации, задающихфункционаласобой произведение плотностей вероятностей наобъектах обучающей выборки. Рассмотрим в качестве примера задачу распознаваниядвух классовклассыK1 и K 2 по единственному признакуX . При этом предполагается, чтоK1 и K 2 распределены нормально, то есть точки, описывающие объекты изданных классов,p2 ( x) 1e2имеют плотности распределения ( x  2 )22 21p1 ( x) e2 ( x  1 )22 2соответственно при значении признака X равномпустим, что нам неизвестны параметры1и2иx .

До, являющиеся математическимиожиданиями признака X в классахмогутбытьнайденысK1 и K 2 . Математические ожидания 1 и 2помощьюММПпообучающей, sm  ( ym , xm )} , где y j  1 при s j  K1 и y j  2 приSt  {s1  ( y1 , x1 ),1этом подбираются такие значения2ивыборкеs j  K 2 . При, при которых достигают максимумафункционалы правдоподобияL1 ( St , 1 )  p (x )  1s j K1js j K11e2 ( x  1 ) 22 2(1)ИL2 ( St , 1 )  p (x )  s j K 22js j K 21e2 ( x  2 )22 2(2)То есть функционал L1 ( St , 1 ) является произведением плотностейсоответственно.вероятности в точках, соответствующим объектам обучающей выборки из класса K1 ,функционал L2 ( St , 1 ) является произведением плотностей вероятности в точках,соответствующим объектам обучающей выборки из класса K 2 .Поскольку натуральный логарифмln( z )является монотонной функцией аргументаz,то задача максимизации L1 ( St , 1 ) эквивалентна задаче максимизации ln[ L1 ( St , 1 )] .Отметим, чтоm1ln[ L1 ( St , 1 )]   ln[e2s j K1  m1 ln( )  m1 ln(2 ) 12гдеs j K1 ( x j  1 ) 22 21]   {ln()  ln[e2s j K1( x j  1 ) 22 2, ( x j  1 ) 22 2]} (3)m1 - число объектов из класса K1 в выборке St .

Из формулы (3) следует, что задачамаксимизацииln[ L1 ( St , 1 )]сводитсякзадачеминимизацииQ ( St , 1 ) ( x j  1 ) 22 2s j K1выполнение равенства. Необходимым условием минимума Q ( St , 1 )Q ( St , 1 ) 0 , что эквивалентно выполнение равенства12( x j  1 )2 2s j K1Из равенства (4) следует, что1 1m1xs j K1jвсем объектам обучающей выборки из класса21Y , X1, , X n .среднему значению признака Xсовершенно аналогиченпопоиску1 и приводит к одинаковому результату.В общем случае нам требуется найти параметрыпеременных(4)K1 . Очевидно, что поиск оптимальногос помощью ММПоптимального значения параметра 0..

То есть применение ММП приводит ктривиальному выводу о равенстве параметразначения параметраявляется1 , , rсовместного распределенияДанная задача может быть решенас помощьюмаксимизации функционал правдоподобияL( St ,1 ,m, r )   p ( y j , x j ,1 ,j 1, r ) ,(5)который является произведением плотностей вероятностей в точках, соответствующихобъектам обучающей выборки St  {s1  ( y1 , x1 ),однимизважнейшихинструментов, sm  ( ym , x m )} . Метод ММП являетсянастройкиалгоритмовраспознаванияилирегрессионных моделей в математической статистике. Однако использованием ММПтребует знаниявида вероятностного распределения. На практике чаще используетсяметод минимизации эмпирического риска, который требует знания только общего видаалгоритма прогнозирования.Метод минимизации эмпмрмческого риска (ММЭР).

Основным способом поисказакономерностей является поиск некотором априори заданном семействепрогнозированияM  {A : X  Y }алгоритма,алгоритмовнаилучшимобразомаппроксимирующего связь переменных из наборана обучающей выборке,X1,гдеXX1,с переменной Y, Xn- область возможных значений векторов переменных, X n , Y - область возможных значений переменнойY . Отметим, что чаще всегоалгоритм A задаётся с помощью прогнозирующей функции.Пусть[ y j , A(x j )] - величина “потерь”, произошедших в результате использованияв качестве прогноза величиныA( x j ) . Одним из способов обучения являетсяминимизациявыборкеQ( St , A) наm1mj 1обучающейфункционалаэмпирическогориска[ y j , A(x j )]Приведём примеры конкретного вида функции потерь [ y j , A(x j )] . В задачахрегрессиичащевсего[ y j , A(x j )]  [ y j  A(x j )]2используетсяквадратошибкипрогноза. Также может быть использован модуль ошибки[ y j , A(x j )] |[ y j  A(x j )] | .В случае задачи распознавания функция потерь может быть равнойклассификации и0 при правильной1 при ошибочной.

При этом функционал эмпирического риска равенчислу ошибочных классификаций.Следует отметить тесную связь между ММП иММЭР. Данная связь будепроанализирована далее при рассмотрении методов регрессионного анализа.Точность алгоритма прогнозирования на всевозможных новых не использованных дляобучения объектах, которые возникают в результате процесса, соответствующегорассматриваемой задаче прогнозированияспособностью.принято называтьобобщающейИными словами обобщающую способность алгоритма прогнозированияможно определить как точность на всей генеральной совокупности. Мерой обобщающейспособности служит математическое ожидание потерь по генеральной совокупности -E{[Y , A(x)]} .. При решении задач прогнозирования основной целью являетсядостижение наилучшейобобщающей способности, при которой математическоеожидание потерь E {[Y , A( x)]} минимально.1.5 Эффект переобучения.Расширение моделиM  { A : X  Y } , увеличение её сложности всегда приводит кповышению точности аппроксимации на обучающей выборке.

Однако повышениеточности на обучающей выборке, связанное с увеличением сложности модели, часто неведёт к увеличению обобщающей способности. Более того, обобщающая способностьможетдаже снижаться. Различие междуточностью на обучающей выборке иобобщающей способностью при этом возрастает. Данный эффект называется эффектомпереобучения.Рис. 1.4На левой части показано, что использование кусочно-линейной модели (краснаялиния)позволяет значительно лучше аппроксимировать зависимость на обучающейвыборке St , чем простая линейная регрессия (тёмно-синяя прямая).

Однако оказывается(правый слайд), что точность аппроксимации новой контрольной выборки Sc , взятой изтой же самой генеральной совокупности, для простой линейной регрессии значительнолучше, чем для кусочно-линейной.Рис. 1.5На левой частипоказано, что использование кусочно-линейнойграницы (краснаялиния)позволяет значительно лучше разделить объекты класса K1и классаK2обучающей выборке St , чем простая линейная граница (тёмно-синяяпрямая). Однако оказывается (правый слайд), чтоточностьна новой контрольнойвыборки Sc , взятой из той же самой генеральной совокупности, для простой линейнойграницы значительно лучше, чем для кусочно-линейной1.5 Методы оценивания обобщающей способности.Обобщающая способность алгоритма прогнозирования на генеральной совокупности  ,может оцениваться по случайной выборке объектов из  , которую обычно называютконтрольной выборкой.

При этом контрольная выборка не должна содержать объектов изобучающей выборки. В противном случае величина потерь может оказаться завышенной.Контрольная выборка имеет вид Sc  {( y1 , x1 ),,( ymc , xmc )} , гдеy j - значение переменной Y для j-го объекта;x j - значение вектора переменных X 1 ,, X n для j-го объекта;mc - число объектов в Sc .Обобщающая способность алгоритма прогнозирования A может оцениваться спомощью функционала рискаQ( Sc , A) Приmc  mc1mj 1[ y j , A( x j )]согласно закону больших чисел E{[Y , A(x)]}Q( Sc , A)Обычно при решении задачи прогнозирования по прецедентам в распоряженииисследователей сразу оказывается весь массив существующих эмпирических данных Sin, по которому необходимо построить алгоритм прогнозирования и оценить его точность.Для оценки точности прогнозирования могут быть использованы следующие стратегии.1) ВыборкаSinслучайным образом расщепляется на выборку Stалгоритма прогнозирования и выборку Sc2) Процедура кросс-проверки.

Выборкавыборки S1иS2 . На первом шагедля обучениядля оценки точностиSinслучайным образом расщепляется наS1 используется для обучения иконтроля. На втором шаге, наоборот, для обучения используется S 2 , аS1 дляS1используется для контроля.3) Процедура скользящего контроля выполняется по полной выборке Sinзашагов m | Sin | .на j -ом шаге формируется обучающая выборкаобъект в SinSt  St j \ s j , гдеsj -j- ый, и контрольная выборка , состоящая из единственного объекта s j .Величина потерь методе скользящий контроль оценивается с помощью функционала1 mQsc ( Sin , A)   [ y j , A( x j , St j )]m j 1В книге [1] было показано, что функционал Qsc ( Sin , A) является несмещённой оценкойматематического ожидания потерь1.6 Существующие методы и модели для решения задачпрогнозирования и распознаванияДля подавляющего числа приложений вид распределений или значения конкретных ихпараметров неизвестны.

Не известен обычно также вид регрессионной зависимости, илиразделяющей поверхности в задачах распознавания. В связи с эти возникло большоечислоразнообразныхподходов,вкоторыхпрогнозирования производится внутри достаточнопоископтимальныхалгоритмаобширных семейств (моделей).Обычно такие семейства задаются с помощью набора параметров. Для поискаоптимальных значений параметров используются ММП или ММЭР.При этом дляповышения устойчивости обучения нередко используются модифицированные вариантыММП или ММЭР, позволяющие добиваться более высокой устойчивости обучения.Использование которы данных подходов позволяет добиваться определённых успеховпри решении конкретных задач.

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5224
Авторов
на СтудИзбе
426
Средний доход
с одного платного файла
Обучение Подробнее