Лекция 2 (2012 Лекции МОТП (Сенько)), страница 2
Описание файла
Файл "Лекция 2" внутри архива находится в папке "2012 Лекции МОТП (Сенько)". PDF-файл из архива "2012 Лекции МОТП (Сенько)", который расположен в категории "". Всё это находится в предмете "(ммо) методы машинного обучения" из 10 семестр (2 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст 2 страницы из PDF
В случаях, когда отсутствует такойобъём выборки, при котором M позволяет реализоватьпроизвольное разбиение обучающей выборки на двеподвыборки при любом объёме последней, считается,что ёмкость M бесконечна ,Было показано, что m m* случае для функции ростасправедливо ограничение сверхуμ( A,m) 1,5m( m 1)*m*1 !Поскольку μ( A,m)ограничено сверху полиномомконечной степени , тоe 2m μ(M, m)2limm 2 m0Теоретические подходы к исследованию обобщающейспособностиТеория Вапника-ЧервоненкисаИз стремления к 0 правой части неравенства (4) следуетP {max | err ( A) perr ( A) | } 0 приAMm ,что означает выполнение условия равномерной сходимости.Таким образом для любой модели, имеющей конечную ёмкость,получение алгоритмов, обладающих обобщающей способностьюявляется гарантированным при достаточно больших объёмахобучающих выборок.Бесконечная ёмкость модели не позволяет сделать вывод о наличииобобщающей даже при очень больших объёмах.