Лекция 2 (1185267), страница 2
Текст из файла (страница 2)
В случаях, когда отсутствует такойобъём выборки, при котором M позволяет реализоватьпроизвольное разбиение обучающей выборки на двеподвыборки при любом объёме последней, считается,что ёмкость M бесконечна ,Было показано, что m m* случае для функции ростасправедливо ограничение сверхуμ( A,m) 1,5m( m 1)*m*1 !Поскольку μ( A,m)ограничено сверху полиномомконечной степени , тоe 2m μ(M, m)2limm 2 m0Теоретические подходы к исследованию обобщающейспособностиТеория Вапника-ЧервоненкисаИз стремления к 0 правой части неравенства (4) следуетP {max | err ( A) perr ( A) | } 0 приAMm ,что означает выполнение условия равномерной сходимости.Таким образом для любой модели, имеющей конечную ёмкость,получение алгоритмов, обладающих обобщающей способностьюявляется гарантированным при достаточно больших объёмахобучающих выборок.Бесконечная ёмкость модели не позволяет сделать вывод о наличииобобщающей даже при очень больших объёмах.