Главная » Просмотр файлов » 2 Обобщенные линейные модели. Регуляризация обучения

2 Обобщенные линейные модели. Регуляризация обучения (1162170), страница 2

Файл №1162170 2 Обобщенные линейные модели. Регуляризация обучения (Д.П. Веторв, Ю.И. Журавлёв - Лекции) 2 страница2 Обобщенные линейные модели. Регуляризация обучения (1162170) страница 22019-09-19СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 2)

статистикиНормальное распределениеРешение нерешаемых СЛАУ2 Статистическая постановка задачи машинного обученияВероятностное описаниеБайесовские решающие правила3 Линейная регрессияКлассическая линейная регрессияМетод наименьших квадратовВероятностная постановка задачи4 Задача классификацииЛогистическая регрессияМетод IRLSОсновные обозначенияЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияВероятностноеописаниеБайесовскиерешающиеправилаЛинейнаярегрессияЗадачаклассификации• В дальнейшем будут рассматриватьсяпреимущественно задачи классификации ивосстановления регрессии• В этих задачах обучающая выборка представляетсобой набор отдельных объектов X = {xi }ni=1 ,характеризующихся вектором вещественнозначныхпризнаков xi = (xi,1 , .

. . , xi,d )• Каждый объект также обладает скрытой переменнойt∈T• Предполагается, что существует зависимость междупризнаками объекта и значением скрытой переменной• Для объектов обучающей выборки значение скрытойпеременной известно t = {ti }ni=1Статистическая постановка задачиЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияВероятностноеописаниеБайесовскиерешающиеправилаЛинейнаярегрессияЗадачаклассификации• Каждый объект описывается парой (x, t)• При статистической (вероятностной) постановкезадачи машинного обучения предполагается, чтообучающая выборка является набором независимых,одинаково распределенных случайных величин, взятыхиз некоторой генеральной совокупности• В этом случае уместно говорить о плотностираспределения объектов p(x, t) и использоватьвероятностные термины (математическое ожидание,дисперсия, правдоподобие) для описания и решениязадачи• Заметим, что это не единственная возможнаяпостановка задачи машинного обученияКачество обученияЛекция 2Ветров,ЖуравлевЛикбез• Качество обучения определяется точностью прогнозаСтатистическаяпостановказадачимашинногообучения• Пусть S(t, t̂) – функция потерь, определяющая штрафна генеральной совокупностиЛинейнаярегрессияза прогноз t̂ при истинном значении скрытойпеременной t• Разумно ожидать, что минимум этой функциидостигается при t̂ = tЗадачаклассификации• Примерами могут служить Sr (t, t̂) = (t − t̂)2 для задачиВероятностноеописаниеБайесовскиерешающиеправилавосстановления регрессии и Sc (t, t̂) = I{t̂ = t} длязадачи классификацииАбсолютный критерий качестваЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияВероятностноеописаниеБайесовскиерешающиеправилаЛинейнаярегрессияЗадачаклассификации• Если бы функция p(x, t) была известна, задачимашинного обучения не существовало• В самом деле абсолютным критерием качестваобучения является мат.

ожидание функции потерь,взятое по генеральной совокупностиES(t, t̂) = S(t, t̂(x))p(x, t)dxdt → min,где t̂(x) – решающее правило, возвращающее величинупрогноза для вектора признаков x• Вместо методов машинного обучения сейчас быактивно развивались методы оптимизации и взятияинтегралов от функции потерь :)• К сожалению (а может, к счастью), распределениеобъектов генеральной совокупности неизвестно,поэтому абсолютный критерий качества обучения неможет быть подсчитанПлан лекцииЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияВероятностноеописаниеБайесовскиерешающиеправилаЛинейнаярегрессияЗадачаклассификации1 ЛикбезОсновные понятия мат.

статистикиНормальное распределениеРешение нерешаемых СЛАУ2 Статистическая постановка задачи машинного обученияВероятностное описаниеБайесовские решающие правила3 Линейная регрессияКлассическая линейная регрессияМетод наименьших квадратовВероятностная постановка задачи4 Задача классификацииЛогистическая регрессияМетод IRLSИдеальный классификаторЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияВероятностноеописаниеБайесовскиерешающиеправилаЛинейнаярегрессияЗадачаклассификации• Итак, одна из основных задач теории машинногообучения — это разработка способов косвенногооценивания качества решающего правила и выработкановых критериев для оптимизации в ходе обучения• Рассмотрим задачу классификации с функцией потерьвида Sc (t, t̂) = I{t̂ = t} и гипотетический классификаторtB (x) = arg maxt∈T p(x, t) = arg maxt∈T p(t|x)• Справделива следующая цепочка неравенств ES(t, t̂) =S(t, t̂(x))p(x, t)dxdt =l S(s, t̂(x))p(x, s)dx = 1 −s=1≥1−p(x, t̂(x))dx ≥max p(x, t)dx = 1 −tp(x, tB (x))dx = ES(t, tB )Идеальная регрессияЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияВероятностноеописаниеБайесовскиерешающиеправилаЛинейнаярегрессияЗадачаклассификации• Рассмотрим задачу восстановления регрессии сквадратичной функцией потерь вида Sr (t, t̂) = (t − t̂)2 игипотетическое решающее правилоtB (x) = Et|x t = tp(t|x)dt• Справделива следующая цепочка неравенств ES(t, t̂) =S(t, t̂(x))p(x, t)dxdt = (t−t̂(x))2 p(x, t)dxdt =((t−Et)+(Et−t̂(x)))2 p(x, t)dxdt = (t − Et)(Et − t̂(x))p(x, t)dxdt+=(t − Et)2 p(x, t)dxdt + 2 +(Et − t̂(x))2 p(x, t)dxdt ≥ ≥(t − Et)2 p(t|x)p(x)dtdx = ES(t, t B (x))Особенности байесовских решающих правилЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияВероятностноеописаниеБайесовскиерешающиеправилаЛинейнаярегрессияЗадачаклассификации• Таким образом, знание распределения объектовгенеральной совокупности приводит к получениюоптимальных решающих правил в явной форме• Такой оптимальные решающие правила называютсябайесовскими• Если бы удалось с высокой точностью оценитьзначение условной плотности p(t|x) для всех x и t, обеосновные задачи машинного обучения можно былосчитать решенными• На этом основан один из существующих подходов кмашинному обучениюПлан лекцииЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияЛинейнаярегрессияКлассическаялинейнаярегрессияМетоднаименьшихквадратовВероятностнаяпостановказадачиЗадачаклассификации1 ЛикбезОсновные понятия мат.

статистикиНормальное распределениеРешение нерешаемых СЛАУ2 Статистическая постановка задачи машинного обученияВероятностное описаниеБайесовские решающие правила3 Линейная регрессияКлассическая линейная регрессияМетод наименьших квадратовВероятностная постановка задачи4 Задача классификацииЛогистическая регрессияМетод IRLSЗадача восстановления регрессииЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияЛинейнаярегрессияКлассическаялинейнаярегрессияМетоднаименьшихквадратовВероятностнаяпостановказадачиЗадачаклассификации• Задача восстановления регрессии предполагаетналичие связи между наблюдаемыми признаками x инепрерывной переменной t• В отличие от задачи интерполяции допускаютсяотклонения решающего правила от правильныхответов на объектах обучающей выборки• Уравнение регрессии y(x, w) ищется в некоторомпараметрическом виде путем нахождения наилучшегозначения вектора весовw∗ = arg max F(X, t, w)wЛинейная регрессияЛекция 2Ветров,ЖуравлевЛикбез• Наиболее простой и изученной является линейнаярегрессияСтатистическаяпостановказадачимашинногообучения• Главная особенность: настраиваемые параметрыЛинейнаярегрессия• Заметим, что линейная регрессия не обязана бытьКлассическаялинейнаярегрессияМетоднаименьшихквадратовВероятностнаяпостановказадачиЗадачаклассификациивходят в решающее правило линейнолинейной по признакам• Общее уравнение регрессии имеет видy(x, w) =mj=1wj φj (x) = wT φ(x)Особенность выбора базисных функцийЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияЛинейнаярегрессияКлассическаялинейнаярегрессияМетоднаименьшихквадратовВероятностнаяпостановказадачиЗадачаклассификации• Общего метода выбора базисных функций φj (x) — несуществует• Обычно они подбираются из априорных соображений(например, если мы пытаемся восстановить какой-топериодический сигнал, разумно взять функциитригонометрического ряда) или путем использованиянекоторых «универсальных» базисных функций• Наиболее распространенными базисными функциямиявляются• φ(x) = xk• φ(x) = xk1 xk2 .

. . xkl• φ(x) = exp(−γx − x0 p ), γ, p > 0.• Метод построения линейной регрессии (настройкивесов w) не зависит от выбора базисных функцийФормализация задачиЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияЛинейнаярегрессияКлассическаялинейнаярегрессияМетоднаименьшихквадратовВероятностнаяпостановказадачиЗадачаклассификации• Пусть S(t, t̂) — функция потерь от ошибки вопределении регрессионной переменной t• Необходимо минимизировать потери от ошибок нагенеральной совокупности ES(t, y(x, w)) =S(t, y(x, w))p(x, t)dxdt → minw• Дальнейшие рассуждения зависят от вида функциипотерь• Во многих случаях даже не нужно восстанавливатьполностью условное распределение p(t|x)Важная теоремаЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияЛинейнаярегрессияКлассическаялинейнаярегрессияМетоднаименьшихквадратовВероятностнаяпостановказадачиЗадачаклассификации• Теорема.

Пусть функция потерь имеет вид• S(t, t̂) = (t − t̂)2 — «Потери старушки»;• S(t, t̂) = |t − t̂| — «Потери олигарха»;• S(t, t̂) = δ −1 (t − t̂) — «Потери инвалида».Тогда величиной, минимизирующей функциюES(t, y(x, w)), является следующая• y(x) = Ep(t|x);• y(x) = med p(t|x);• y(x) = mod p(t|x) = arg maxt p(t|x).• В зависимости от выбранной системы предпочтений,мы будем пытаться оценивать тот или инойфункционал от апостериорного распределения вместотого, чтобы оценивать его самогоПлан лекцииЛекция 2Ветров,ЖуравлевЛикбезСтатистическаяпостановказадачимашинногообученияЛинейнаярегрессияКлассическаялинейнаярегрессияМетоднаименьшихквадратовВероятностнаяпостановказадачиЗадачаклассификации1 ЛикбезОсновные понятия мат.

Характеристики

Тип файла
PDF-файл
Размер
292,72 Kb
Тип материала
Высшее учебное заведение

Список файлов лекций

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6510
Авторов
на СтудИзбе
302
Средний доход
с одного платного файла
Обучение Подробнее