Главная » Все файлы » Просмотр файлов из архивов » PDF-файлы » SAS EM. Лекция 4. Регрессионные модели

SAS EM. Лекция 4. Регрессионные модели (Лекции 2014)

PDF-файл SAS EM. Лекция 4. Регрессионные модели (Лекции 2014) (ППП СОиАД) (SAS) Пакеты прикладных программ для статистической обработки и анализа данных (63188): Лекции - 10 семестр (2 семестр магистратуры)SAS EM. Лекция 4. Регрессионные модели (Лекции 2014) - PDF (63188) - СтудИзба2020-08-25СтудИзба

Описание файла

Файл "SAS EM. Лекция 4. Регрессионные модели" внутри архива находится в папке "Лекции 2014". PDF-файл из архива "Лекции 2014", который расположен в категории "". Всё это находится в предмете "(ппп соиад) (sas) пакеты прикладных программ для статистической обработки и анализа данных" из 10 семестр (2 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .

Просмотр PDF-файла онлайн

Текст из PDF

SAS ENTERPRISE MINERРЕГРЕССИОННЫЕ МОДЕЛИC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .РЕГРЕССИОННЫЙ АНАЛИЗ•Задача регрессии:y( x1,..., x p )  E (Y | X 1  x1,..., X p  x p )•Уравнение линейной регрессии:p••••N(0,ϭ2)f ( X )  b0   X j b j  ε=- шумj 1Y –отклик (критериальная переменная)X=(X1,…, Xp) - регрессоры (предикторы, факторы), b – параметры моделиЛинеаризируемые регрессии:Степенная• Экспоненциальная• Гиперболическая• и другие•C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .y  ax1b1 x2b2 ... x pp  ,byea  b1 x1  b2 x2 ... bp x p ,y  (a  b1 x1  b2 x2  ...bp x p   ) 1РЕГРЕССИОННЫЙ АНАЛИЗ•Цель регрессионного анализа:Определение наличия связи между переменными и характераэтой связи (т.

е. нахождение описывающего её математическогоуравнения)• Определение степени вариации критериальной переменнойпредикторами (отклонение от регрессии)• Предсказание значения зависимой переменной с помощьюнезависимой(-ых)• Определение вклада отдельных независимых переменных ввариацию зависимой• Задача «обучения с учителем»:• Тренировочный набор из N векторов:• Искомая модель – уравнение регрессии•Z  {( xi , yi )}1NC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .МЕТОД НАИМЕНЬШИХ КВАДРАТОВ•Оценка ошибки = сумма регрессионных остатков (квадратичнаяфункция потерь):pNNRSS ( B)   ( yi  f ( xi ))2   ( yi  b0   xijb j ) 2••••В матричной форме:i 1i 1j 1RSS ( B)  ( y  XB)T ( y  XB)Единственное оптимальное решение (если матрица данных несингулярная)Недостатки:B  ( X T X )1 X T y••Сингулярная матрица данных из-за коррелированных факторовБольшое число регрессоров – плохая точность и интерпретируемость••либо удаление зависимых и незначимых факторов (отбор)либо переход к новым независимым факторам, например, с помощью методаглавных компонентОсновные подходы:C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .КОНЦЕПЦИЯ SEMMASampleC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .ExploreModifyModelAssessГРЕБНЕВАЯ РЕГРЕССИЯ ИМЕТОД ЛАССО•Уменьшение числа ненулевых регрессоров за счет регуляризациив пространстве параметров:BridgeТочностьприближения•ppN22 arg min  ( yi  b0   xij b j )  C  (b j ) Bj 1j 1 i 1Решение (в матричном виде):Штраф засложностьмоделиB ridge  ( X T X  CI )1 X T y•Метод Лассо:•Аналогично, но штраф модуля:BC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .lassoppN2 arg min  ( yi  b0   xij b j )  ,  b j  CBj 1 i 1 j 1ШтрафКОНЦЕПЦИЯ SEMMASampleC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .ExploreModifyModelAssessПРЕОБРАЗОВАНИЕ ФАКТОРОВ ДЛЯУМЕНЬШЕНИЯ КОРРЕЛЯЦИИ•Использовать PCA (Principal Component Regression) :•для перехода в новое пространство независимых ортогональныхпризнаков меньшей размерности:X p  Z M  ( z1,..., zM ), M  p, z1  Xvm•Поскольку ортогональны, то просто сумма M одномерных задачрегрессии:Mf ( z )  y   m zmm 1•гдеСреднее по исходномуоткликуC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .m  zm , y / zm , zmPLS РЕГРЕССИЯПоследовательный поиск скрытых факторов (латентныхпеременных), таких что:Corr ( y, X )Var ( X )2max| | 1,vlT S 0,l 1,...,m 1Scatter of PredictorsScatter of First PLS Scores with Response2.505.002.00First PLSDirection3.001.50ResponsePredictor 21.001.000.500.00-1.00-0.50-1.00-3.00R2 = 0.93-1.50-5.00-5.00-4.00-3.00-2.00-1.000.00Predictor 1C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .1.002.003.004.005.00-2.00-2.00-1.50-1.00-0.500.000.50First PLS Scores1.001.502.002.50КОНЦЕПЦИЯ SEMMASampleC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .ExploreModifyModelAssessЛОГИСТИЧЕСКАЯ (ЛОГ-ЛИНЕЙНАЯ) РЕГРЕССИЯ•Моделируется функция принадлежности Pr(G=k|X=x):• через logit функцию для K-1 log(p/(1-p)), (log-odds)log•Pr(G  k | X  x)  k 0   kT x, k  1,..., K  1Pr(G  K | X  x)Граница – множество точек{x : Pr(G  k | X  x)  Pr(G  l | X  x)}  {x : logPr(G  k | X  x) 0}Pr(G  l | X  x) {x : (  k 0   l 0 )  (  k   l )T x  0}•Для класса k линейная дискриминирующая функция: k ( x)   k 0   kT x•При классификации выбирается класс с максимальнымk(x)G( x)  arg max kg  k ( x)C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .ЛОГИСТИЧЕСКАЯ РЕГРЕССИЯ•Оценка параметров•Целевая функция  arg max  i 1 log Pr ( yi | xi )•NПараметры оцениваютсяитеративным методомNIRLS (iteratively reweighted least   log Pr( yi | xi ) Ni 1  xi ( yi  p( xi ;  )) 0squares)i 1 new   old  ( X TWX ) 1 X T ( y  p)  ( X TWX ) 1 X TWzz  X old  W 1 ( y  p),Wi  p( xi ;  old )(1  p( xi ;  old ), pi  p( xi ;  old )C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .СТАНДАРТНАЯ ЛОГИСТИЧЕСКАЯ РЕГРЕССИЯp^^ x^ +w^·x + wlog=w0112 21 – p^( )1.00.90.700.80.70.6Линейная зависимость.x20.600.50.40.500.30.20.10.00.400.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0x1C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .ПОЛИНОМИАЛЬНАЯ ЛОГИСТИЧЕСКАЯРЕГРЕССИЯp^^ +w^·x + w^ ·xlog=w0112 2^1–p+ w^3 x12 + w^4 x22( )+ w^5 x1 x2x2Уравнение второго порядка1.00.90.800.80.700.70.600.700.60.600.50.40.500.30.20.10.00.300.400.400.500.600.700.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0x1C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d ....ПРЯМОЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Entry Cutoff...ПРЯМОЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Entry Cutoff...ПРЯМОЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .Entry Cutoff...ПРЯМОЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Entry Cutoff...ПРЯМОЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Entry CutoffОБРАТНЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .Stay Cutoff...ОБРАТНЫЙПОШАГОВЫЙМЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Stay Cutoff...ОБРАТНЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Stay Cutoff...ОБРАТНЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Stay Cutoff...ОБРАТНЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Stay Cutoff...ОБРАТНЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .Stay Cutoff...ОБРАТНЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Stay Cutoff...ОБРАТНЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Stay CutoffКОМБИНИРОВАННЫЙ ПОШАГОВЫЙМЕТОДInput p-valueEntry CutoffStay CutoffC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d ....КОМБИНИРОВАННЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueEntry CutoffStay CutoffC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d ....КОМБИНИРОВАННЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueEntry CutoffStay CutoffC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d ....КОМБИНИРОВАННЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueEntry CutoffStay CutoffC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d ....КОМБИНИРОВАННЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueEntry CutoffStay CutoffC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d ....КОМБИНИРОВАННЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueEntry CutoffStay CutoffC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d ....КОМБИНИРОВАННЫЙ ПОШАГОВЫЙ МЕТОДInput p-valueEntry CutoffStay CutoffC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .ВЫБОР НАИЛУЧШЕЙ МОДЕЛИОценка подгонки моделей в семествеvalidationtraining123456Семество моделей порождено пошаговыми методамиC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d ....SAS ENTERPRISE MINERНЕЙРОННЫЕ СЕТИC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5224
Авторов
на СтудИзбе
428
Средний доход
с одного платного файла
Обучение Подробнее