Главная » Просмотр файлов » SAS EM. Лекция 4. Регрессионные модели

SAS EM. Лекция 4. Регрессионные модели (1185363), страница 2

Файл №1185363 SAS EM. Лекция 4. Регрессионные модели (Лекции 2014) 2 страницаSAS EM. Лекция 4. Регрессионные модели (1185363) страница 22020-08-25СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 2)

A l l r i g h t s r es er v e d .БИОЛОГИЧЕСКАЯ МОТИВАЦИЯsynapseaxonnucleuscell bodydendrites•Человеческий мозг••••••Более 10^6 клеток (нейронов)Каждый нейрон соединен через 10^6 синапсов с другими нейронамиМозг может: обучаться, адаптироваться, распознавать образы,осознавать «себя», устойчив к шуму, травмам и ошибкамНейрон••«Входные» отростки (дендриты)«Выходные» отростки (аксоны)•идет от дендритов к аксону через тело (ядро) клетки•Синапсы разные по силе могут быть возбуждены или подавленыИнформация (сигнал, «нервный импульс»):Аксоны соединяются с дендритами (других клеток) через синапсыC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .ИСКУССТВЕННЫЙ НЕЙРОН•Определение:Нелинейная, параметризованная функция с ограниченнымдиапазоном значений••Функции активации:21.510.5логистическая0-0.5y-1-1.5-2-10-8-6-4-20246810n 1y  f  w0   wi xi i 111  exp(  x)y21.51Гиперболический тангенс0.5w00-0.5-1-1.5-2-10-8-6-4-20246810exp( x)  exp(  x)yexp( x)  exp(  x)x1C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .x2x3НЕЙРОННАЯ СЕТЬ (ИСКУССТВЕННАЯ)Математическая модель для решения задач машинногообучения••Реализуется группой соединенных нейронов для моделированиянелинейных зависимостейЗадачи:••Классификации, дискриминации, оценки плотности, регрессии,группировки и кластеризации, выявления зависимостей, главныхи независимых компонентДва типа нейронных сетей:•••Сети прямого распространения (Feed forward Neural Networks)Рекуррентные нейронные сети (Recurrent Neural Networks )C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .СЕТИ ПРЯМОГО РАСПРОСТРАНЕНИЯ•Выходной слой2 слой•1 слой•x1x2C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .…..xnСигнал передается отвходного уровня нейронов квыходному по «слоям»Расчет нелинейных выходныхфункций, от входныхпеременных каждая, каккомпозиции алгебраическихфункций активацииНет задержек, времени, т.к.нет цикловРЕКУРРЕНТНЫЕ СЕТИ•••••Произвольные топологии сцикламиМоделирует системы ссостояниями (динамическиесистемы)Есть понятие «задержки» унекоторых весовПроцесс обучения - тяжелыйРезультат не всегдапредсказуемый•x1x2•C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Нестабильный (неустойчивый)сигнал на выходеНеожиданное поведение(осцилляции, хаос, …)ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ (СУЧИТЕЛЕМ)••Цель –найти параметры нейронов (веса)Процедура:••••Нейросети (для обучения с учителем)••Дан тренировочный набор – множество пар (объект, отклик)Оценить, насколько хорошо сеть аппроксимирует этот наборМодифицировать параметры для улучшения аппроксимацииуниверсальные аппроксиматоры (для нерекуррентных сетей)Достоинства:АдаптивностьОбобщающая способность (сложность определяется в том числе архитектуройсети)• Устойчивость к ошибкам – не катастрофическая потеря точности при «порче»отдельных нейронов и весов, так как информация «распределена» по сети••C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ•Обучения на зашумленном наборе данных:••Задача поиска нейросети, соответствующей неизвестнойфункциональной зависимости, наилучшим образом описывающейнаблюдаемые данныеОбучение – задача регрессии•Приближение регрессионной функции - поиск весов, дающихнаименьшую ошибку,например:1 NJ ( w)   y p ( x k )  g ( x k , w)2 k 1•2Проблемы похожи на проблемы с регрессией, включая:••Переобучение (борьба сложности с точностью)Качество входных данных (зависимости и корреляции)C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .ПРАВИЛА ОБУЧЕНИЯ•Правило Хэбба: сила связи (вес связи) между нейронами i и j должнамодифицироваться согласно формуле::wij   yˆi x j•Параметр скорости обучения,, контролирует размер шага изменения.•Чем меньше скорость обучения тем медленней процесс сходится.•Большой размер шага обучения может привести к расходимости.•Правило Хэбба не стабильно.•Более стабильный вариант:wij   ( yi  yˆi ) x j•Называется дельта правио.•Иногда правило наименьших квадратов, т.к.

минимизирует квадратичнуюошибку.C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .ОБОБЩЕННОЕ ДЕЛЬТА ПРАВИЛО•Два этапа (для каждого примера):1.Прямой ход: прогон примера через сеть и расчет ошибки (отклоненияотклика от прогноза).2.Обратный ход: прогон ошибки обратно – модификация весов по дельтаправилу3.Пока не сойдется (веса перестанут существенно меняться).x1...ОткликОшибкаxkВходной слойC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .Скрытый слой Выходной слойУНИВЕРСАЛЬНЫЙ АПРОКСИМАТОР•Любая ограниченная функция может быть сколь угодно точно приближенанекоторой нейронной сетью с конечным числом нейроновC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .НЕ НУЖНА ЯВНАЯ ФОРМУЛИРОВКА ИСКОМОЙЗАВИСИМТИНе нужно задавать форму зависимости априори (как в регрессиях и опоныхвекторах), даже приблизительно «понимать» ее не нужно• сложнее сеть => сложнее зависимость, быстрее переобучение•C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .СКОРОСТЬНейронные сети - один из самых «быстрых» моделей на этапепрогнозирования.• Могут применяться для Больших данных (но мало кто этим пока пользуется).•C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .НЕДОСТАТОЧНАЯ ИТЕРПРЕТИРУЕМОСТЬ•Известная проблема черного ящик.•Вариант решения - Суррогатные модели•интерпретируемые модели типа деревьев решений для «приближения» результатанейросети.neural networkdecision boundarysurrogatedecision boundaryC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .ВЛИЯНИЕ ШУМАneural networkregressionsignal highnoiseC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .neural networkregressionsignal lownoiseКРИТИКА• “Itis shown that, at least for the data used in this study, the fit achieved [byregression] is approximately the same, but the process of configuring andsetting up a neural network for a database marketing applicationis not straightforward, and may require extensive experimentation andcomputer resources.”• Zahavi•Аand Levin.

1997. “Applying Neural Computing to Target• Marketing.” Journal of Direct Marketing.по сути – для задачи, в которой нейронная сеть дает хорошийрезультат, почти всегда можно найти достаточно точное решение наоснове более простых регрессионных моделей.C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .КОНЦЕПЦИЯ SEMMASampleC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .ExploreModifyModelAssessПЕРСЕПТРОН РОЗЕНБЛАТТА•••••Rosenblatt (1962)Линейное разделение:вход :вещественный векторвыход :1 или -1Решающее правило:++++++ + ++++++++++y  11c1C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .+++++++++++++y  sign(v)c0y  1+v  c0  c1 x1  c2 x2c2x1x2+++++c0  c1 x1  c2 x2  0ЛИНЕЙНЫЙ ПЕРСЕПТРОНdg 1 ( yˆ )  w0   wi xii 1x1x2...w1w2wdxdC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .•w0g 1  yˆ Доступные функции комбинации:•Linearвзвешенная сумма(default).•Additiveне взвешенная сумма•Equal Slopes сумма с одинаковымивесами (но сдвиг разный)ФУНКЦИИ АКТИВАЦИИ1arctanActivationElliottlogistic0tanh1C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .0Net InputМНОГОСЛОЙНЫЙ ПЕРСЕПТРОНВыходной слой•2 слой•1 слойInput dataC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .Один или более скрытых уровнейФункции активации сигмоидальноготипаМНОГОСЛОЙНЫЙ ПЕРСЕПТРОНd1g ( yˆ )  w0   wi gi  w0i   wij x j i 1j 1hСкрытый слойw11x1w01w1w1n...w0...wd1xdC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .wdnw0nwng 1  yˆ ПЕРСЕПТРОН С ПРЯМЫМИ СОЕДИНЕНИЯМИddg 1 ( yˆ )  w0   wi gi  w0i   wij x j    w11k xki 1j 1 k 1hСкрытый слойw11x1w01w1w1n...w0...wd1xdC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .wdnw0nПрямые соединенияwng 1  yˆ ДВА И БОЛЕЕ СКРЫТЫХ СЛОЯndg ( yˆ )  w0   wk g k  w0 k   w jk g j ( w0 jk   wijk xi ) k 1j 1i 1m1Вложенные скрытые слоиx1w111w011w11m......C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .wdmnw01w1nwdm1xdw11w1...w0wd1w01dwdmw0nwmg 1  yˆ ФОРМА СИГМОИДАC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .РАЗЛОЖЕНИЕ ПО БАЗИСУ СИГМОИДАЛЬНЫХФУНКЦИЙСумма правильного числа правильно вложенных взвешенных сигмоидовс подобранными коэфициентами может приблизить любуюзависисимость• Оптимальная архитектура для каждой задачи своя, подбираетсяэмпирически•C op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

A l l r i g h t s r es er v e d .ТИПЫ РЕШАЕМЫХ ЗАДАЧАрхитектура Тип разделяющегоправиласетиТолько выхододнослойныйдвухслойныйC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c . A l l r i g h t s r es er v e d .ЛинейнаягиперплоскостьВыпуклыеоткрытыеобластиПроизвольныеобласти(сложностьограниченачислом нейронов )XOR задачаABBAABBAABBAПолучаемыеобластиBBBAAAСамый общийвозможный видРАДИАЛЬНО-БАЗИСНЫЕ СЕТИ•Свойства:Один скрытый слой нейроновФункция активации типа потенциальной (ядерной)• Зависит от расстояния между входным сигналом и прототипом••выходыRBF слойвходыC op yr i g h t © 2 0 1 2 , S A S I n s t i t u t e I n c .

Характеристики

Список файлов лекций

Свежие статьи
Популярно сейчас
А знаете ли Вы, что из года в год задания практически не меняются? Математика, преподаваемая в учебных заведениях, никак не менялась минимум 30 лет. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6310
Авторов
на СтудИзбе
312
Средний доход
с одного платного файла
Обучение Подробнее