Лекция (7), страница 2

PDF-файл Лекция (7), страница 2 (МИАД) Методы интеллектуального анализа данных (64424): Лекции - 11 семестр (3 семестр магистратуры)Лекция (7): (МИАД) Методы интеллектуального анализа данных - PDF, страница 2 (64424) - СтудИзба2020-08-25СтудИзба

Описание файла

PDF-файл из архива "Лекция (7)", который расположен в категории "". Всё это находится в предмете "(миад) методы интеллектуального анализа данных" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .

Просмотр PDF-файла онлайн

Текст 2 страницы из PDF

1997. “Applying Neural Computing to TargetMarketing.” Journal of Direct Marketing.по сути – для задачи, в которой нейронная сеть даетхороший результат, почти всегда можно найти достаточноточное решение на основе более простых регрессионныхмоделей.Персептрон РозенблаттаRosenblatt (1962)Линейное разделение:вход :вещественный векторвыход :1 или -1Решающее правило:1++++ + ++++++y  1+++++y  1c1++++++++++++++y  sign(v)c0+v  c0  c1 x1  c2 x2c2x1x2+++++c0  c1 x1  c2 x2  0КОНЦЕПЦИЯ SEMMASampleExploreModifyModelAssessЛинейный персептрон (он же GLM)dg 1 ( yˆ )  w0   wi xii 1x1x2...xdw1w2wd•w0g 1  yˆ Доступные функции комбинации:•Linearвзвешенная сумма(default).•Additiveне взвешенная сумма•Equal Slopes сумма с одинаковымивесами (но сдвиг разный)Функции активации (она же обратная кфункции связи)1arctanActivationElliottlogistic0tanh10Net InputМногослойный персептронВыходной слой2 слой1 слойInput dataОдин или более скрытых уровнейФункции активациисигмоидального типаМногослойный персептронd1g ( yˆ )  w0   wi gi  w0i   wij x j i 1j 1hСкрытый слойw11x1w01w1w1n...w0...wd1xdwdnw0nwng 1  yˆ Персептрон с прямыми соединениямиddg 1 ( yˆ )  w0   wi gi  w0i   wij x j    w11k xki 1j 1 k 1hСкрытый слойw11x1w01w1w1n...w0...wd1xdwdnw0nПрямые соединенияwng 1  yˆ Два и более скрытых слояndg ( yˆ )  w0   wk g k  w0 k   w jk g j ( w0 jk   wijk xi ) k 1j 1i 1m1Вложенные скрытые слоиx1w111w011w11m......wdmnw01w1nwdm1xdw11w1...w0wd1w01dwdmw0nwmg 1  yˆ Форма сигмоидаРазложение по базису сигмоидальных функцийСумма правильного числа правильно вложенных взвешенныхсигмоидов с подобранными коэфициентами может приблизитьлюбую зависисимостьОптимальная архитектура для каждой задачи своя,подбирается эмпирическиТипы решаемых задачАрхитектура Тип разделяющегоправиласетиТолько выхододнослойныйдвухслойныйЛинейнаягиперплоскостьВыпуклыеоткрытыеобластиПроизвольныеобласти(сложностьограниченачислом нейронов )XOR задачаABBAABBAABBAПолучаемыеобластиBBBAAAСамый общийвозможный видРадиально-базисные сетиСвойства:Один скрытый слой нейронов Функция активации типа потенциальной (ядерной) Зависит от расстояния между входным сигналом и прототипомвыходыRBF слойвходыРАДИАЛЬНО-БАЗИСНЫЕ СЕТИСкрытый слой:Каждый нейрон связан с прототипом – центр «зоны влияния» Обычно гауссова ядерная функция, значение зависит от расстояния, ноне от конкретных значений: x  c j  exp x  c j /  jВыходной слой линейный, реализуемая функция:s( x)   j 1W j  x  c jK2Прототипы - центры регионов классов с высокой плотностьюРАДИАЛЬНО-БАЗИСНЫЕ СЕТИ OrdinaryRadial Basis Functions (ORBFs) NormalizedRadial Basis Functions (NRBFs)Форма функции гауссаw0  w1 exp  w012 x  w11 2w0+w1w1 > 0w0w1 < 0w0-w1xw11ОБЫЧНЫЕ РАДИАЛЬНО-БАЗИСНЫЕ СЕТИRBF нейронная сеть2g ( yˆ )  w0   wi exp  w0i   ( wij  x j ) i 1 jh1Скрытый слойx1w11•w01w1n...w0...wd1xdw1w0hwdnwhg 1  yˆ Типы параметров обычной RBF сети:•XRADIAL - высота и ширина ядраразличные у всех нейронов•EQRADIAL - высота и ширина ядраодинаковые•EWRADIAL - одинаковая ширина•EHRADIAL - одинаковая высотаПроблема локального эффекта•Локальный эффект:•сложнее функция – больше прототипов•Проклятие размерностиНормализованные радиально-базисные сети22 g ( yˆ )  w0   wi softmax  f .

ln( ai )  w0i   ( wij  x j ) i 1 jh1…+x1w11w01w1n...w1...wd1xdСкрытый слойwdnw0n+…w0wng 1  yˆ Проблема локальных минимумовw0  w1 exp (  w012 (x  w11 )2 )Ранняя остановка – борьба с переобучениемИнициализацияtanhx10small random valuesy0xdtanhПредварительное обучениеКритерии схоимостиРегуляризацияObjective Function  Error Function   w=0>0w11w110002w10w1Оценки максимального правдоподобия y   (w )  2Q(w )  0.5   ln( 2 )  ln( )Оценка отклоненияПоиск параметров модели• решается задача оптимизации• max loglik с заданным распределением и функцией связиРаспределениеОтклонение( y   (w )) 2NormalQ(w ) PoissonQ(w )  2  y ln( y /  (w ))  ( y   (w ))GammaQ(w )  2  ln( y /  (w ))  ( y   (w )) /  (w )BernoulliQ(w )  2  y ln( (w ))  (1  y ) ln(1   (w ))Робастные оценки yi   i (w )  n   ( z i )Q(w )    i 1yi 1n ( z )  0.5z 2Normal ( z)  zLaplace ( z )  0.5z 2if z  1Huber’s ( z )  z - 0.5if z  1Комбинации функций активации ираспределения ошибокОткликФункция связиФункуцияактивацииРаспределениеошибокЧислаIdentityIdentityNormalIdentityIdentityHuberLogExponentialPoissonLogExponentialGammaLogitLogisticBernoulliGeneralized LogitSoftmaxMBernoulliCumulative LogitLogistic (See note.) MBernoulliКатегориии порядкиПропорции LogitGeneralized LogitLogisticEntropySoftmaxMEntropyОбратная кумулятивная logit называется Logistic.Постановка задачи оптимизацииМетоды первого порядка – градиентные (используют шаг «вдоль»направления градиента – вектора первых производных)выбор шага (константа, дробный выбор, адаптивный, наискорейший) выбор напраления (с учетом предыдущих шагов, например сопряженныеградиенты)Методы второго порядка – ньютоновские (используют матрицу вторыхпроизводных Гессе для «выбора шага»)проблема – вычисление обратной матрицы Гессе на каждом шагеИтерационные методыw (t 1)  w (t )  δ (t )Градиентный:δ (t )  g (t )Ньютона:δ (t )  [H (t ) ]-1 g (t )Обратное распространение ошибки (градиентный метод)δ(t )  g (t )  δ(t 1)87 iterations( = 0.5,  = 0.9)285 iterations( = 0.1,  = 0.9)Недостатки: долго, тяжело «угадать» параметрыБыстрое обратное распространение ошибкиδ(t )~ (t -1) -1 (t ) [diag (H )] g38 iterations57 iterationsПриближаем функцию ошибки «параболой», вычисляемдиагональ Гессиана «приближенной» функцииЛевенберга — Марквардтаδ(t )  (J (t ) ' J (t )  (t ) I) 1 J (t ) ' r (t )Комбинация градиентного (лямбда велико) и Ньютона (лямбда=0),Применим для небольшого количества переменных <100Квазиньютоновские методыδ(t )   (t ) [B(t 1)  E(t 1) ]1 g (t )11 iterations8 iterationsПриближаем H как сумму B и E, обычно E – единичнаяПрименим для среднего размера задач <500 переменныхМетод Сопряженных градиентовδ(t )   (t ) [g (t )  β(t 1)δ(t 1) ]66 iterations45 iterationsВыбор следующего направления как сопряженного (относительноматрицы Гессе) к предыдущим направлениям шага.

Позволяет нерассчитывать H на каждом шаге и работает с большими задачами.Метод доверительных областей (trusted regions)δ(t )  (H(t )  (t ) I) 1 g (t )Работает для небольших задач <40, но зато с сильно «неквадратичными» целевыми функциямиКомбинированный (градиент+ньютон) Double-Dogleg(t )(t )δ (t )  1sSteepestsDescent2 Quasi NewtonОсновные настройки нейронной сетиПроцедура NEURALPROC NEURAL DATA=<SAS-data-set> DMDBCAT=<catalog>;INPUT <variable(s)> / LEVEL=<level> ID=<name>;HIDDEN <integer> / ID=<name>;TARGET <targets> / LEVEL=<level> ID=<name>;CONNECT <name> … <name>;PRELIM <integer> MAXITER=<integer>;TRAIN;RUN;PROC NEURAL позволяет строить сети прямогораспространения пользовательской архитектурыЗадание архитектурыPROC NEURAL DATA=<SAS data set> DMDBCAT=<catalog>;INPUT <inputs> / LEVEL=<level>;TARGET <targets> / LEVEL=<level>;ARCHI <architecture-name> <HIDDEN=integer> <DIRECT>;PRELIM <integer> MAXITER=<integer>;TRAIN;RUN;PROC NEURAL DATA=<SAS data set> DMDBCAT=<catalog>;INPUT <inputs> / LEVEL=<level> ID=<name>; HIDDENARCHIпозволяет задать типовую<integer> / ID=<name>;TARGET<targets> / сLEVEL=<level>ID=<name>; слоемархитектуруодним скрытымCONNECT <ID-list>; PRELIMCONNECTзадавать свою<integer>позволяетMAXITER=<integer>;TRAIN;архитектуру, соединяя уровниRUN;Глубинное обучениеГлубинное обучение (англ.

Deep learning) — набор алгоритмов машинногообучения, которые пытаются моделировать высокоуровневые абстракции вданных, используя архитектуры, состоящие из множества нелинейныхтрансформаций //WikipediaОбычно:• либо многослойниые нейронные сети, где часть уровней отвечает завыявление признаков (unsupervised режим), часть за прогнозирование(supervised режим)• либо kernel методы (будут далее), также включают как структурывыявления признаков (например, kernel PCA, unsupervised режим) так иструктуры для прогнозирования (SVM на основе найденных нелинейныхглавных компонент, supervised режим)Одна из ключевых особенностей – требуется поэтапное обучение внесколько «проходов» с «заморозкой» коэфициентов части слоев илиструктур.В процедуре neural есть операторы freeze и thaw!!!Пример: репликаторные нейронные сети.

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5168
Авторов
на СтудИзбе
438
Средний доход
с одного платного файла
Обучение Подробнее