Главная » Просмотр файлов » Хайкин С. - Нейронные сети

Хайкин С. - Нейронные сети (778923), страница 16

Файл №778923 Хайкин С. - Нейронные сети (Хайкин С. - Нейронные сети) 16 страницаХайкин С. - Нейронные сети (778923) страница 162017-12-21СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 16)

Хотя обучение с подкреплением использовалось и до этого [например, в кандидатской диссертации Минского в 1954 году), эта работа вызвала большой интерес к обучению с подкреплением и его применению в задачах управления. В частности, в этой работе было продемонстрировано, что при использовании обучения с подкреплением можно обеспечить балансировку перевернутого маятника (т.е. шеста, установленного на подвижной платформе) при отсутствии учителя. Системе нужно знать только угол наклона шеста относительно вертикали и момент достижения платформой крайней точки области движения. В 1996 году вышла в свет книга, в которой описывались математические основы обучения с подкреплением, связанные с принципом динамического программирования Беллмана [126]. В 1984 году вышла в свет книга, в которой обосновывается принцип целеналравленного самоорганизующегося выполнения [8оа1-Йгес$ед зе1Г-огйашгед регГоппапсе), состоящий в том, что понимаиия сложиого процесса легче всего достичь путем синтеза элементарных механизмов, а не анализа "сверху вниз" [149].

Под видом научной фантастики Брайтенберг иллюстрирует этот важный принцип описанием различных систем с простой внутренней архитектурой. Свойства этих систем и их поведение определяются результатами исследования мозга животных. Эту тему автор изучал, явно или опосредованно, более 20 лет. В 1986 году был разработан алгоритм обратного распространения ошибки [Ьас1сргорайабоп а18опбпп) [914]. В том же году издан двухтомник [912].

Эта книга оказала большое влияние на использование алгоритма обучения обратного распространения, Этот алгоритм стал самым популярным для обучения многослойных персептронов. Примерно в это же время, независимо друг от друга, алгоритм обратного распространения был получен и другими исследователями [619], [817]. После открытия алгоритма обратного распространения в середине 1980-х годов оказалось, что ои был уже описан ранее в кандидатской диссертации Вербоса [%егЬоз) в 1974 году в Гарвардском университете. Эта диссертация стала самым первым документированным описанием градиентного метода оптимизации, применяемого к общим моделям сетей, и как частный случай — к моделям нейронных сетей. Основная идея обратного распространения была изложена в [163].

В разделе 2.2 настоящей книги будет описан вариант алгоритма обратного распространения, основанный на формализме Лагранжа. Однако все лавры достались Руммельхарту, Хинтону и Вильямсу [914], [915] за предложение использовать этот алгоритм для машинного обучения и демонстрацию его работы. 82 Глава !. Введение В 1988 году Линскер описал новый принцип самоорганизации в перцепционной сети [653]. Этот принцип обеспечивал сохранность максимального количества информации о входных образах за счет ограничений, накладываемых на синаптические связи и динамический диапазон синапса. Аналогичные результаты были получены и несколькими другими исследователями системы зрения независимо друг от друга. Однако лишь концепция Линскера базировалась на теории информации, созданной Шенноном в 1948 году.

На ее основе Линскер сформулировал принцип максиму.на взаимной информации (шахппцш пш!ва! 1пТопнайоп) 1пгошах. Его работа открыла двери применению теории информации в нейронных сетях. В часпюсти, применение теории информации к задаче слепого разделения источников (Ы)по вошсе аерагабоп) [116] послужило примером для применения других информационно-теоретических моделей к решению широкого класса задач так называемого слелого обршцеиия свертки (Ышо оесопчо!пг)оп).

В том же 1988 году Брумхед и Лове описали процедуру построения многослойной сети прямого распространения на базе радиальных базисных функций (гагйа! Ьаа(з Тппс!)оп) [160], которая стала альтернативой многослойному персептрону. Положенная в основу такой сети идея радиальных базисных функций уходит корнями к нетоду лотенциальных функций (шегЬоо оТ росепйа! йшсйопз), предложенному в [102].

Теоретические основы метода потенциальных функций были разработаны в [1!], [12]. Описание метода функций потенциала приведено также в [269]. Работа [160] вызвала большой интерес и послужила толчком к увеличению объема исследований в области взаимосвязи нейронных сетей и линейных адаптивных фильтров. В 1990 году теория сетей на основе радиальных базисных функций получила дальнейшее развитие за счет применения к ней теории регуляризации Тихонова [847].

В 1989 году вышла книга, в которой описывалось множество различных концепций, заимствованных из нейробиологии и технологии ЧАЕВ! [720]. Помимо всего прочего, в ней содержались главы, посвященные созданию сетчатки и слуховой улитки на основе кремния. Эти главы явились хорошим примером креативного мышления автора. В начале 1990-х Вапник (Чарп1!г) и его коллеги выделили мощный с вычислительной точки зрения класс сетей, обучаемых с учителем, получивший название машины опорных векторов (ьпррог! чесгог гпасЫпе). Такие сети позволяют решать задачи распознавания образов, регрессии и оценки плотности [141], [212], [1084], [1085].

Этот новый метод основан на результатах теории обучения на основе выборки конечного размера. Работа систем опорных векторов основана на использовании УС-измерения (измерения Вапника — Червоненкиса), которое позволяет вычислять емкость нейронной сети, обучаемой на множестве примеров [1087], [1088]. В настоящее время хорошо известно, что хаос (сйаоз) является ключевым аспектом многих физических явлений. Возникает вопрос: играет ли хаос столь же важную роль в обучении нейронных сетей? В [310] утверждается, что в биологическом кон- Задачи 83 тексте ответ на этот вопрос является положительным.

По мнению автора этой работы, образы нейронной активности не привносятся в мозг извне, а содержатся в нем самом, В частности, хаотическая динамика представляет базис для описания условий, необходимых для проявления свойства эмерджентности в процессе самоорганизации популяций нейронов. Пожалуй, наибольшее влияние на возобновление интереса к нейронным сетям в 1980-х годах оказали (480) и [912). За период, прошедший с момента публикации статьи Мак-Каллока и Питца, нейронные сети прошли долгий и тернистый путь. Теория нейронных сетей стала междисциплинарной областью исследований, тесно связанной с нейробнологией, математикой, психологией, физикой и инженерией. Нет необходимости дополнительно говорить о том, что с развитием теории нейронных сетей будут нарашивать свой теоретический и прикладной потенциал и эти науки.

Задачи Модели нейрона 1.1. Диапазон значений логнстической функции 1 ф(е) = 1+ ехр( — ае) ограничен нулем и единицей. Покажите, что производная функции <р(е) опи- сывается выражением — = а~р(е) (1 — <р(е)1 йр дю Каково значение этой производной в начале координат? 1.2. Нечетная сигмоидальная функция задается формулой 1 — ехр( — ае) аю 1+ ехр( — ае) 2 где 1Ь обозначает гиперболический тангенс. Областью значений этой функции является интервал от — 1 до +1. Покажите, что производная функции ф(с) описывается выражением — = -Р— р (е)!. йр а г сЬ 2 84 Глава 1. Введение Каково значение этой производной в начале координат? Предположим, что параметр наклона а — бесконечно большой. В функцию какого вида выродится ср(о)? 1.3.

Рассмотрим еще одну нечетную сигмондальную функцию (алгебраическую сигмоиду) значения которой принадлежат интервалу от — 1 до +1. Покажите, что производная функции ф(о) описывается выражением Каково значение этой производной в начале координат? 1.4. Рассмотрим следующие функции: 1 Г' 2 у(с) = — / ехр( — — )Йх и ~р(о) = — агсСК(о). ~(2к 1 2 к Обьясните, почему обе эти функции подходят под определение сигмодной функции? Чем они отличаются друг от друга? 1.5. Какие из пяти сигмоидных функций, описанных в задачах 1.1 — 1.4, можно назвать кумулятивными (вероятностными) функциями распределения? Обоснуйте свой ответ.

1.6. Рассмотрим псевдолинейную функцию активации ф(о), показанную на рис. 1.26. а) Выпишите функциональную зависимость ф(и) в аналитическом виде. б) Как изменится функция 1р(о), если параметр а принять равным нулю? 1.7. Решите задачу 1.6 для псевдолинейной функции активации, показанной на рис. 1.27. Задачи 66 -0,5а 0 0,5а Рис. 1.26. График функции активации Рис. 1.27.

Еще один пример функции активации 1.8. Пусть функция активации нейрона <р(о) имеет вид логистической функции из задачи 1.1, где ц — индуцированное локальное поле, а параметр наклона а может изменяться. Пусть х„хз, ..., х — множество входных сигналов, передаваемых на вход нейрона, а б — пороговое значение. Для удобства исключим из рассмотрения параметр а, получив в результате следующую формулу: 1 ф(ц) = 1+ ехр( — о) Как нужно изменить входной сигнал х„хз, ..., х, чтобы получить на выходе прежний сигнал? Обоснуйте свой ответ. 1.9. Нейрон з получает входной сигнал от четырех других нейронов, уровни возбуждения которых равны 10, — 20, 4 и — 2. Соответствующие веса связей этого нейрона равны 0,8,0,2, — 1,0 и — 0,9.

Вычислите выходное значение нейрона з для двух случаев. а) Нейрон — линейный. б) Нейрон представлен моделью Мак-Каллока-Питца. Предполагается, что порог отсутствует. 86 Глава 1. Введение 3 чН Рис. 1.28. Структурный граф сети 1.10. Решите задачу 1.9 для нейрона, модель которого описывается логистической функцией следующего вида: 1 е(с) = 1+ ехр( — с) 1.11. Решите следующие задачи. а) Покажите, что формальную модель нейрона Мак-Каллока-Питца можно аппроксимировать сигмоидным нейроном (т.е. нейроном, функция активации которого описывается сигмоидной функцией, а синаптические веса имеют большие значения), б) Покажите, что линейный нейрон можно аппроксимировать сигмоидным нейроном с маленькими синаптическими весами. Сетевые архитектуры 1.12.

Полносвязная сеть прямого распространения имеет десять входных узлов, два скрытых слоя (один с четырьмя, а другой с пятью нейронами) и один нейрон в выходном слое. Постройте структурный граф этой нейронной сети. 1.13. Решите следующие задачи. а) На рис. 1.28 представлен граф прохождения сигнала по сети прямого распространения вида 2-2-2-1. Функция гр( ) является логистической.

Опишите отображение вход-выход для этой сети. б) Пусть выходной нейрон сети, показанной на рис. 1.28, работает в линей- ной области. Опишите отображение вход-выход для такой сети. Задачи 87 Рис. 1.29. Рекуррентная сеть с двумя ней- Рис. 1.30.

Характеристики

Тип файла
DJVU-файл
Размер
10,59 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6529
Авторов
на СтудИзбе
301
Средний доход
с одного платного файла
Обучение Подробнее