Хайкин С. - Нейронные сети (778923), страница 16
Текст из файла (страница 16)
Хотя обучение с подкреплением использовалось и до этого [например, в кандидатской диссертации Минского в 1954 году), эта работа вызвала большой интерес к обучению с подкреплением и его применению в задачах управления. В частности, в этой работе было продемонстрировано, что при использовании обучения с подкреплением можно обеспечить балансировку перевернутого маятника (т.е. шеста, установленного на подвижной платформе) при отсутствии учителя. Системе нужно знать только угол наклона шеста относительно вертикали и момент достижения платформой крайней точки области движения. В 1996 году вышла в свет книга, в которой описывались математические основы обучения с подкреплением, связанные с принципом динамического программирования Беллмана [126]. В 1984 году вышла в свет книга, в которой обосновывается принцип целеналравленного самоорганизующегося выполнения [8оа1-Йгес$ед зе1Г-огйашгед регГоппапсе), состоящий в том, что понимаиия сложиого процесса легче всего достичь путем синтеза элементарных механизмов, а не анализа "сверху вниз" [149].
Под видом научной фантастики Брайтенберг иллюстрирует этот важный принцип описанием различных систем с простой внутренней архитектурой. Свойства этих систем и их поведение определяются результатами исследования мозга животных. Эту тему автор изучал, явно или опосредованно, более 20 лет. В 1986 году был разработан алгоритм обратного распространения ошибки [Ьас1сргорайабоп а18опбпп) [914]. В том же году издан двухтомник [912].
Эта книга оказала большое влияние на использование алгоритма обучения обратного распространения, Этот алгоритм стал самым популярным для обучения многослойных персептронов. Примерно в это же время, независимо друг от друга, алгоритм обратного распространения был получен и другими исследователями [619], [817]. После открытия алгоритма обратного распространения в середине 1980-х годов оказалось, что ои был уже описан ранее в кандидатской диссертации Вербоса [%егЬоз) в 1974 году в Гарвардском университете. Эта диссертация стала самым первым документированным описанием градиентного метода оптимизации, применяемого к общим моделям сетей, и как частный случай — к моделям нейронных сетей. Основная идея обратного распространения была изложена в [163].
В разделе 2.2 настоящей книги будет описан вариант алгоритма обратного распространения, основанный на формализме Лагранжа. Однако все лавры достались Руммельхарту, Хинтону и Вильямсу [914], [915] за предложение использовать этот алгоритм для машинного обучения и демонстрацию его работы. 82 Глава !. Введение В 1988 году Линскер описал новый принцип самоорганизации в перцепционной сети [653]. Этот принцип обеспечивал сохранность максимального количества информации о входных образах за счет ограничений, накладываемых на синаптические связи и динамический диапазон синапса. Аналогичные результаты были получены и несколькими другими исследователями системы зрения независимо друг от друга. Однако лишь концепция Линскера базировалась на теории информации, созданной Шенноном в 1948 году.
На ее основе Линскер сформулировал принцип максиму.на взаимной информации (шахппцш пш!ва! 1пТопнайоп) 1пгошах. Его работа открыла двери применению теории информации в нейронных сетях. В часпюсти, применение теории информации к задаче слепого разделения источников (Ы)по вошсе аерагабоп) [116] послужило примером для применения других информационно-теоретических моделей к решению широкого класса задач так называемого слелого обршцеиия свертки (Ышо оесопчо!пг)оп).
В том же 1988 году Брумхед и Лове описали процедуру построения многослойной сети прямого распространения на базе радиальных базисных функций (гагйа! Ьаа(з Тппс!)оп) [160], которая стала альтернативой многослойному персептрону. Положенная в основу такой сети идея радиальных базисных функций уходит корнями к нетоду лотенциальных функций (шегЬоо оТ росепйа! йшсйопз), предложенному в [102].
Теоретические основы метода потенциальных функций были разработаны в [1!], [12]. Описание метода функций потенциала приведено также в [269]. Работа [160] вызвала большой интерес и послужила толчком к увеличению объема исследований в области взаимосвязи нейронных сетей и линейных адаптивных фильтров. В 1990 году теория сетей на основе радиальных базисных функций получила дальнейшее развитие за счет применения к ней теории регуляризации Тихонова [847].
В 1989 году вышла книга, в которой описывалось множество различных концепций, заимствованных из нейробиологии и технологии ЧАЕВ! [720]. Помимо всего прочего, в ней содержались главы, посвященные созданию сетчатки и слуховой улитки на основе кремния. Эти главы явились хорошим примером креативного мышления автора. В начале 1990-х Вапник (Чарп1!г) и его коллеги выделили мощный с вычислительной точки зрения класс сетей, обучаемых с учителем, получивший название машины опорных векторов (ьпррог! чесгог гпасЫпе). Такие сети позволяют решать задачи распознавания образов, регрессии и оценки плотности [141], [212], [1084], [1085].
Этот новый метод основан на результатах теории обучения на основе выборки конечного размера. Работа систем опорных векторов основана на использовании УС-измерения (измерения Вапника — Червоненкиса), которое позволяет вычислять емкость нейронной сети, обучаемой на множестве примеров [1087], [1088]. В настоящее время хорошо известно, что хаос (сйаоз) является ключевым аспектом многих физических явлений. Возникает вопрос: играет ли хаос столь же важную роль в обучении нейронных сетей? В [310] утверждается, что в биологическом кон- Задачи 83 тексте ответ на этот вопрос является положительным.
По мнению автора этой работы, образы нейронной активности не привносятся в мозг извне, а содержатся в нем самом, В частности, хаотическая динамика представляет базис для описания условий, необходимых для проявления свойства эмерджентности в процессе самоорганизации популяций нейронов. Пожалуй, наибольшее влияние на возобновление интереса к нейронным сетям в 1980-х годах оказали (480) и [912). За период, прошедший с момента публикации статьи Мак-Каллока и Питца, нейронные сети прошли долгий и тернистый путь. Теория нейронных сетей стала междисциплинарной областью исследований, тесно связанной с нейробнологией, математикой, психологией, физикой и инженерией. Нет необходимости дополнительно говорить о том, что с развитием теории нейронных сетей будут нарашивать свой теоретический и прикладной потенциал и эти науки.
Задачи Модели нейрона 1.1. Диапазон значений логнстической функции 1 ф(е) = 1+ ехр( — ае) ограничен нулем и единицей. Покажите, что производная функции <р(е) опи- сывается выражением — = а~р(е) (1 — <р(е)1 йр дю Каково значение этой производной в начале координат? 1.2. Нечетная сигмоидальная функция задается формулой 1 — ехр( — ае) аю 1+ ехр( — ае) 2 где 1Ь обозначает гиперболический тангенс. Областью значений этой функции является интервал от — 1 до +1. Покажите, что производная функции ф(с) описывается выражением — = -Р— р (е)!. йр а г сЬ 2 84 Глава 1. Введение Каково значение этой производной в начале координат? Предположим, что параметр наклона а — бесконечно большой. В функцию какого вида выродится ср(о)? 1.3.
Рассмотрим еще одну нечетную сигмондальную функцию (алгебраическую сигмоиду) значения которой принадлежат интервалу от — 1 до +1. Покажите, что производная функции ф(о) описывается выражением Каково значение этой производной в начале координат? 1.4. Рассмотрим следующие функции: 1 Г' 2 у(с) = — / ехр( — — )Йх и ~р(о) = — агсСК(о). ~(2к 1 2 к Обьясните, почему обе эти функции подходят под определение сигмодной функции? Чем они отличаются друг от друга? 1.5. Какие из пяти сигмоидных функций, описанных в задачах 1.1 — 1.4, можно назвать кумулятивными (вероятностными) функциями распределения? Обоснуйте свой ответ.
1.6. Рассмотрим псевдолинейную функцию активации ф(о), показанную на рис. 1.26. а) Выпишите функциональную зависимость ф(и) в аналитическом виде. б) Как изменится функция 1р(о), если параметр а принять равным нулю? 1.7. Решите задачу 1.6 для псевдолинейной функции активации, показанной на рис. 1.27. Задачи 66 -0,5а 0 0,5а Рис. 1.26. График функции активации Рис. 1.27.
Еще один пример функции активации 1.8. Пусть функция активации нейрона <р(о) имеет вид логистической функции из задачи 1.1, где ц — индуцированное локальное поле, а параметр наклона а может изменяться. Пусть х„хз, ..., х — множество входных сигналов, передаваемых на вход нейрона, а б — пороговое значение. Для удобства исключим из рассмотрения параметр а, получив в результате следующую формулу: 1 ф(ц) = 1+ ехр( — о) Как нужно изменить входной сигнал х„хз, ..., х, чтобы получить на выходе прежний сигнал? Обоснуйте свой ответ. 1.9. Нейрон з получает входной сигнал от четырех других нейронов, уровни возбуждения которых равны 10, — 20, 4 и — 2. Соответствующие веса связей этого нейрона равны 0,8,0,2, — 1,0 и — 0,9.
Вычислите выходное значение нейрона з для двух случаев. а) Нейрон — линейный. б) Нейрон представлен моделью Мак-Каллока-Питца. Предполагается, что порог отсутствует. 86 Глава 1. Введение 3 чН Рис. 1.28. Структурный граф сети 1.10. Решите задачу 1.9 для нейрона, модель которого описывается логистической функцией следующего вида: 1 е(с) = 1+ ехр( — с) 1.11. Решите следующие задачи. а) Покажите, что формальную модель нейрона Мак-Каллока-Питца можно аппроксимировать сигмоидным нейроном (т.е. нейроном, функция активации которого описывается сигмоидной функцией, а синаптические веса имеют большие значения), б) Покажите, что линейный нейрон можно аппроксимировать сигмоидным нейроном с маленькими синаптическими весами. Сетевые архитектуры 1.12.
Полносвязная сеть прямого распространения имеет десять входных узлов, два скрытых слоя (один с четырьмя, а другой с пятью нейронами) и один нейрон в выходном слое. Постройте структурный граф этой нейронной сети. 1.13. Решите следующие задачи. а) На рис. 1.28 представлен граф прохождения сигнала по сети прямого распространения вида 2-2-2-1. Функция гр( ) является логистической.
Опишите отображение вход-выход для этой сети. б) Пусть выходной нейрон сети, показанной на рис. 1.28, работает в линей- ной области. Опишите отображение вход-выход для такой сети. Задачи 87 Рис. 1.29. Рекуррентная сеть с двумя ней- Рис. 1.30.