Главная » Просмотр файлов » Хайкин С. - Нейронные сети

Хайкин С. - Нейронные сети (778923), страница 148

Файл №778923 Хайкин С. - Нейронные сети (Хайкин С. - Нейронные сети) 148 страницаХайкин С. - Нейронные сети (778923) страница 1482017-12-21СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 148)

В свете (11.78) можно записать: ц.) > ~ ох, = „и. = ..) ~„~ Р(Х = х) ФХа = ха~Х. = «.) *о или, эквивалентно: 1-(тт) > — ,'1 ®Ха = ха~Хе = х„) 1ой фХа = ха~Х,„= х,„) + хк + ~~> Я(Ха = ха~Х„= х„) 1ой Р(Х = х). (11.79) Первое слагаемое в правой части (11.79) представляет собой энтропию распределения среднего поля Я(Ха =ха~Х„=х,„). Не следует путать его с условной энтропией! Второе слагаемое представляет собой среднее логарифма 1ой Р(Х=х) по всем возможным состояниям скрытых нейронов. При единичной температуре (см.

рассуждения о распределении Гиббса в разделе 11.2) энергия сигмоидальной сети доверия равна — 1од Р(Х = х). Таким образом, с учетом (11.61) при Т = 1, получим: Р(Х = х) = П~р х, ~> юлхк 3 $<~ Следовательно, Е = — 1ойР(Х = х) = — ~~) 1ойд х, ~и„х, 3 к<э (11.80) Используя определение сигмоидальной функции 1 ехр(о) 1+ ехр( — о) 1+ ехр(о) ' Е = — ~> ~ш„х,х, + ~~ '1ой 1+х, ',к ш„,т,, (11,81) як<э з ю<э функцию энергии сигмоидальной сети доверия можно формально выразить следующим образом: 11.12.

Детерминированные сигмоидальные сети доверия 737 За исключением множителя 1/2, в первом слагаемом правой части (11.81) можно узнать функцию энергии Марковской системы (например, машины Больцмана). Однако второе слагаемое уникально только для сигмоидальных сетей доверия. Нижняя граница (11.79) подходит для любого распределения среднего поля Я(Хр =хр]Х„=х„). Однаю для удобства использования необходимо выбрать таюе распределение, которое позволит оценить эту границу.

Для этого используем факториальное расиределение (Гас!от(а! д1аатЬпг!оп) 1936]: ФХр ха]Ха = ха) — П Р~ (1- Нз) (11. 82) зен где Н вЂ” множество всех скрытых нейронов, а состояния скрытых нейронов представляют собой независимые переменные Бернулли (Вегпоп!й тапаЫе) с корректируемым средним !з,. (Веглоп!!! (О) определяется как двоичная случайная переменная, принимаюшая значение 1 с вероятностью О.) Исходя из этого, подставляя (11.82) в (11.79), после упрошения получим; Е(тт) > 2, [)г 1ОК)г + (1 — 1гт) 1ОК(1 — р )]+ зен +2; 2; п„)г,.)зт — 2; 1оК 1+ехр 2'ю,,х; (11.84) Чтобы обойти эту сложность, снова обратимся к неравенству йенсена.

Прежде всего, для любой переменной гт и произвольного действительного числа с (1оК[1+ ехр(зт)]) можно выразить в отличной, но эквивалентной форме: < 1оК(1 + е" ) > = < 1оК[е~з" е ~з" (1 + е" )] >= = Рт < г, > + < 1оК[е 4 *' + ец ь !" ] >, (11.85) где под <.> подразумевается среднее по множеству распределение среднего поля, а выражение з Е Н означает принадлежность данного нейрона к скрытому слою. Первое слагаемое в правой части (11.83) является энтропией среднего поля, а второе — энергией среднего поля.

Оба эти слагаемые относятся к факториальному распределению (11. 82). К сожалению, остается одна нерешенная проблема: невозможно вычислить точное среднее формы (1оК[1+ ехр(ат)]). Это слагаемое содержится в (11.83) с учетом подстановки 738 Глава 11. Стохастнческие ыашиныи их аппроксимациив статистической механике где <л, > — среднее по множеству значение д,. Теперь применим неравенство Йенсена в другой форме. Ограничивая сверху среднее в правой части (11.85), получим: 1 < 1оя(1+ е" ) >< Р, < гу > + 108 < е ьг" + ен " 1" > .

(11.86) Присваивая Р, значение нуль, получим соотношение < 1оя(1+ е") >< 108 < 1+ е" > . Применяя ненулевое значение ~~, можно ограничить среднее <108[1ьехр(г ))> более точно, чем это возможно при стандартном ограничении (965). Это будет продемонстрировано на следующем примере. Пример 11.3 Перемениаи с гауссовым распределением Для демонстрации полезности ограничения (11.86) рассмотрим пример переменной с гауссовым распределением, нулевым средним и единичной дисперсией.

Для зтого частного случая точным значением <1ой[1еехр(з;) 1> является 0,806. Ограничение, описываемое (1!.86), принимает вид если + ес'зц ь 1. Оно достигает своего минимального значения 0,818 при Ч =0,5. Это значение гораздо ближе к истинному значению, чем значение 0,974, полученное из стандартного ограничения при Е, =0 [9361. Возвращаясь к рассматриваемому вопросу, подставляя (11.85) и (11.86) в (11.83), получим нижнюю границу логарифмического правдоподобия события Хо =кв в следующем виде: 1.(тт) > — ~~1 [[з, 108 [15 + (1 — [гу) 108(1 — [гу)) + ~~„~~~ ш,"[гз([гу — 15)— зби зен г<у — 1оя (ехр( — ~,.гу) + ехр((1 — ~у)г,)), (11.87) урн где само зу определяется выражением (11.84). Это выражение и является искомым ограничением функции логарифмического правдоподобия Е(тт), вычисляемой в последовательном режиме алгоритма.

Процедура обучения для аппроксимации среднего поля сигмоидальной сети доверия При выводе ограничения (11.87) было введено множество вариациолных ларамезиРов: )гу дла 7 Е Н и ~, дла всех 7' без опРеделениЯ их в Явном виде. Эти паРаметРы являются настраиваемыми. Так как основной целью является максимизация функции логарифмического правдоподобия, естественно осуществлять поиск таких значений 11.12.

Детерминированные снгмондапьные сети доверия 739 )г, и ~, которые максимизируют выражение в правой части (11.87). Для достижения этой цели будем использовать двухшаговую итеративную процедуру, которая описана в [9361. Сначала рассмотрим ситуацию, в которой среднее значение р, фиксировано, а требуется найти такие параметры Г,, которые обеспечивают самое близкое к реальному ограничение функции логарифмического правдоподобия Е(эг). Следует заметить, что выражение в правой части (11.87) не обьединяегл слагаемые с Р,, которые относятся к разным нейронам сети. Исходя из этого, минимизация выражения по г,, сводится к Х независимым операциям минимизации на интервале (О, 1], где М вЂ” общее юличество нейронов в сети.

Теперь рассмотрим ситуацию, в которой значения Р, фиксированы, а требуется найти такое среднее значение )г,, которое обеспечивает самое точное ограничение функции логарифмического подобия Е(зт). С этой целью введем следующее определение; К, = — — 1ок (ехр( — Г,з,) + ехр((1 — Р,,)гз)), (11.88) д где случайная переменная г, определяется выражением (11.84). Частная производная К, является мерой влияния родительского состояния х, нейрона 1 на состояние х, нейронами' для данного примера х„б Т.

Как и в случае с синаптическими весами сигмоидальных сетей доверия, К, будут иметь ненулевое значение только в том случае, когда состояние х; является родительским по отношению к состоянию х . Используя факториальное распределение (11.82), можно оценить среднее по множеству величин ехр( — Р„х ) и ехр((1 — Р ) х ), а затем — частную производную К,, (формула для вычисления последнего приведена в табл. 11.3). Имея значение К„, можно продолжить решение задачи вычисления параметра )г., максимизирующего функцию логарифмичесюго правдоподобия Ь(эг) для фиксированного Рт В частности, дифференцируя (11.87) по р,, приравнивая результат к нулю и переставляя слагаемые, получим: Эквивалентно, можно записать: )г, = ф ~) (ш,М, +ш„(Н, — ~,) + Ко), у Е Н, (11.89) 1<7 где у( ) — сигмоидальная функция. Равенство (11.89) называется уравнением среднего паяя (шеап-йеЫ ейпа11оп) для сигмоидальной сети доверия.

Аргумент сигмоидальной функции в этом уравнении образует так называемое покрытие Маркова (Магкоч Ыалкег), характеризуемое следующим образом. 740 Глава 11. Стокастические машиныи их аппроксимациив статистической механике Роантелн нейрона / Потомки нейрона/ Рмс. 11.9. Покрытие Маркова ° Родители и потомки нейРона 3 пРедставлены слагаемыми тс,,ц, и воце соответственно. ° Другие родители потомков нейрона т учитываются через частную производную К, дВ(тт) тстз = т) дтсзе (11.90) где 11 — параметр скорости обучения; В(и) — нижняя граница функции логарифмического правдоподобия 1.(тт), т.е.

В(тт) — выражение в правой части формулы (11.83). Используя эту формулу, несложно вычислить и частные производные дВ(и)/дтстз. Процесс обучения для приближения среднего поля к сигмоидальной сети доверия представлен в табл. 11.3. В этой таблице содержатся формулы для оценки частных производных Кз и дВ(тт)/дтс,.

Покрытие Марюва нейрона т' показано на рис. 11.9. Понятие "покрытия Маркова" было введено в [821). В этой работе утверждалось, что эффективный вход нейрона т' составлен из слагаемых, относящихся к его родителям, потомкам и родителям последних. Если выполняется условие того, что выбор факгориального распределения (! 1.82) в качестве аппроксимации апостпериорного распределения Р(Ха =ха~Х» =х») не точен, уравнение среднего поля (11.89) устанавливает параметры ()г ) нн в такие оптимальные значения, которые делают аппроксимацию насколько возможно точной. Это, в свою очередь, приводит к точному ограничению среднего поля функции логарифмического правдоподобия Е(и), вычисляемой в последовательном режиме [936).

После вычисления сюрректированных значений параметров (Р!) и ()а ) переходим к вычислению коррекции синаптических весов тлтз по следующей формуле: 11.12. Детерминированные снгмоидапьные сети доверия 741 ТАБЛИЦА 11.3. Процедура обучения дпя приближения среднего поля к сигмои- дальной сети доверия Инициализация. Сеть инициализируется присвоением весам и»,, сети случайных значений, равномерно распределенных в интервале [ — а, а[, где в качестве а обычно выбирают число 0.5 Вычисления. Для примера х„, выбранного из множества обучения Т, выполняем следующие вычисления 1. Коррекция (~1) при фиксированных (р ) Фиксируем средние значения (цз),ен, относящиеся к факториальному приближению апостериорного распределения Р(Хк =ха~Х =х ), и минимизируем следующую границу функции логарифмического правдоподобия: В(тг) = — х [»г, 1ой»г, + (1 — р,.) 1ов(1 — р,)[+ ~~' ~~' ш,,црз— уен » зенл<З вЂ” ш,,р»с, — ~~» 1ой(ехр( — с,хз) + ехр((1 — Г )ху)), зен » зенл<з где х = ',»; ш,,х,.

Характеристики

Тип файла
DJVU-файл
Размер
10,59 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6556
Авторов
на СтудИзбе
299
Средний доход
с одного платного файла
Обучение Подробнее