Главная » Просмотр файлов » Хайкин С. - Нейронные сети

Хайкин С. - Нейронные сети (778923), страница 110

Файл №778923 Хайкин С. - Нейронные сети (Хайкин С. - Нейронные сети) 110 страницаХайкин С. - Нейронные сети (778923) страница 1102017-12-21СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 110)

8.9, б. Таким образом, генерируются 8 коэффициентов кодирования изображения. На рис. 8.9, в показано реконструированное изображение, основанное на 8 доминирующих компонентах без дискретизации. 8.6. Компьютерное моделирование:кодирование изображений 545 ° Каждый из коэффициентов был равномерно дискретизирован на множестве битов, приблизительно пропорциональном логарифму дисперсии этого коэффициента на изображении. Таким образом, первым трем маскам было выделено по 6 бит, следующим двум — по 4, следующим двум — по 3, а оставшейся маске — 2 бита. На основе этого представления для кодирования каждого из блоков размерности 8 х 8 было выделено 34 бита, что соответствует уровню сжатия 0,53 бита на пиксель.

Для восстановления изображения на основе дискретных коэффициентов все маски были взвешены своими коэффициентами дискретизации, после чего они использовались для восстановления каждого из блоков рисунка. Реконструированная семейная фотография с уровнем сжатия 15;1 показана на рис. 8.9, г. В качестве второго примера для иллюстрации обобщенного алгоритма обучения Хебба рассмотрим изображение морского пейзажа (рис.

8.10, а). На этом рисунке внимание акцентируется на тпекстпурной информации. На рис. 8.10, б показаны маски размером 8 х 8 синаптических весов сети. Выполняемая процедура аналогична описанной выше. Обратите внимание на различия в масках на рис. 8.10, б и рис. 8.9, б. На рис. 8.10, в показано реконструированное изображение морского пейзажа, основанное на 8 доминирующих главных компонентах без дискретизации. Для изучения эффекта от дискретизации выходы первых двух масок были дискретизированы с использованием 5 бит для каждой, третья — с использованием 3 бит, а оставшиеся маски— с использованием 2 бит для каждой. Таким образом, для кодирования каждого из блоков 8 х 8 потребовалось 23 бита.

В результате при кодировании в среднем использовалось 0,36 бита на пиксель. На рис. 8.10, г показано восстановленное изображение морского пейзажа, в котором используются маски, дискретизированные описанным выше способом. Общий уровень сжатия составил 22:1. Для проверки общей эффективности "обобщения" обобщенного алгоритма Хебба использовались маски, показанные на рис. 8.9, б, для декомпозиции изображения морского пейзажа (см. рис. 8.10, а). При этом применялась та же процедура, которая использовалась для восстановления рис.

8.10, ж Результат этого восстановленного изображения показан на рис. 8.10, д, с уровнем сжатия 22:1, те. с тем же уровнем, который был получен для рис. 8.10, г. Несмотря на то что рис. 8.10, г и д имеют поразительное сходство, мы видим, что на первом из них более "правдиво" представлена текстурная информация. В результате этот рисунок выглядит менее "блочным", чем рис.

8.10, д. Это различие объясняется разными весами сети. Первые четыре веса, полученные после обучения нейронной сети на изображениях с семейной фотографией и морским пейзажем, являются довольно сходными. Однако последние четыре веса, кодирующие для первого рисунка информацию о контурах, в случае с морским пейзажем содержат информацию о текстуре. Таким образом, для восстановления текстурной информации морского пейзажа применялись "контурные" веса, что и привело к блочному представлению. 646 Глава 8.

Анализ главных компонентов Веса Исюппос нюбражеп не б) а) Сжатие )5:) Использование первых 8 компонентов в) г) Рис. 8.9. Семейная фотография, использованная в эксперименте по кодированию изображений (а); маски размером В х В, представляющие собой синаптические веса, обучаемые по алгоритму ОНА (б); семейная фотография, восстановленная с помощью 8 доминирующих главных компонентов без дискретизации (в); реконструированная фотография с уровнем сжатия 18:1 при использовании дискретизации (г) 8.7.

Адаптивный анализ главных компонентов с использованием латерального торможения Обобщенный алгоритм Хебба, описанный в предыдущем разделе, основан исключительно на использовании прямых связей для анализа главных компонентов. В этом разделе мы опишсм еще один алгоритм, называемый алгоритмом адаллзивного извлечения главных колглонентов (ае)арт(уе рппсзра! сотропелга сх)гасйоп — АРЕХ) 8.7.

Адаптивный анализ главных компонентов... 547 а) в) г) к) Рис. 8.10. Изображение морского пейзажа (а); маски З х 8, представляющие синаптические веса, обучаемые по алгоритму НОА и применяемые к иэображению (б); восстановленное изображение морского пейзажа с использованием 8 доминирующих главных компонентов (в); восстановленное изображение с уровнем сжатия 22:1 при использовании масок из пункта (б) без дискретизации (г); восстановленное изображение морского пейзажа с использованием масок, показанных на рис. 8.9, б, с дискретизацией для достижения уровня сжатия 22:1, такого же, как в частях (г), (д) 548 Глава 8.

Анализ главных компонентов х, хз л хз Вхо слой l Вмходнай слой Рис. 8.11. Сеть с прямыми и латеральными связями, используемая для еыесда алюритма АРЕХ ° Прямые связи []еег]]огтхгагг] соппесйоп) от входных узлов к каждому из нейронов 1, 2,..., 1, где 1' < т. Здесь представляют интерес прямые связи, приходящие к нейрону у. Их можно представить в виде вектора прямых связей: Прямые связи работают в соответствии с правилам обучении Хебба [НеЬЬ[ап 1еагп- [п8 ги]е) и, таким образом, реализуют самоусиление [зе!['-агпр][йса1[оп). з В [30Ц конфигурация нейронной сети, используемая для анализа главных компонентов, была расширена за счет включения Хеббоподобных обратнмх связей. Идея этой модификации была навеяна более ранней работой, посвященной адмпации и декорреляции в зрительной области коры головного мозга [93]. В этой работе было дано объяснение следующему факгу. Если нейроны взаимодействуют согласно анти-Хеббовскому правилу, то выходы этих нейронов определяют систему июрдинат, в которой нет иорреляции, даже если входные сигналы сильно коррелированны.

Использование латерального торможения в выходных нейронах было также предложено в [909], [910]. Однако, в отличие от модели, предложенной в [301], латеральные связи, описанные в этих статьях, не были симметричнмми При этом латеральная сеть была иерархической в том смысле, что нейрон 1 тормозил все нейроны за исключением нейронов 1, 2... т — 1, где т = 1, 2,, .. Модель АРЕХ, предложенная в [606], предполагает ту же топологию сети, что и модель, описанная в [909], [910], но для коррекции синаптических весов в прямых и латеральнмх связях сети используется другое правила обучения [см, раздел ад).

[258), [606]. Алгоритм АРЕХ использует как прямые, так и обратные связиз. По своей природе этот алгоритм является итеративным: эчй основной компонент вычисляется на основе заданных (2'-1) предыдуших. На рис. 8.11 показана модель сети, которую мы будем использовать для вывода алгоритма АРЕХ. Как и ранее, входной вектор х имеет размерность т. Его компонентами являются х„хз,..., х . Все нейроны сети считакпся линейными. Как показано на рис.

8.11, в этой сети существуют два типа синаптичсских весов. 8.7. Адаптивный анализ главных компонентов... 649 ° Патеразьные связи (1агега1 соппесйоп) между выходами нейронов 1, 2,..., у — 1 и входом нейрона 11 Они реализуют обратные связи в сети. Эти связи представляются вектором обратных связей; а,(п) = ]а,1(п),а,з(п),..., ат, 1(п)]'.

Латеральные связи действуют в соответствии с анти-Хеббовским нравилом обуче- ния (апб-НеЬЬ1ап 1еаппп8 пйе), что делает их тормозяи1ими (1пЬ(Ь1гогу). На рис. 8.11 прямые и латеральные связи нейрона 1 выделены жирным, чтобы подчеркнуть значение нейрона у как объекта изучения. Выход у, (п) нейрона г можно представить в следующем виде; у,(п) = ит(п)х(п) + ат(п)у, ,(п), (8.98) где сла~аемое зчт(п)х(п) отражает влияние прямых связей, а ат(п)у,,(п)— латеральных. Вектор сигнала обратной связи у, 1(п) формируется выходами нейронов 1, 2,..., 1 — 1: у,, (п) = ]у1(п), у,(п),..., у, 1(п)] (8.99) Предполагается, что входной вектор х(п) выбирается из стационарного процесса с матрицей корреляции К, имеющей различные собственные значения, отсортированные в порядке убывания, т.е. 21 ~ )12 ~ ~ )1з-1 (8. 100) Далее предполагается, что нейроны 1, 2,..., у — 1 сети, изображенной на рис.

8.11, уже сошлись к своим устойчивым состояниям: где 11„— собственный вектор, связанный с к-м собственным значением матрицы корреляции К, а момент времени п =0 соответствует началу вычислений в сети. Тогда, учитывая выражения (8.98), (8.99), (8.101) и (8.102), можно записать: (8.103) зчь(0) = г)„, гг = 1,2,...,у — 1, а„(0) = О, lс = 1, 2,..., ) — 1, у (п) — (ц х(п) ц х(п) ...

11 х(п)] ()х(п) (8. 101) (8.102) 660 Глава 8. Анализ главных компонентов где Я вЂ” матрица размерности Π— 1) х пз, определяемая в терминах собственных векторов ц„г)з,..., ц „связанных с (з — 1) наибольшими собственными значениями Х„йз,..., 3., матрицы корреляции К, т.е. ге = (Чг~Чз Ч, 1] (8.104) Нейрон з сети, локазаииой иа рис. 8.11, требуется использовать для вычисления следуюшего наибольшего собственного числа Х матрицы корреляции К входного вектора х(п) и связанного с иим собственного вектора г),. Уравнения коррекции для вектора прямых сииаптических весов тг,(п) и вектора латеральиых весов а,(п) нейрона з имеют следующий вид: и;(п+ 1) = яг,(п) + з) [у,(п)х(п) — у,'(п)гг,(п)] (8.105) а (п+ 1) = а,(п) +т) '(у,(п)у,,(п) — у~(п)а,(п)], (8,106) ° Сначала доказывается, что если нейроны 1, 2,..., у — 1 сходятся к своим устойчивым значениям, то нейрон ) тоже сходится к своему устойчивому значению, выбирая следующее по счету наибольшее собственное значение Х, матрицы корреляции К входного вектора х(п) и соответствуюший ему собственный вектор г),.

° После этого мы завершаем доказательство методом индукции, учитывая, что иейрои 1 ие имеет обратных связей и, таким образом, вектор весов обратной связи а, является нулевым. Следовательно, этот конкретный нейрон функционирует таким же образом, как и нейрон Ойа, а из раздела 8.4 мы знаем, что этот нейрон при определеииых условиях является абсолютно устойчивым.

Характеристики

Тип файла
DJVU-файл
Размер
10,59 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
Как Вы думаете, сколько людей до Вас делали точно такое же задание? 99% студентов выполняют точно такие же задания, как и их предшественники год назад. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6556
Авторов
на СтудИзбе
299
Средний доход
с одного платного файла
Обучение Подробнее