Главная » Просмотр файлов » Хайкин С. - Нейронные сети

Хайкин С. - Нейронные сети (778923), страница 118

Файл №778923 Хайкин С. - Нейронные сети (Хайкин С. - Нейронные сети) 118 страницаХайкин С. - Нейронные сети (778923) страница 1182017-12-21СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 118)

При периодическом представлении данных обучения благодаря коррекции в окрестности победившего нейрона векторы синаптических весов будут стремиться следовать распределению входных векторов. Таким образом, представленный алгоритм ведет к тонояогическому упорядочиванию (торо!ой!са! огдепп8) пространства признаков во входном пространстве, в том смысле, что нейроны, корректируемые в решетке, будут стремиться иметь одинаковые синаптические веса. В разделе 9.5 этот вопрос будет затронут несколько глубже. Равенство (9.13) является формулой вычисления синаптических весов карты признаков.

Однако в дополнение к этому уравнению для выбора функции окреспюсти Ь.. ц >(и) требуется учитывать эвристику (9.7). Еще одна эвристика необходима для выбора параметра скорости обучения т!(п). 9.3. Карты самоорганизации 585 Параметр скорости обучения з)(п) согласно (9.13) должен зависеть от времени, как это и должно быть при стохастической аппроксимации. К примеру, можно начать с некотоРого исходного значениЯ т1с, а затем, с течением вРемени, постепенно Уменьшать его. Это требование можно удовлетворить, выбрав для параметра интенсивности обучения следующую экспоненциальную функцию: п1 з) (и) = т)р ехр 1 — — (, и = О, 1, 2,..., ~ "(' (9.14) где тз — еше одна временная константа алгоритма БОМ.

Формулы экспоненциально- го убывания параметров скорости обучения (9.14) и ширины функции окрестности (9.6) могут не являться оптимальными. Они просто адекватны процессу самооргани- зующегося формирования карты признаков. Два этапа адаптивного процесса: упорядочивание и сходи мость 1. Этап саиооргаиизации или улорядочиваиия. Во время первого этапа адаптивного процесса происходит топологическое упорядочивание векторов весов.

В алгоритме БОМ этот этап может занять до 1000 итераций, а возможно, и больше. При этом значительное внимание следует уделить выбору параметра скорости обучения и функции окрестности. ° Параметр скорости обучения з) (и) лучше выбрать близким к значению 0,1. С течением времени он должен убывать, но оставаться больше величины 0,01. Этого можно добиться, применив в формуле (9.14) следующие значения констант: ц,=0,1, т, = 1000. ° Функция окрестности Ь,а(п) должна изначально охватывать практически все нейроны сети и иметь центр в победившем нейроне г.

Со временем эта функция будет постепенно сужаться. В частности, на этапе упорядочивания, который может занять около 1000 итераций, )г,а(п), скорее всего, сократится до малого значения и будет содержать в себе только ближайших соседей победившего Учитывая исходное состояние полного беспорядка, довольно удивительным выглядит то, что алгоритм БОМ постепенно достигает организованного представления моделей активации, взятых из входного пространства, при условии правильного выбора параметров этого алгоритма. Можно выполнить декомпозицию процесса адаптации синаптических весов сети, вычисляемых в соответствии с формулой (9.13), разбив его на эва этапа: этап самоорганизации, за которым следует этап сходимости.

Эти два этапа адаптивного процесса можно описать следующим образом [568), (579). 686 Глава 9. Карты самоорганизации нейрона, а возможно, только его самого. Для двумерной решетки нейронов можно установить исходное значение ае функции окрестности, равное "радиусу" решетки. Соответственно константу времени т, в формуле (9.б) можно определить следующим образом: 1000 т, = 1ой и, 2. Этап сходииости.

Второй этап адаптивного процесса требуется для точной подстройки карты признаков и, таким образом, — для точного квантования входного пространства. Как правило, количество итераций, достаточное для этапа сходи- мости, примерно в 500 раз превышает количество нейронов сети. Таким образом, количество итераций этапа сходимости может достигать тысяч и десятков тысяч. ° Для хорошей статистической точности параметр скорости обучения з)(п) на время этого этапа должен быть установлен в достаточно малое значение (порядка 0,01).

В любом случае его нельзя очень приближать к нулю, иначе сеть может заступориться в метаустойчивом (ше1азШЫе) состоянии. Метаустойчивое состояние соответствует конфигурации карты признаюзв с топологическим дефектом. Экспоненциальное сокращение (9.14) гарантирует невозможность достижения метаустойчивых состояний. ° Функция окрестности Ьь,(п) должна охватывать только ближайших соседей победившего нейрона, количество которых может сократиться до одного или даже до нуля. 9.4. Краткое описание алгоритма ВОМ Сущность алгоритма БОМ, предложенного Кохоненом, состоит в простом геометрическом вычислении свойств Хеббоподобного правила обучения и латеральных взаимодействий.

Существенными характеристиками этого алгоритма являются следующие. ° Непрерывное входное пространство образов активации, которые генерируются в соответствии с некоторым распределением вероятности. ° Топология сети в форме решетки, состоящей из нейронов. Она определяет дискретное выходное пространство. ° Зависящая от времени функция окрестности 6 КЮ(п), которая определена в окрестности нейрона-победителя г(х).

° ПаРаметР скоРости обУчениЯ з)(п), дла котоРого задаетсЯ начальное значение т)е и который постепенно убывает во времени и, но никогда не достигает нуля. 9.4. Краткое описание алгоритма ЗОМ 687 Для функции окрестности и параметра скорости обучения иа этапе упорядочивания (т.е, приблизительно для первой тысячи итераций) можно использовать формулы (9.7) и (9.!4) соответственно. Для хорошей статистичесюй точности иа этапе сходимости параметр т)(п) должен быть установлен в очень малое значение (0,01 или меньше). Что же касается функции окрестности, то в начале этапа сходимости оиа должна содержать толью ближайших соседей нейрона-победителя (при этом может включать только его самого).

Не считая инициализации, алгоритм проходит три основных шага: нодвыборка (загпрйпд), поиск максимального соответствия (гйпп!апгу ша1сЬ)пд) и корректировка (прда6пя). Кратко весь алгоритм можно описать следующим образом. 1. Инициализация. Для исходных векторов сииаптических весов зт (О) выбираются случайные значения.

Единственным требованием здесь является различие векторов для разных значений у = 1, 2,...,1, где 1 — общее количество нейронов в решетке. При этом рекомендуется сохранять малой амплитуду значений. Еще одним способом инициализации алгоритма является случайный выбор миожества весов (зтз (О) )~, из доступного множества входных векторов (х,)~,. 2. Подвыборка. Выбираем вектор х из входного пространства с определенной вероятиостью.

Этот вектор представляет собой возбуждение, которое применяется к решетке иейроиов. Размерность вектора х равна т. 3. Поиск максимального нодобия. Находим наиболее подходящий (победивший) иейрои 1(х) иа шаге и, используя критерий минимума Евклидова расстояния: 1(х) = агйщ(п 11х — тз,11, у = 1,2,...,1. 4. Коррекция. Корректируем векторы сииаптических весов всех нейронов, используя следующую формулу: тг.(п+ 1) = тт,(п) +з)(п)6,,00(п)(х — зт (и)), где т)(п) — параметр скорости обучения; Ьмц,1(п) — функция окрестности с цеитром в победившем нейроне 1(х). Оба этих параметра динамически измеиякпся во время обучения с целью получения лучшего результата. 5.

Продолжение. Возвршцаемся к шагу 2 и продолжаем вычисления до тех пор, пока в карте признаков ие перестанут происходить заметные изменения. $88 Глава 9. Карты самоорганизации ° ° ° ° ° ° ° ° ° ° ° ° ° ° ° ° ° я ° ° ° дх) ° ° ° ° ° ° ° ° ° ° ° ° ° Дискретное ° выходное ° пространство А Непрерывное входное пространство Х Рис. 9.4. Взаимосвязь между картой признаков Ф и вектором весов вг, по- бедившего нейрона е 9.5. Свойства карты признаков По завершении процесса сходимости алгоритма БОМ вычисленная им карта признаков (геашге шар) отображает важные статистические характеристики входного пространства Для начала обозначим пространственно непрерывное входное пространство (данных) (зрабайу сопйпопз (да)а) зрасе) символом Х.

Его топология определяется метрическими связями векторов х Е Х. Теперь обозначим символом А пространственно дискретное выходное пространство (зрабайу д(зсгеге опгрпг зрасе). Его топология определяется упорядоченным множеством нейронов вычислительных узлов решетки. Обозначим символом Ф нелинейное преобразование (называемое картой признаков), которое отображает входное пространство Х в выходное пространство А: Ф:ХеА. (9.15) Выражение (9.15) можно рассматривать как соотношение (9.3) (определяющее положение нейрона е(х), победившего при подаче на вход сети вектора х) в абстрактной форме. Например, в контексте нейробиологии входное пространство Х может представлять множество координат сомато-сенсорных рецепторов, распределенных по всей поверхности тела. Соответственно выходное пространство А представляет множество нейронов, расположенных в тех слоях коры головного мозга, которые отвечают за сомато-сенсорные рецепторы.

9.5. Свойства карты признаков 589 Вхохно Восствно вск х' Рис. 9.8. Модель кодера-декодера го Р = — / т(х~х(х)д(х, х'), г./ (9.16) где множитель !/2 введен для удобства выкладок, а Щх, х') — мера искажения (д)я!оп(оп шеазпге). Интегрирование осуществляется по всему входному пространству Х, причем предполагается, что оно имеет размерность т. Популярным вариантом меры искажения Для данного входного вектора х алгоритм БОМ определяет наиболее подходящий (т.е.

победивший) нейрон т(х) в выходном пространстве А, руководствуясь картой признаков Ф. Вектор синаптических весов и ! нейрона т(х) после этого можно рассматривать как указатель на этот нейрон из входного пространства Х. Это значит, что синаптические элементы вектора тч, можно рассматривать как координаты образа нейрона в, проектируемые во входное пространство.

Характеристики

Тип файла
DJVU-файл
Размер
10,59 Mb
Тип материала
Высшее учебное заведение

Список файлов книги

Свежие статьи
Популярно сейчас
А знаете ли Вы, что из года в год задания практически не меняются? Математика, преподаваемая в учебных заведениях, никак не менялась минимум 30 лет. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6556
Авторов
на СтудИзбе
299
Средний доход
с одного платного файла
Обучение Подробнее