Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика (778918), страница 54
Текст из файла (страница 54)
Позволяет восстановить искаженные сигналы 7) Модификации Существует различные модификации сети Хопфилда как с дискретными, так и с непрерывными состояниями и временем. Для увеличения емкости сети и повышения качества распознавания образов используют мультипликативные нейроны Сети, состоящие из таких нейронов называются сетями высших порядков. Были предложены многослойные сети Хопфипда, которые обладают определенными преимуществами по сравнению с первоначальной моделью.
П.1.13. Входная звезда (!пв1аг) 1) Название. (пв(аг (входная звезда). 2) Авторы и история создания. Конфигурация !пэ(аг — фрагмент нейронных сетей, являющаяся моделью отдельных участков биологического мозга, была предложена и использована Гроссбергом во многих нейросетевых архитектурах. 3)Модель. Входная звезда (на рис. П.1 4) представляет собой нейрон, на который подаются входные сигналы через синаптические веса. Входная звезда реагирует на определенный входной вектор, которому она обучена Это обеспечивается настройкой весов на соответствующий входной вектор. На выходе звезды формируется взвешенная сумма ее входов, представляющая свертку входного вектора с весовым вектором. В процессе обучения осуществляется модификация весовых коэффициентов: и, ( ! + 1) = и, ( Г) + Л(х, — и, (()), где д -коэффициент скорости обучения, равный в начальный момент 0,1 и уменьшающийся в процессе обучения до нуля.
341 хз хн х1 Рис Пл.4 Сеть гле!аг Входная звезда обладает способностью к обобщению, проявляющейся в возможности реагировать на незначительные изменения единичного входного вектора. Это достигается настройкой весов в процессе обучения таким образом, чтобы усреднить величины обучающих векторов, с целью реакции на любой вектор этого класса.
4) Области применения Рассмотренная конфигурация может быть использована в сетях распознавания образов. 5) Нвдосгпатки. Каждая звезда в отдельности реализует слишком простую функцию. Из таких звезд невозможно построить нейронную сеть, которая реализовала бы любое заданное отображение. Это ограничивает практическое применение входных звезд. б) Преимущества. Входная звезда хорошо моделирует некоторые функции компонентов биологических нейронных сетей и может быть достаточно хорошей моделью отдельных участков мозга. При решении практических задач входные звезды могут быть использованы для построения простых быстро обучаемых сетей. 7) Модификации. Модели входных звезд могут использовать различные алгоритмы изменения с течением времени величин нормирующих коэффициентов обучения.
342 П.1.14. Сеть Кохонена (КоЬопеп'в йемга! МеЬчогИ) 1) Название. Копопеп'в (чеига! (чемогК (сеть Кохонена) Другое название. Копопеп'в Зе(г Отдал(г(пд Ееа(иге Мар (ВОРМ) (самоорганизующаяся карта признаков Кохонена) 2) Авторы и история создания. Предложена Кохоненом в 1984 г. К настоящему времени существует множество модификаций исходной модели с развитой математической теорией построения и функционирования.
3) Модель. Хотя строение мозга в значительной степени предопределяется генетически, отдельные структуры мозга формируются в результате самоорганизации. Алгоритм Кохонена в некоторой степени подобен процессам, происходящим в мозге на основе самообучения. Сеть Кохонена предназначена для разделения векторов входных сигналов на подгруппы. Сеть состоит из М нейронов, образующих прямоугольную решетку на плоскости (рис.
П.1.5). Элементы входных сигналов подаются на входы всех нейронов сети. В процессе работы алгоритма настраиваются синаптические веса нейронов. Входные сигналы (вектора действительных чисел) последовательно предъявляются сети, при этом требуемые выходные сигналы не определяются. После предъявления достаточного числа входных векторов, синаптические веса сети определяют кластеры. Кроме того, веса организуются так, что топологически близкие нейроны чувствительны к похожим входным сигналам. Для реализации алгоритма необходимо определить меру соседства нейронов (меру близости) На рис.
П.1.5 показаны зоны топологического соседства нейронов в различные моменты времени. Оф) — множество нейронов, которые считаются соседями нейрона )' в момент времени Г. Размеры зоны соседства уменьшаются с течением времени. Алгоритм Кохонена: ШАГ 1 Инициализация сети: весовым коэффициентам сети, общее число которых равно Мй(, присваиваются малые случайные значения. 0~0) — начальная зона соседства ШАГ 2. Предъявление сети нового входного сигнала.
ШАГ 3 Вычисление расстояния д, от входного сигнала до каждого нейрона)' по формуле: 343 Выходные нейроны О,(О) 0,(1) 0(2) Рис П 1 З Зоны толологического соседства нейронов сети Кохонена д, = Х(„(()- а(())', ~м где х,(() — рй элемент входного сигнала в момент времени ( ит(()— вес связи от рго элемента входного сигнала к нейрону) Шаг 4.
Выбор нейрон ), для которого расстояние с( является наименьшим. Шаг 5 Настройка весов для нейрона )* и всех нейронов из его зоны соседства О, (()' ига((+ 1) = игг -и Фх,(() — тки(()), где г) — шаг обучения (О< г) <1), уменьшающийся с течением вре- мени до нуля Шаг б Возвращение к шагу 2. 4) Области применения. Кластерный анализ, распознавание образов, классификация. 5) Недостатки.
Сеть может быть использована для кластерного анализа только в случае, если заранее известно число кластеров. б) )Треимущества. В отличие от сети АВТ, сеть Кохонена способна функциони- ровать в условиях помех, так как число классов фиксировано, веса модифицируются медленно, и настройка весов заканчивается по- сле обучения (в сети АКТ настройка продолжается непрерывно). 7) Модификации.
Одна из модификаций состоит в добавлении к сети Кохонена сети МАХ(чЕТ, которая определяет нейрон с наименьшим расстоянием до входного сигнала П.1.15. Сеть поиска максимума (ввАХв(ЕТ) 1) Название. МАХ(»ЕТ (сеть поиска максимума). Другие названия.
МАХ)чЕТ в~(п Согпре()(юп 1пгоияп (.а1ега) )пп)Ь)1(оп (сеть поиска максимума с конкуренцией посредством латерального торможения). Одна из сетей группы «гмппег 1акеэ а!!> («победитель получает все»). Максимиэатор 2) Авторы и история создания Простая сеть, имеющая давнюю историю использования. 3) Модель. МАХ»(ЕТ (рис П.1 б) является сетью циклического функционирования. На каждой итерации большие сигналы на выходах нейронов подавляют слабые сигналы на выходах других нейронов. Это достигается эа счет использования латеральных связей. Если в начале функционирования сети сигнал на выходе одного из нейронов имеет максимальное значение, то в конце функционирования на выходах всех нейронов, кроме максимального, формируются значения, близкие к нулю.
Итерации сети завершаются после того, как выходные сигналы нейронов перестают меняться. Таким образом нейрон с наибольшим выходным сигналом «побеждает>. Характеристики сети. Типы входных сигналов — целые или действительные; тип выходных сигналов — действительные. Размерности входа и выхода ограничены при программной реализации только возможностями вычислительной системы, на которой моделируется нейронная сеть, при аппаратной реализации — технологическими возможностями. Размерности входных и выходных сигналов совпадают.
Тип передаточной функции — линейная с насыщением (используется линейный участок). Число синапсов в сети равно й((К-1) Формирование синаптических весов сети: У1 х, Уг Рис Пл б. Структура нейронной сети МАхнЕТ где иа — Рй синаптический вес)'-го нейрона; И вЂ” число элементов (размерность) входного сигнала, количество нейронов в сети. Функционирование сети; у,(0) = х,, у ((е1) = У у (() — в~у,((), ! =1...И, ) =1...И, !н/ где х, — рй элемент входного сигнала сети; у, — выход)'-го нейрона 4) Области применения. Совместно с сетью Хэмминга, в составе нейросетевых систем распознавания образов.
5) Недостатки. Заранее не известно число итераций функционирования нейронной сети МАХИЕТ. Она определяет, какой из входных сигналов имеет максимальное значение. Однако, в процессе функционирования сеть не сохраняет само значение максимального сигнала. Квадратичный рост числа синапсов при увеличении размерности входного сигнала. 6) Преимущества. Простота работы сети. 7) Модификации. Для выделения сигнала с максимальным значением из некоторого множества сигналов может быть использована многослойная нейронная сеть с последовательными связями. П.1.16.
Выходная звезда (Ои1атаг) 1) Название Оц(з1аг ( выходная звезда). 2) Авторы и история соэданоя. Конфигурация Ои(з1аг — фрагмент нейронных сетей, предложенный и использованный Гроссбергом во многих нейросетевых архитектурах, и также, как и входная звезда, является моделью отдельных участков биологического мозга. 3) Модель. Выходная звезда представляет собой нейрон, управляющий весовыми коэффициентами (рис. П.1.7). При возбуждении она вырабатывает требуемый сигнал для других нейронов. При обучении веса выходной звезды настраиваются на множество векторов, близких к эталонному вектору в соответствии с выражением: ьк,((+1) =а (Г) и г)(у, -ьу,(()), где л — коэффициент, изменяющийся в процессе обучения от единицы до нуля.