Круглов В.В., Борисов В.В. - Искусственные нейронные сети (ИНС) Теория и практика (778918), страница 16
Текст из файла (страница 16)
Помимо активизирующих, в плоскости сложных нейронов присутствуют тормозящие нейроны, которые вырабатывают вы- 86 ходные сигналы, пропорциональные квадратному корню из взвешенной суммы квадратов их входных сигналов. При этом на входы тормозящего нейрона подаются сигналы с выходов сложных нейронов из соответствующей рецептивной области дпя заданного простого нейрона следующего слоя. В симвопьном виде. — ~(Ь,и,) где к — выход тормозящего нейрона; / — индекс спожного нейрона, с которым связан тормозящий нейрон; Ь, — вес ~'-й синаптической связи от сложного нейрона к простому тормозящему нейрону; и,— выход дго сложного нейрона.
Веса Ь, монотонно уменьшаются с увепичением расстояния от центра обпасти реакции, при этом т'Ь, = 1. Однако в процессе обучения эти веса не изменяются. Изменяется только вес тормозящего входа простого нейрона, к которому подключен выход тормозящего нейрона иэ предыдущего слоя. На рис. 2.16 показана организация взаимосвязей между простым нейроном и сложными нейронами из одного из массивов предыдущего слоя. Обучение. Как и дпя когнитрона, процесс обучения неокогнитрона представпяет собой обучение без учителя, в результате которого сеть самоорганизуется. При этом на вход неокогнитрона подается образ, который необходимо распознать, и веса синапсов настраиваются слой эа споем.
Значение веса от каждого сложного нейрона к заданному простому увеличивается, когда удовлетворяются спедующие два условия: ° активизируется сложный нейрон; ° реакция одного из простых нейронов больше, чем у его соседей иэ любой из области конкуренции. Это приводит к тому, что простой нейрон обучается реагировать более сильно на образы, появпяющиеся наиболее часто в его рецептивной области. Если распознаваемый образ отсутствует на входе, тормозящий нейрон предохраняет от случайной активизации соответствующий простой нейрон. Процедура обучения и подход при реализации патерального торможения когнитрона и неокогнитрона аналогичны. При этом выходы простых и спожных нейронов являются непрерывными, неотрицательными и изменяются по линейному закону.
При срабатывании на входной образ простого нейрона его веса допжны быть увеличены. Также увеличиваются веса всех Плоскость сложных нейронов Плоскость простых нейронов Немоеифицируемые веса / аоэйумйенный нейрон Гормоэниеэй Моеифицируемый нейрон Рис 216 Взаимосвязь простого нейрона со сложными нейронами из предыдущего слоя 88 простых нейронов из данного массива дпя этого самого образа. Таким образом, все нейроны в массиве обучаются распознавать одни и те же свойства образа, и поспе обучения будут делать зто независимо от позиции образа в поле сложных нейронов из предшествующего слоя Это определяет способность неокогнитрона к самовосстановпению.
Так, если активизируемый нейрон выйдет из строя, среди других выбирается другой, реагирующий наиболее сильно, который и будет обучен распознаванию входного образа, заменяя отказавший нейрон. При обучении с учителем требуемые значения выходов нейронов каждого слоя определяется заранее. Их веса настраиваются с испопьзованием обычных процедур.
Например, входной спой настраивался дпя распознавания отрезков линий в различных ориентациях. Последующие спои обучаются реагировать на более сложные свойства до тех пор, пока в выходном слое требуемый образ не будет выделен. Глава 3 НЕЧЕТКИЕ НЕЙРОННЫЕ СЕТИ И ГЕНЕТИЧЕСКИЕ АЛГОРИТМЫ Аппарат нечетких множеств и нечеткой логики уже давно с успехом применяется для решения задач, в которых исходные данные являются ненадежными и слабо формализованными. Сильные стороны такого подхода.
° описание условий и метода решения задачи на языке, близком к естественному; ° универсальность: согласно теореме ЕАТ (Ецгзу Арргохр гпайоп Тлеогегп), доказанной Б Коско (В, Коэйо) в 1993 г., любая математическая система может быть аппроксимирована системой, основанной на нечеткой логике; ° эффективность (связана с универсальностью), поясняемая рядом теорем, аналогичных теоремам о полноте для искусственных нейронных сетей, например, теоремой вида: дпя каждой вещественной непрерывной функции д, заданной на компакте 0 и для произвольного к > о существует нечеткая экспертная система, формирующая выходную функцию г(х) такую, что эир))д(х) — г(х))) < А ~~У где (( ° (~ — символ принятого расстояния между функциями.
Вместе с тем, для нечетких систем характерны и определенные недостатки: ° исходный набор постулируемых нечетких правил формулируется экспертом-человеком и может оказаться неполным или противоречивым; ° вид и параметры функций принадлежности, описывающих входные и выходные переменные системы, выбираются субьективно и могут оказаться не вполне отражающими реальную действительность. 89 Для устранения, по крайней мере, частично, указанных недостатков было предложено создавать нечеткие системы адаптивными, корректируя, по мере их работы, правила и параметры функций принадлежности. Одними из самых удачных примеров таких систем являются нечеткие нейронные сети. Нечеткая нейронная сеть формально по структуре идентична многослойной нейронной сети с обучением, например, по алгоритму обратного распространения ошибки, но скрытые слои в ней соответствуют этапам функционирования нечеткой системы: ° первый слой нейронов выполняет функцию введения нечеткости (Ьгк(йсагюп) на основе заданных функций принадлежности входов; ° второй слой отображает совокупность нечетких правил; ° третий слой выполняет функцию приведения к четкости (ое(цзз)йсайюп).
Каждый из этих слоев характеризуется набором параметров (функциями принадлежности, нечеткими решающими правилами, активационными функциями, весами связей), настройка которых производится, по сути, так же, как и для обычных нейронных сетей. Ниже рассматриваются теоретические аспекты создания подобных сетей, а именно, аппарат нечеткой логики и собственно нечеткие нейронные сети применительно к задачам принятия решений в условиях неопределенности.
Кроме того, в этой главе существенное внимание уделено рассмотрению генетических алгоритмов, которые как и нечеткие нейронные сети относятся к классу гибридных систем. Наиболее востребованным является приложение, в котором генетические алгоритмы используются в процессе обучения нейронных сетей, в том числе и нечетких, для поиска оптимальной структуры и набора весовых коэффициентов. 3,1. Нечеткая информация Пожалуй, наиболее поразительным свойством человеческого интеллекта является способность принимать правильные решения в обстановке неполной и нечеткой информации.
Построение моделей приближенных рассуждений человека и использование их в интеллектуальных компьютерных системах представляет сегодня одно иэ самых перспективных направлений развития современной вычислительной техники Значительный вклад в это направление внес Л. Заде ((.. Еаоел).
Его работа «Гцгзу Зе!з», опубликованная в 1965 г в журнале «)п(оггпа1юп апс( Соп(го)», явилась толчком к развитию но- 90 вой математической теории. Заде расширил классическое понятие множества, допустив, что характеристическая функция (функция принадлежности элемента множеству) может принимать любые значения в интервале (О, 1), а не только значения О либо 1.
Такие множества были названы им нечеткими (гиггу). Заде определил также ряд операций над нечеткими множествами и предложил обобщение известных методов логического вывода тог)ив ропепв и тог)ив 1о()епв. Введя затем понятие лингвистической переменной и допустив, что в качестве ее значений (термов) выступают нечеткие множества, Заде предложил аппарат для описания процессов интеллектуальной деятельности, включая нечеткость и неопределенность выражений. Это позволило создать фундамент теории нечетких множеств и нечеткой логики, а также предпосылки для внедрения методов нечеткого управления в инженерную практику. Смещение центра исследований нечетких систем в сторону практических приложений привело к постановке целого ряда проблем таких, как новые архитектуры компьютеров для нечетких вычислений, элементная база нечетких компьютеров и контроллеров, инструментальные средства разработки, инженерные методы расчета и разработки нечетких систем управления и многое другое.
Математическая теория нечетких множеств позволяет описывать нечеткие понятия и знания, оперировать этими знаниями и делать нечеткие выводы. Нечеткое управление оказывается особенно полезным, когда исследуемые процессы являются слишком сложными для анализа с помощью общепринятых методов, или когда доступные источники информации интерпретируются качественно, неточно или неопределенно. Нечеткая логика, предоставляющая эффективные средства отображения неопределенностей и неточностей реального мира, и на которой основано нечеткое управление, ближе к человеческому мышлению и естественным языкам, чем традиционные логические системы.
3.1.1. Нечеткие множества Пусть Š— универсальное множество, х — элемент Е, а О— некоторое свойство. Обычное (четкое) подмножество А универсального множества Е, элементы которого удовлетворяют свойству 8, определяется как множество упорядоченных пар. А = (их(х)/х), где их(х) — характеристическая функция, принимающая значение 1, если х удовлетворяет свойству б, и Π— в противном случае. 91 Нечеткое подмножество отличается от обычного тем, что для элементов х из Е нет однозначного ответа «да вЂ н» относительно свойства О. В связи с этим нечеткое подмножество А универсального множества Е определяется как множество упорядоченных пар А = (рх(х)/х), где /а(х) — характеристическая функция принадлежности (или просто функция принадлежности), принимающая значения в некотором вполне упорядоченном множестве М (например, М = [О, 1]) Функция принадлежности указывает степень (или уровень) принадлежности элемента х подмножеству Я Множество М называют множеством принадлежностей Если М = (О, 1), то нечеткое подмножество А может рассматриваться как обычное ипи четкое множество.
Примеры записи нечеткоао множества Пусть Е = (х,, хь х,, х,, х»), М = [О, 1]; Я вЂ” нечеткое множество, дпя которого /м(хе) = 0,3; ре(хг) = 0; /м(хз) = 1; /а(хе) = 0,5; рх(х») = 0,9. Тогда А можно представить в виде: А = (0,3/х,; О/х,; 1/х,; 0,5/х„; 0,9/х») или А = 0,3/х, + О/х, + 1/хг + 0,5/хе + 0,9/х» Замечание. Здесь знак «+» не является обозначением операции сложения, а имеет смысл объединения.