Диссертация (1335837), страница 17
Текст из файла (страница 17)
Ядронейронной сети - это порядок взвешенных межнейронных связей различныхскрытых и ВхС, формирующихся в процессе обучения. Таким образом, НС, которая является обученной, осуществляет необходимую обработку ВхВ в вектор выходных сигналов (ВыхС) в порядке взвешенных межнейронных связей, образующих избыточное распределенное информационное поле (ИП) нейронной сети [72,157]. Следовательно, скрытые слои вместе с выходным слоем нейронной сети запоминают в ядре осуществляемое функциональное преобразование входных данных в выходную информацию.Рисунок 2.3 – Многослойная нейронная сетьТакой процесс, как обработка ВхВ и получения выходной информацииосуществляется путем обработки оперативной информации в виде входного и92промежуточных векторов на основе долговременной информации ИП нейроннойсети, осуществляющееся в ядре системы и нейронах последовательно расположенных слоев НС.Как показано в работе [72], некоторую непрерывную функцию ВхС возможно представить нейронной сетью с одним скрытым слоем и прямыми полными связями, для чего достаточно в случае n-мерного ВхВ 2n+1 формальных нейронов скрытого слоя с ограниченными функциями активации.В экспериментальных нейронных сетях могут быть четыре и более скрытыхслоев, содержащего до 106 нейронов, таким образом, обеспечивая большую избыточность распределенного ИП НС.
Но нейронная сеть чаще всего содержат одинили два скрытых слоя, включающие 10103 нейронов [72, 157]. Ограничение по количеству слоев и формальных нейронов связаны, главным образом, ростом по экспоненте затрат на вычисления при программной эмуляции нейронной сети [72].Адаптация нейронных сетей с экспертомУмение обучаться является фундаментальным свойством нейронной сети,которая необходима для создания приспособленных средств обнаружения деструктивных ЭМВ на элементы и узлы БЦВК. Обучение нейронных сетей рассматривается как настройка различных взвешенных межнейронных связей сети, которые образуют распределенное ИП нейронной сети, согласуясь с необходимойфункциональной зависимостью ВыхВ от значений ВхВ нейронной сети [72, 157].Настройка необходима для определения весовых коэффициентов взвешенныхсвязей, топологии нейронной сети и т.д.Известны многочисленные алгоритмы адаптации ИП НС с экспертом [71,154- 57, 163-165, 169, 200, 202].
Неплохие результаты получены при использовании алгоритмов локальной оптимизации в сочетании с процедурой преодолениялокальных минимумов и увеличением числа формальных нейронов [157].Самообучающиеся НСВозможность самообучения необходимый атрибут НС для анализа и выявления скрытых закономерностей во входной информации, свойственных боль-93шинству задач интеллектуального обнаружения деструктивных ЭМВ на элементыи узлы БЦВК.Самообучение нейронной сети не дает возможности получения готовых результатов на входные воздействия, а заключается в том, что из внутренних закономерностей информации, в нейронной сети создаются определенные условия дляразбиения ВхВ по различным категориям и формирования структуры классов информации. В этом случае избыточные данные и скрытые закономерности, заключенные в информации, являются, своего рода, экспертом по обучению нейроннойсети. Уменьшение степени избыточности входных данных НС дает возможностьопределить главные независимые признаки, что позволяет выявлять скрытые вданных закономерности для идентификации воздействий на элементы и узлы бортового цифрового вычислительного комплекса.Базовым правилом для самообучающихся нейронных сетей являюется правило, которое сформулировал Хебб, учитывающее степень активности входов ивыхода формального нейрона и содержащее постулат о том, что нейронная сетьобладает свойством самоорганизации: «Если нейроны с обеих сторон синапса активизируются одновременно и регулярно, то сила синаптической связи возрастает».Правка синоптической связи с весом Wij между выходом i-гo нейрона ивходом j-гo формального нейрона после исполнения р-й итерации по правилуХебба может быть описано, например, следующим образом:wij ( p) y j ( p) xi ( p),(2.4)где показатель скорости обучения,xi ( p) и y j ( p) соответственно значения предсинаптической и постсинапти-ческой активности.При дифференциальном представлении правила Хебба сильнее обучаютсясинапсы, которые соединяют формальные нейроны с выходами наиболее динамично увеличившимися:94wij ( p) [ xi ( p) xi ( p 1)][ y j ( p) y j ( p 1)].(2.5)Однако, необходимо ограничивать возрастание вектора весов формальногонейрона, к примеру, по правилу падения силы синаптической связи: «Если нейроны с обеих сторон синапса активизируются асинхронно, то сила синаптическойсвязи ослабевает».
Для уменьшения весов в правило Хебба необходимо ввести такой коэффициент, как коэффициент «забывания»:wij ( p) y j ( p) xi ( p) y j ( p)wij ( p),(2.6)где это коэффициент забывания со значениями в интервале от 0 до 1 (обычно0.01 и 0.1).Общий алгоритм обучения по Хеббу тогда можно формализовать в виде последовательности итераций, начинающуюся с p = 1:1. При инициализации взвешенным связям ИП нейронной сети приписываютнекоторые случайные значения в интервале от 0 до 1, а показателю скорости икоэффициенту забывания следует присвоить некоторые случайные положительные значения.2.
При активации для р-й итерации необходимо вычислить значение постсинаптической активности на выходе каждого j-гo формального нейронаy j ( p):ny j ( p) xi ( p)wij ( p) w j 0 , ji 1,(2.7)где n число входов формального нейрона,wi 0 значение порога активного j-гo формального нейрона.3. При обучении проводим коррекцию весов межнейронных связей ИП нейронной сети:wij ( p 1) wij ( p) wij ( p), i, j,(2.8)95гдеwij ( p)вычисляется в соответствии с общим правилом:wij ( p) y j ( p)[xi ( p) wij ( p)].(2.9)4. Для завершения обучения необходимо проверить достижение требуемойустойчивости результата работы нейронной сети.
Таким условием может быть,например, евклидово расстояние между ВыхВ р-й и р-1 итерациями. В случае, если такое расстояние превосходит требуемое значение, то процедура продолжается, номера итерации р увеличивается на 1, происходит возврат на п.2 и повторение этапов алгоритма. В противном случае нейронная сеть считается обученной.Из-за того, что на стадии инициализации состояние нейронов ВыхС обученной нейронной сети не определено из-за случайного распределения весов, тодля приведения ВыхВ обученной нейронной сети к формализованному представлению необходимо включить в нейронную сеть еще один ВыхС, который можетбыть определен по методу обратного распространения ошибки.
Другими словами,для определения взвешенных связей всех слоев нейронной сети (не считая выходного) наиболее приемлемым будет метод самообучения, а ВыхС будем настраивать по методу обучения с учителем [72, 157].Нейронная сеть для визуализации многомерных данныхВ общем случае большинство задач по интеллектуальному анализу данных(ИАД) решается в интерактивном режиме при участии эксперта предметной области [166, 157, 162], в нашем случае, эксперта по электромагнитной совместимости. Для чего инструментальная среда по ИАД должна обеспечивать экспертадружественным интерфейсом, в том числе графическим, для визуализации многомерной информации такого анализа. Одним из характерным примеров могутслужить самоорганизующиеся топографические карты Кохонена, принцип действия которых базируется на соревновательном способе обучения нейронов [51, 52].При соревновательном способе обучения формальные нейроны внутреннегослоя стремятся быть активированными первыми, так как в любой момент времени96лишь один формальный нейрон-прототип может быть активирован, в дальнейшемтакой формальный нейрон будем называть нейрон-победитель.Применение отдельного вида нейронных сетей, именуемых, самоорганизующимися картами Кохонена [51, 52], позволяет наглядно представить результаты самоорганизации нейронной сети.
Самоорганизующиеся карты Кохоненастроятся на основе топографического формирования отображения: «Близкиевходные векторы активируют близкие нейроны выходного слоя НС».Алгоритм Кохонена обеспечивает настройку взвешенных связей текущейитерации на основе данных показаний весов на предшествующей итерацииwij ( p) [ xi ( p) wij ( p 1)].(2.10)Алгоритм Кохонена аналогичен методу обучения по правилу Хебба, за исключением того, что на третьем шаге из слоя нейронной сети выявляют формальный нейрон-победитель, со значениями синапсов близкими к ВхВ, и лишь для него происходит подстройка весов.
Другие же формальные нейроны слоя из-за боковых затормаживающих связей деактивируются (рисунок 2.4).Рисунок 2.4 Графическая иллюстрация алгоритма КохоненаКак правило, такой вид нейронных сетей, как самоорганизующиеся картыКохонена, визуализируется с помощью двумерного массива нейронов, причем таким образом, что обеспечивается взаимосвязь каждого формального нейрона со97всеми d входными узлами (на рисунке 2.5 d = 2).
На рисунке 2.5 формальный нейрон-победитель показан темно-серым цветом, окружающие его формальные нейроны серым цветом, а белым заторможенные на данной итерации формальныенейроны.Рисунок 2.5 Самоорганизующиеся карты КохоненаСамоорганизующиеся карты Кохонена отдельный класс нейронных сетей,который использует для обучения соревновательный метод, определяющий пространственную окрестность для каждого выходного формального нейрона.
Приэтом, после определения в слое формального нейрона-победителя, происходитобучение ФН-соседей по пространственной окрестности. Начальное приближениетакой окрестности, как правило, выбирается равным 1/2 2/3 размера нейроннойсети и уменьшается по некоторому правилу (к примеру, по закону убывающейэкспоненты).