Диссертация (1335837), страница 18
Текст из файла (страница 18)
В процессе обучения корректируются весовые коэффициенты, связанные с нейроном-победителем и его соседями. Поэтому, к концу обучения по-98лучаем более точную картину групп нейронов, соответствующих тому или иномуклассу образовСамоорганизующиеся карты Кохонена благодаря своему свойству группировать многомерные образы около конечного числа формальных нейроновпрототипов пространства выходов нейронной сети, позволяют автоматизироватьпроцесс построения визуальной карты для анализа многомерных данных в задачах интеллектуального обнаружения деструктивных ЭМВ на элементы и узлыБЦВК.Нейронная сеть встречного распространенияНейронная сеть встречного распространения это интеграция самоорганизующихся карт Кохонена [202] и звезды Гроссберга (рисунок 2.6) [72, 157].Вектор w1Входнойслой (0)СлойКохонена (1)Вектор v1vNw11x1K1l1l2G1y1v21w12w1Nw21x2СлойГроссберга (2)w22w2NK2G2y2wm2wm1xmlmwmNKnНейроны КохоненаvnpGpypyЖелаемыевыходныезначенияНейроны ГроссбергаРисунок 2.6 Нейронная сеть встречного распространенияНейроны нулевого слоя служат точками расхождения на ветви.
Каждыйформальный нейрон нулевого слоя соединен с каждым формальным нейрономпервого слоя, слоем Кохонена весом wnm , которые (веса) в совокупности образуют99матрицу весов W. По аналогии с этим, каждый формальный нейрон в слое Кохонена соединен с каждым формальным нейроном в слое Гроссберга весом vnp, которые также в совокупности дают нам матрицу весов V.При функционировании такой нейронной сети по ВхВ Х рассчитываетсяВыхВ Y. При обучении веса матриц V и W формируются так, чтобы как можноточно обеспечить близость значений расчетного и эталонного ВыхВ.Каждый слой такой нейронной сети имеет свои преимущества. Так, слойКохонена обладает свойством самообучения и позволяет классифицироватьВхВ.
Это достигается с помощью такой подстройки весов слоя Кохонена, чтоблизкие ВхВ активируют один и тот же формальный нейрон-победитель. А слойГроссберга позволяет определять необходимые координаты ВыхВ. При этом,следует иметь в виду, что слой Гроссберга обучается с учителем.
Так ВхВ слояКохонена приходит на слой Гроссберга и позволяет определить расчетные значения координат ВыхВ слоя Гроссберга. После чего, веса матрицы V изменяютсялишь тогда, когда они связаны с формальным нейроном слоя Кохонена, у которого есть ненулевой выход. Величина изменения веса матрицы V прямо пропорциональна отклонению веса от требуемого выхода нейрона Гроссберга, с которым онсвязан: ijx ijc ( y j ijc )ki.(2.11)yjгде ki выход i-го формального нейрона слоя Кохонена; j-ая компонентатребуемого ВыхВ; принимает значение равное 0.1 и снижается при обучении.Отдельно стоит сказать и про время обучения НС, так как этот параметрособенно важен для оперативности обновления состояния средств обнаружениядеструктивных ЭМВ на элементы и узлы БЦВК. Экспериментальные исследования показали, что обучение НС встречного распространения на порядок (в 10 рази более) быстрее, чем обучение НС с обратным распространением ошибки.1002.4 Гибридные средства обнаружения деструктивных ЭМВна элементы и узлы БЦВКАнализ экспертных систем, систем нечеткой логики (НЛ), НС и эволюционных систем, к которым относятся генетические алгоритмы, показал возможностьопределить технологии по аспекту возможности манипулирования с неотчетливыми и не вполне правдивыми данными, а это свойственно системам обнаружения деструктивных электромагнитных вероятностей, таким как: НС, системы НЛи ГА.
При этом последние направлены на вычисление оптимизационных задач, аНС на вычисление задач разбора и выявления закрытых закономерностей в информации.В гибридных средствах, которые используются для вычисления задач интеллектуального разбора информации и поиска закрытых закономерностей, гдесовмещаются преимущества разных интеллектуальных механизмов. В каждом изметодов имеются как сильные, так и слабые стороны (таблица 2.3) [72, 157].Т а б л и ц а 2.3 - Сравнительная характеристика интеллектуальных методовЭкспертныесистемыСистемыНЛскорее хорошохорошоплохоскорее плохоНечеткие выводыплохохорошохорошохорошоАдаптируемостьплохоскорее плохохорошохорошоСпособность обученияплохоплохохорошохорошохорошохорошоплохоскорее плохоплохоскореехорошоскорееПредставление знанийОписание результатаИскусственный интеллектНейронные ГенетическиесетиалгоритмыплохоПростота обслуживанияплохоскореехорошохорошохорошоскореехорошоНе сильными сторонами нейронной сети определяется не вполне «прозрачное» для пользователя воображение данных в информационном поле нейроннойсети и неочевидность метода определения итогов работы НС.
Для разрешения101указанных недостатков необходимо сочетание инструментария нейронной сетиили с другими подходами.2.4.1 Эволюционно-генетический подходЭволюционно-генетическийоподходопозволяет строить алгоритмыопоискаооптимальныхорешений, называемыеогенетическими алгоритмами, на основеомоделирования биологических механизмовопопуляционной генетики [44]. Поискооптимальногоорешенияовоних осуществляется путем прямогооманипулирования сосовокупностьюоизонескольких допустимых решений, образующихопопуляцию, каждоеоизокоторых закодированоов двоичном коде. Следует выделитьоследующие свойства генетическихоалгоритмов (ГА): независимостьоотохарактера функции, чей экстремум определяется; некритичностьококоличеству компонентов вектораодопустимого решения; отсутствиеонеобходимости расчетов производныхоотоцелевой функции(ЦФ) (ГА - алгоритмы нулевого порядка); на каждойоитерации алгоритмаовычисляется несколькоодопустимыхрешений; набородопустимых решенийонаоочереднойоитерации определяется сучетом информацииооовсех предыдущих допустимых решениях; допускаетсяомногокритериальность задачи.Рассмотримоподробно основныеоэтапы построения генетическихоалгоритмов иотерминологию, используемую в [44].Представление допустимыхорешений экстремальной задачи в виде бинарныхострок.Допустимое решение x D экстремальнойозадачиооднокритериальноговыбора является n-мернымовектором х = (x1,..., хn).
Вотом случае, когда задачапринадлежитоклассуозадач переборного типа, имеется конечноеомножество допустимыхорешений, в которых каждая компонента xi, i = 1, n вектора x D кодируетсяосопомощьюоцелого неотрицательногоочисла [44]102 i 0, K i , i 1, n,(2.12)где (Ki+1) – числоовозможных дискретных значений i-й управляемой переменнойовообласти поиска D.Этоопозволяет поставитьовоовзаимнооднозначное соответствие каждомувектору x D вектор соцелочисленными компонентами( x1 ,..., xn ) (1 ,..., n ),(2.13)где для каждойокомпоненты i , i 1, n областью возможных значенийоявляютсяцелые числа от 0 до Ki.Далееопредлагаетсяоввести алфавит В2, содержащийотолькоодва символа 0и 1: B2={0, 1}.
Для того, чтобы представить целочисленный вектор (1 ,..., n )валфавитеВ2необходимоопределитьомаксимальноечислоодвоичныхсимволовоθ, которое достаточноодляопредставленияоводвоичном коде любогозначения i изообластиоегоодопустимых значений [0, Ki]. Нетрудно видеть, чтопараметросимвольнойомодели θ долженоудовлетворятьонеравенству K 2 , гдеK max ( K i )1i n.Записьопроизвольногооцелого неотрицательногоочисла i (0 i 2 )сопомощьюоθодвоичныхосимволовоопределяетсяосоотношением: i l 2 ll 1,где l двоичное число, равное 0 или 1; θ длина двоичного слова, кодирующего целоеочисло i .
Тогдаосимвольная записьоцелочисленного кода i дляофиксированного значения управляемойопеременной xi в обычном двоичномокоде запишетсяововидеоследующей бинарнойокомбинации:103где l двоичные символы (0 или 1), l 1, .Дляопредставления допустимогоорешения x D экстремальной задачи валфавите В2 объединим символьныеозаписи e ( i ), описывающиеовсе n компонент вектора х, в виде линейнойопоследовательностиоизобинарных комбинаций:E ( x) (e (1 ),..., e ( n )).Этойозаписи соответствует (n×θ)-битоваяострокаоизодвоичных символов(0, 1):Такимообразом, символьнаяомодель экстремальнойозадачи переборноготипаоможетобыть представленаововиде множества бинарных строк, которыеописываютоконечноеомножество допустимыхорешений х, принадлежащих области поиска D [44].Выборосимвольной моделиоисходной экстремальной задачиовоомногомопределяетоэффективность иокачествооприменяемых генетических алгоритмов.Дляокаждого класса задачопереборного типаодолжнаостроитьсяосвоя символьнаяомодель, отражающаяоспецифику и особенностиорешаемой задачи.Наименьшейонеделимой единицейобиологическогоовида, подверженнойtдействиюофакторов эволюции, является особь a k (индекс k обозначает номерособи, а индекс t некоторыйомоментовремениоэволюционного процесса).
В каtчествеоаналогаоособи a k воэкстремальнойозадаче однокритериального выборапринимаетсяопроизвольное допустимое решение x D , которому присвоено имяa kt. Действительно, вектороуправляемыхопеременных (х1,...,xn) – это наименьшая-онеделимая единица, характеризующаяовоэкстремальной задаче внутренниеопараметры на каждом t-м шаге поиска оптимальногоорешения, которые изменяютосвои значенияов процессеоминимизацииокритерия оптимальности Q(x). Каче-104tственныеопризнакиоособи a k определяются из символьной модели экстремальtнойозадачи какосоответствующая точке х с именем a k бинарная строка Е(x) и со-ставляющиеоее бинарныеокомбинации e (1 ),..., e ( n ) .Интерпретацияоэтихопризнаковоприводится в терминахохромосомной теории наследственности [44].Вокачествеогена единицы наследственного материала, ответственного заформированиеоальтернативных признаковоособи, принимается бинарная комбинация e ( i ) , которая определяетофиксированное значение целочисленного кода i управляемой переменной x вообычном двоичномокоде.itОдна особь a k будетохарактеризоваться n генами, каждыйоизокоторых от-вечаетозаоформирование целочисленного кода соответствующей управляемойопеременной.