Диссертация (Методы и алгоритмы интеллектуализации принятия решений в условиях неопределенности на базе аппарата нейронных сетей и эволюционного моделирования), страница 8
Описание файла
Файл "Диссертация" внутри архива находится в папке "Методы и алгоритмы интеллектуализации принятия решений в условиях неопределенности на базе аппарата нейронных сетей и эволюционного моделирования". PDF-файл из архива "Методы и алгоритмы интеллектуализации принятия решений в условиях неопределенности на базе аппарата нейронных сетей и эволюционного моделирования", который расположен в категории "". Всё это находится в предмете "технические науки" из Аспирантура и докторантура, которые можно найти в файловом архиве МПУ. Не смотря на прямую связь этого архива с МПУ, его также можно найти и в других разделах. Архив можно найти в разделе "остальное", в предмете "диссертации и авторефераты" в общих файлах, а ещё этот архив представляет собой кандидатскую диссертацию, поэтому ещё представлен в разделе всех диссертаций на соискание учёной степени кандидата технических наук.
Просмотр PDF-файла онлайн
Текст 8 страницы из PDF
Частичное обучение каждой из ИНС популяции методом обратногораспространения ошибки. Количество эпох обучения K0 фиксировано и задаетсяизначально. После частичного обучения рассчитывается ошибка вывода E,формируемая на валидационном множестве: = 100гдеmax ,min–max − minмаксимальное∑=1 ∑=1( () − ())2 ,иминимальноезначения(1.14)выходныхкоэффициентов; – количество выходов; – индекс узла; – индекс образа в валидационной выборке.В случае, если ошибка E перестает уменьшаться, делается предположение,что нейросеть попала в локальный минимум. Такие особи маркируются какнеудачные.423.
Ранжирование особей популяции в соответствии со значениями ошибоквывода E от наиболее приспособленных к менее приспособленным.4. Вслучае,еслиошибкавыводаоказываетсяменьшезаранееустановленного значения или достигнуто максимальное количество эпох, процессэволюции переходит на шаг 10 и считается завершенным. Иначе – переход кшагу 5.5. Отбор для воспроизведения лучшей ИНС на основании ранжированногоряда. Если отобранная особь не помечена как неудачная, переход к шагу 6.
Иначе– к шагу 7.6. Частичное обучение выбранной ИНС методом MBP (Multiple BackPropagation, метод множественного обратного распространения ошибки) [107] напротяжении K1 эпох с целью формирования ИНС – потомка. Параметр K1фиксирован и задается до запуска процесса нейроэволюции. Полученная ИНСпомечается способом, описанным на шаге 2. Маркированный потомок замещаетсобой родительскую особь в текущей популяции. Возврат к шагу 3.7.
Определение количества скрытых узлов Nhidden, подлежащих удалению.Nhidden – это случайное число на отрезке [1, Nmax], где Nmax – целое фиксированноечисло (как правило Nmax < 4). Удаление Nhidden нейронов, отобранных случайнымобразом. Частичное обучение упрощенной ИНС методом MBP и получение ИНСпотомка. В случае, если потомок показывает лучшие результаты, чем наихудшаяособь из ранжированного ряда, он ее замещает и осуществляется переход к шагу3. Иначе полученный потомок далее не участвует в отборе и осуществляетсяпереход к шагу 8.8.
Вычисление приблизительной значимости связей между нейронамиИНС-предка. Определение количества подлежащих удалению связей способом,аналогичным способу удаления нейронов на шаге 7. Частичное обучениесокращенной ИНС методом MBP и формирование потомка. Если потомококазывается более приспособленным, чем наихудшее решение в популяции, онзамещает данное решение.439. Определение количества связей и узлов для добавления в ИНС способом,описаннымнашагепредполагаемойсвязи7.сВычислениенулевымпримернойвесовымзначимостикоэффициентом.каждойДобавлениеслучайным образом в структуру ИНС-предка связей в соответствии с ихзначимостью.Добавлениенейроновреализованопосредствомразбиенияслучайно выбранного узла на два новых. Новая «расширенная» ИНС считаетсявторым потомком.
Далее осуществляется частичное обучение первого и второгопотомков методом MBP и определение особей, переходящих в следующеепоколение. Замещение наихудшей ИНС текущей популяции потомком и переходна шаг 3.10.После завершения процесса эволюции наилучшая особь обучается навыборках данных до тех пор, пока процесс обучения не сойдется на оптимальномили близком к оптимальному решении.Данный метод задействует прямую схему генетического кодирования сдвумя матрицами, в которых содержатся связи между нейронами и весовыекоэффициенты.
Матрицы имеют одинаковый размер (m+N+n)× (m+N+n), где m –количество входов ИНС, N – максимальное количество скрытых узлов, n –количество выходов.Достоинством метода является компромисс между структурной сложностьюформируемых решений и временной сложностью работы. Метод предполагает,что оператор мутации топологии ИНС задействуется только в случае, когдаошибка вывода E перестает уменьшаться (нейросеть попадает в точку локальногооптимума). В первую очередь осуществляется удаление нейронов или связей, а вслучае неудачи –добавления данных структурных элементов.Метод обладает и недостатками. Так как в качестве способа обучения EPNetиспользует метод обратного распространения ошибки, на него распространяютсяи свойственные градиентным методам проблемы паралича нейросети, локальногоминимума и определения размера шага обучения. Также для обучения с учителемметодомобратногораспространенияошибкитребуетсяподготовить44качественную обучающую выборку.
Кроме того, использование матриц дляреализации прямой схемы кодирования и нескольких вспомогательных векторовделает метод ресурсоемким.1.3.12 Метод новой эволюционной стратегииNES (Novel Evolutions Strategy – новая эволюционная стратегия) – метод,оптимизирующий параметры при фиксированной топологии ИНС [79]. МетодNES был предложен Каер Ассадом в 2003 году в статье «On Comparison betweenEvolutionary Programming Network-based Learning and Novel Evolution StrategyAlgorithm-based Learning». Метод использует два генетических оператора:основанныйнасубпопуляцияхарифметическийоператоркроссинговера(Subpopulation-Based Max-mean Arithmetical Crossover, SB MAC) и оператормутации, изменяющий свои параметры по функции Гаусса в зависимости отпродолжительности эволюции (Time-Variant Mutation, TVM).Кроссинговер SB MAC предполагает, что популяция особей-предков Π()состоит из μ особей и на каждой эпохе t разбивается на l субпопуляций, поособей каждая.
Особь ,maxсчитается элитной, если обладает наибольшимзначением приспособленности −1 в j-ой субпопуляции.Особь-предок ̅̅̅̅ определяется в j-ой субпопуляции, из которой исключенаэлитная особь. Оператор кроссинговера определяет пару потомков (1 , 2 ) поформулам̅̅̅̅ ,1 = ,max+ (1 − )(1.15)̅̅̅̅ ,2 = (1 − ),max+ (1.16)где ∈ [0, 1] – параметр, случайным образом выбирающийся для каждой парыособей; = const, экзогенный параметр, определяющий степень зависимости междупопуляциями.45Мутация TVM определяется для особи по формуле′ = + () (0, 1) ∀ ∈ {1, … , } ,(1.17)где – функция, определяющая случайное распределение по Гауссу; ∈ [0, 1] –случайное число; () = [1 − (1− )];T–максимальноеколичествопоколений; ∈ – экзогенный параметр, определяющий степень зависимостимежду популяциями.Метод NES состоит из пяти основных шагов:1.
Генерация случайным образом начальной популяции Π(0), состоящей изμ особей.2. Эволюция: кроссинговер SB MAC, формирующий следующее поколениеt. При этом для каждой субпопуляции создаетсяпотомков. Применениеоператора мутации TVM.3. Оценка популяции. Потомки оцениваются с помощью функцииприспособленности .4. Если условие остановки эволюции выполнено, процесс останавливается.Иначе осуществляется переход на шаг 4.5. Создание нового поколения t+1 и переход на шаг 2.Достоинствомметодаявляетсядинамичность:многиепараметрыгенетических операторов корректируются в ходе эволюции. Недостатком методаявляется невозможность модифицирования топологии ИНС.1.3.13 Сравнение и классификация нейроэволюционных методовНейроэволюционные методы целесообразно классифицировать по пятиосновным характеристикам: по наличию входных ограничений, по видуэволюции, модифицируемым свойствам ИНС, схеме кодирования и наборугенетических операторов.
В таблице 1.1 представлено сравнение ключевыххарактеристик описанных методов: способа модификации нейросетей (какие из46характеристик подлежат изменению, по какому пути идет эволюция), способовкодирования хромосом, методов эволюции. Также в таблице кратко указаныосновные особенности методов.Таблица 1.1 – Сравнительные характеристики нейроэволюционных методовМетодENSПоследовательностьСпособмодификациикодиропараметров иваниятопологиихромосомПараллельноПрямойЭАРаздельноПрямойГАРаздельноПрямой и ЭП, ЭСкосвенныйПрямой и Меметикосвенный ческийМетодэволюции3NEATEANTРаздельноDXNNРаздельноПрямойЭАРаздельноПрямойГАТолько параметрыПрямойГАТолько весаПрямойГАПараллельноКосвенныйГППараллельноПрямойЭПРаздельноПрямойЭПТолько параметрыПрямойГАICONESANEESPCNECEGNARLEPNetNESОсобенностиКоэволюция, стохастическиегенетические операторы,эволюция без кроссинговераИсторические маркеры(инновационные числа), видоваяспециализация, использованиесинапсиса и гомологичных геновГибридная схема кодирования игенетические операторыОграничения на изменяемыепараметры, локальнаяоптимизацияОграничивающие маркеры,отсутствие преобразованийфенотип-генотипКооперация, коэволюция,специализация, популяциинейронов и шаблонов ИНСКооперация, коэволюция,специализация, популяциинейронов и шаблонов ИНССтруктура ИНС задается заранее,классическая реализациянейроэволюцииЭмбриогенетическое косвенноекодирование, использованиеграмматик и S-выраженийАлгоритм имитации отжига,динамичность направленияэволюцииИспользование метода обучениянейросетей MBPИспользование операторовкроссинговера и мутации SBMAC и TVM; настройкапараметров генетическихоператоров в ходе эволюции471.
Классификация нейроэволюционных методов по наличию входныхограничений:– ограничения на параметры ИНС, в том числе на вид и фиксированныепараметры функций активации, пороговые коэффициенты;– ограничения на топологию: на количество и структуру слоев,допустимость обратных связей;– отсутствие ограничений: обработка нейросетей любой топологии внезависимости от вида и параметров ИНС, позволяющая наиболее полноисследовать пространство поиска и рассмотреть нейросети всех возможныхконфигураций для формирования оптимального решения поставленной задачи.Втаблиценакладываются1.2представленорассмотреннымисравнениеметодаминаограничений,которыепараметры(весовыекоэффициенты, пороговые значения, вид и параметры функции активации) итопологию ИНС.Таблица 1.2 – Классификация методов по наличию ограниченийМетодENS3NEATEANTDXNNICONESANEESPCNECEGNARLEPNetNESВид ограниченияПараметрыВид функции активацииНетТопологияНетИсходнаяпопуляция:толькополносвязныеИНС;количествонейронов фиксировано.НетНетНетНетНетНетВид функции активацииИНС прямого распространения с 1-мскрытым слоемВид функции активацииПолносвязные ИНСВид функций активации и пороги Топология фиксирована и задаетсяфиксированывначалеНетНетВид функции активацииРекуррентные ИНСВид функции активацииИНС прямого распространенияВид функции активацииТопология фиксирована и задаетсявначале482.
Классификация нейроэволюционных методов по направлению эволюциии возможности его корректирования:– Структурное усложнение. Конструктивный подход, обеспечивающийпошаговое усложнение структуры и наращивание нейронов и синаптическихсвязей. К реализующим данный подход методам относятся NEAT, DXNN, ICONE,CNE и CE.– Структурное упрощение. Деструктивный подход, при котором вначальную эпоху эволюции формируется популяция избыточных ИНС (какправило, полносвязных) с максимально допустимым количеством нейронов исвязей, сокращающихся в последующие эпохи.