Бодянский В.Е., Руденко Г.О. - ИНС архитектура обучение применение (778912), страница 46
Текст из файла (страница 46)
+ + и „„„(Ус)(х(й — 1) + х(Ус — 2гл+ 1)) — хЯ вЂ” 2т). 313 синаптические веса которого можно настраивать с помощью какого-либо из алгоритмов, рассмотренных в подразделе 4.3. В простейшем случае это может быть либо экспоненциально взвешенный метод наименьших квадратов (4.46) в форме т ээ- -эФ Ф( 2 Х вЂ” 3~эхээ '~ — Фэ ~ /4 +~ Ф 2 ~ — ~',эхх .х',--,.( .. х ! ' ээээ ь" „ ( ээ эхэ ( ~', ( — — .х'(/э) +~ ~ ! ээ э' ~ эх «-1+ х)~ й Рис. 20.1 — Нейронная сеть для анализа квазипериодических последовательностей 20 АНАЛИЗ КВАЗИПЕРИОДИЧЕСКИХ ПОСЛЕДОВАТЕЛЬНОСТЕЙ е х (/с) = ~~ и,.(/с)х,.(/с). ~=1 (20.13) Обучение выходного слоя производится с помощью процедур (16.18) или (16.28) и (16.37) или (16.42), при этом с помощью весового вектора,и(й) (16.29) можно оценить реальное число синусоид в анализируемом сигнале. Рассмотренная нейронная сеть, как и ее модификации [332-338), может быть использована для анализа широкого класса сигналов произвольной природы, содержащих периодические компоненты.
315 Каждый из нейронов системы (20.12) с той или иной степенью точности аппроксимирует реальный процесс, однако для получения наилучших результатов можно воспользоваться ансамблем нейронов (раздел 16), объединяющим все сигналы х,.()с). Одновременно с этим можно вычислить и вероятность того, что ~-тый нейрон слоя наилучшим образом восстанавливает анализируемый процесс х®) путем решения системы уравнений Куна-Таккера (16.32). На рис. 20.1 приведена архитектура многослойной нейронной сети для анализа квазипериодических последовательностей для случая ~л = 4. Входной слой этой сети образован элементарными задержками ~ ' так, что на следующий слой одновременно поступают сигналы х(1с — 1), х(1с — 2),..., х(/с — 2т) . Первый скрытый слой образован набором обычных сумматоров, формирующих т векторов х(й, /), ~'=1,2,3,4=>л, которые далее подаются на второй скрытый слой, сформированный адаптивными линейными ассоциаторами, реализующими отображение (20.9).
В этом слое и производится обучение синаптических весов и,,, ~' = 1,2,..., т; 1 = 1,2,..., 1 с помощью алгоритмов (20.10) или (20.11). На выходе этого слоя формируется вектор оценок х(1с) = (х, (1с), х,(1с),..., х,„()с))', который в выходном слое объединяется по типу (16.43), в результате чего на выходе нейронной сети появляется оптимальная оценка 21 ОБНАРУЖЕНИЕ ИЗМЕНЕНИЙ СВОЙСТВ СТОХАСТИЧЕСКИХ ПОСЛЕДОВАТЕЛЬНОСТЕЙ С ПОМОЩЬЮ НЕЙРОСЕТЕВОГО ПОДХОДА Задача обнаружения изменений свойств стохастических последовательностей тесно связана с проблемой диагностики объектов и систем различного назначения и широко изучена с различных позиций [359- 3711.
Для ее решения предложено множество подходов, связанных большей частью с идеями математической статистики, теории случайных процессов, распознавания образов, кластер-анализа и т,п. Не вдаваясь в критику имеющихся результатов, заметим лишь, что достаточно жесткие предположения о статистических свойствах реальных временных рядов ограничивают возможности традиционных методов. Более универсальным представляется многомодельный подход [364, Зб9, 244, 323 — 325, 3271, суть которого состоит в том, что диагностируемый сигнал проходит через множество моделей, каждая из которых основана на своей определенной гипотезе относительно характера возможных изменений.
Если определенные гипотезы действительно выполняются, то сигналы обновлений на выходе соответствующих моделей должны быть малыми. Таким образом, решающий механизм по сути основан на отыскании той модели, на выходе которой обновления минимальны, а вероятность соответствующей гипотезы максимальна. Достоинства этого подхода несомненны, однако реальная последовательность обычно настолько многообразна, что никакая из моделей (как правило линейных) полностью не отражает ее изменяющихся свойств. Последние годы характеризуются всплеском исследований в области диагностирующих нейронных сетей [372-380, 87, 199, 244, 381-384~. В настоящем разделе рассматривается искусственная нейронная сеть, предназначенная для обнаружения в реальном времени изменений свойств контролируемого сигнала х(й) и сочетающая в себе достоинства многомодельного подхода и аппроксимирующие свойства прогнозирующих ИНС (раздел 19).
Изменение свойств стохастической последовательности фиксируется с помощью диагностирующего вектора, элементы которого являются синаптическими весами выходного нейрона. Архитектура данной ИНС приведена на рис. 21.1 и представляет собой сеть элементарных нейронов, отличающихся между собой видом активационных функций и алгоритмами обучения, являющимися в общем случае градиентными процедурами безусловной или условной оптимизации.
Контролируемая стохастическая последовательность х(й) подается на входной (нулевой) слой сети, образованный элементами задержки ~ ', в результате чего на выходе этого слоя формируется набор задержанных значений временного ряда х(й — 1),х(й — 2),...,х(й — и„), при этом чем больше значение и „тем более широкими диагностирующими возможностями обладает нейронная сеть.
31б 21 ОБНАРУЖЕНИЕ ИЗМЕНЕНИЙ СВОЙСТВ СТОХАСТИЧЕСКИХ ПОСЛЕДОВАТЕЛЬНОСТЕЙ С ПОМОЩЬЮ НЕЙРОСЕТЕВОГО ПОДХОДА Первый скрытый слой образован стандартными формальными нейронами с нелинейными активационными функциями )уеду на входы которых подаются задержанные значения сигнала х(Ус) и по цепи обратной связи — задержанные значения выходных сигналов (прогнозов) х)(Ус), у = 1,2,...,л,. — х((' )) и и +, '', х,(х) „..Ф.... ч с (+ + И.- --х +~ ', х ()с) -('-"-) ° --и)4------++' у ',--" - и---~'. 2.';,—; ,)и;'. ' ';, у® ':;,Хь ии '.,сис х '+ ;.$ с; '-", счи" х ии и -с ---~' 2';-- ~и„()с) )сс ,'и,+) ..
с -е у,()с) У,и с(() си„ и'„„- — -,; х„()с) «(х — и„)' '-' — ' Чс, ' +.рг --'+ " --',-" [+ с 2., 1 — и„ Рис. 21.1 — Диагностирующая нейронная сеть В результате обработки сигнала нейронами первого слоя на их выходах появляются прогнозные оценки х)(Ус) =у)(х(й-1), х)(Ус-1)), х (й) = )у,(х(К вЂ” 1), х(й — 2),х,(Ус — 1), х,(Ус — 2)), (2! .1) х (Ус) = )У~ (х(Ус — 1),..., х(Й вЂ” л, ), х (Ус — 1),..., х (Ус — л,, )), соответствующие нелинейным процессам авторегрессии-скользящего среднего (ХАЙМА — модели) порядка от 1 до л„.
Таким образом, нейроны первого скрытого слоя формируют элементарные «кирпичики», из которых во втором скрытом слое «собираются» прогнозы последовательности х(Ус) . Задачей, решаемой сетью, является определение текущего значения порядка ХАКМА- процесса и моментов возможного его изменения в реальном времени. Во втором скрытом слое, образованном л — 1 адаптивными линейными ассоциаторами, производится по парное объединение прогнозов с целью получения оценок у)(Ус), у =1,2,...,лх — 1 у1И) (х1Ж)" х~Ж)'~1 )> х1Ж) уо( )' у,(й) = Г(у, Ж), х,(й), и „и, ), (21.2) уч,(й) = Г(уи,Я),х„(й),и„,,и~„„...,и:,) и весовых коэффициентов и,*, характеризующих точность объединяемых у,,Ж), х,.„(й) и объединенного у,.(й) прогнозов, Следует отметить, что хотя во втором слое формально производится попарно е объединение, на содержательном уровне это не совсем так.
Если первый нейрон второго скрытого слоя строит объединенный прогноз на основе х,(й) и х,(й), то у,(1) уже содержит в себе х,(к),х„(7с) и х,(/с), у,(/с) — х,(й), х,(/с), х,(к) и х4(к) и т.д. Именно во втором скрытом слое формируются оптимальные одношаговые прогнозы, отличающиеся друг от друга объемом используемой предыстории. Вектор текущих весов и (й) =(и,(й), и,(й),...,и„,(/с)) описывает качество прогнозирования, достигаемое во втором скрытом слое в каждый текущий момент времени, а изменение соотношений между его элементами уже само по себе свидетельствует об изменении структуры и параметров сигнала х(й). Заметим также, что уже на уровне этого слоя по номеру соответствующего нейрона можно установить, сколько нейронов первого слоя потребуется для удовлетворительной аппроксимации контролируемой последовательности.
В результате обученная нейронная сеть обеспечивает требуемое качество прогнозирования входного сигнала на уровне второго скрытого слоя, при этом в единственном нейроне — адаптивном линейном ассоциаторе выходного слоя формируются оценки «вкладов» (диагностических признаков ц(1с) =(и,Ж)„и,(й),...„и„ч,(й))г) каждого из прогнозов у,.(й) в общую модель контролируемого сигнала. Наибольшему «вкладу» соответствует максимальный вес,и,.(й), являющийся аналогом вероятности гипотезы о том, что «истинное» состояние х(й) наилучшим образом описывается оценкой у,(й).
Максимальное значение р,(й) определяет порядок наилучшей МАКМА- модели в момент времени й, а непрерывное уточнение вектора,и(1) с помощью соответствующего алгоритма обучения позволяет обнаруживать момент изменения свойств. После возникшей разладки, когда свойства контролируемого сигнала претерпели изменения, «вклады» отдельных у,(Й) соответственно изменяются и оптимальный прогноз обеспечивается уже иной комбинацией нейронов второго слоя.














