Часть 1. Искусственные нейронные сети в задачах системного анализа (1245270), страница 5
Текст из файла (страница 5)
ВЫБОР МОДЕЛЬНОЙ СТРУКТУРЫВ настоящем параграфе представлены нелинейные модельные структуры, реализованные на МНС, предназначенные для идентификации стохас-28тических динамических систем. Прототипами нейросетевых моделей являются линейные представления динамических систем, рассмотренные вглаве 1 настоящей работы. Значительное внимание уделяется выборувнешней и внутренней структуры нейросетевых моделей.Введем строгие определения системы, модельной структуры и модели всоответствии с терминологией, принятой в [9].Реальная система S может быть представлена следующим образом:S : y (t ) = g 0 (ϕ(t )) + e 0 (t ) ,гдеg 0 (ϕ(t ))(2.1)− некоторое нелинейное отображение, реализуемое системой;− регрессионный вектор;ϕ(t )e 0 (t )− сигнал типа «белый шум», не зависящий от входов системы.Модельная структура (М) представляет собой параметризованноемножество моделей-кандидатов:гдеθDMМ: {g (ϕ(t, θ), θ) θ ∈ D M } ,(2.2)y (t ) = g (ϕ(t , θ), θ) + e(t ) ,(2.3)определяет набор p настраиваемых параметров модели;− некоторое подмножество пространстваRp,на котором осуществ-ляется поиск конкретной модели.Прогнозирующая модельная структура может быть представлена в следующем виде:y (t θ) = g (ϕ(t , θ), θ) .(2.4)Основным требованием к модельной структуре является принадлежность реальной системы S множеству моделей М:(2.5)S ∈ M.МодельюM*задания вектораназывается описание типа (2.4) при условии конкретногоθ = θ* :M * : M * = M ( θ * ); θ * ∈ D M.(2.6)29Таким образом, задача идентификации состоит в построении некоторой(в общем случае, нелинейной) функциивектор, аθg (ϕ(t , θ), θ) ,гдеϕ( t )– регрессионный– вектор параметров, настраиваемых в процессе реализации ал-горитма идентификации.2.2.1.Базовые нейросетевые модельные структурыПроблема идентификации нелинейных динамических систем связана счрезвычайной трудностью выбора структуры модели.
Способность многослойных нейронных сетей моделировать произвольные нелинейные непрерывные функции в результате обучения на множестве примеров позволяетэффективно решать данную проблему.Реализация модельной структуры на двухслойной нейронной сети (с учетом (1.37), (2.2) и (2.3)) имеет следующее математическое представление:g (ϕ(t , θ), θ) = yˆ (t θ) = yˆ i (t ( w,W )) =⎛ nh= F ⎜ ∑W j f⎜ j =1⎝(2.7)⎞⎛ nϕ⎞⎜ ∑ w jl ϕ l + w j 0 ⎟ + W 0 ⎟ ,⎜ l =1⎟⎟⎝⎠⎠где(2.8)f ( x ) = th( x )– активационная функция нейронов скрытого слоя;(2.9)F ( x ) = kx; k = const– активационная функция нейронов выходного слоя;nϕ– размерность регрессионного вектора (число входов НС);nh– число нейронов в скрытом слое;θ– вектор настраиваемых параметров нейронной сети, включающий ве-совые коэффициенты и нейронные смещения( w jl ,Wij ) .Использование МНС в качестве модельных структур предполагает решение двух основных проблем:• выбор вектора входов (регрессора) нейросетевой модели;• выбор внутренней структуры нейронной сети.30Вполне естественным способом построения нейросетевых модельныхструктур является использование методов идентификации на основе линейных моделей.
Этот подход обладает следующими преимуществами:• определение регрессионного вектора базируется на хорошо изученныхметодах построения линейных структур (см. главу 1); внутренняя структура МНС может расширяться в зависимости от степени сложности нелинейных отображений (2.4);• уровень сложности выбора модельной структуры может быть значительно снижен, что является существенным при использовании методаконечными пользователями (технологами);• полученные модели могут быть использованы для синтеза системуправления.Нейросетевые модельные структуры могут быть представлены векторомвходов (регрессором) и обобщенной формой описания прогнозирующеймодели в соответствии с выражением (2.4). В качестве базовых нелинейных нейросетевых модельных структур могут быть использованы следующие модификации линейных регрессионных моделей:NNARX (Neural Network – based AutoRegressive eXogenous signal) –нейросетевая авторегрессионная модель, экзогенный тип сигналов.Регрессор:ϕ(t , θ) = [ y (t − 1)… y (t − n a )u(t − n k ) … u(t − n b − n k + 1) ]T.
(2.10)Прогнозирующая модель:yˆ (t θ) = yˆ (t t − 1, θ) = g (ϕ(t ), θ) .(2.11)Модели NNARX, так же как их линейные прототипы, являются устойчивыми, так как представляют собой простую алгебраическую зависимость между прогнозируемым выходом и предшествующими значениямивходов и выходов системы. Это свойство, особенно важное в случае моделирования нелинейных систем, обусловливает предпочтение, отдаваемое31NNARX-моделям в случае идентификации детерминированных объектов снизким уровнем измерительных шумов.NNARMAX1 (Neural Network – based AutoRegressive, Moving Average,eXogenous signal, вариант 1) – нейросетевая авторегрессионная модельскользящего среднего, экзогенный тип сигналов; вариант 1.Регрессор:ϕ(t , θ) = [ y (t − 1), …, y (t − n a ), u(t − n k ), … ,(2.12)u(t − n b − n k + 1), ε(t − 1), …, ε(t − n c )] T =T= ⎡⎣ ϕ 1T (t ), ε(t − 1), …, ε(t − n c ) ⎤⎦ ,гдеε(t ) = y (t ) − yˆ (t θ)− ошибка прогнозирования.Прогнозирующая модель:yˆ(t θ) = g (ϕ 1 (t ), θ) + (C ( q −1 ) − 1)ε(t ) ,гдеC ( q −1 ) = 1 + c 1 q − 1 + … + c n q − n(2.13)– полином от оператора запаздывания q.Несмотря на тот факт, что функцияgреализуется на МНС прямого дей-ствия, прогнозирующая модель (2.13) имеет обратные связи: ошибка прогнозирования зависит от выходного сигнала МНСŷ .Для линейного слу-чая (модель ARMAX) устойчивость модели может быть установлена путеманализа корней полинома С, в случае нейросетевой реализации провестианализ устойчивости модели значительно сложнее.
Обычно устойчивостьМНС-модели является локальной: NNARMAX-модель может быть устойчива в одном рабочем режиме и неустойчива в другом, что является существенным недостатком в случае практического применения.NNARMAX2 (Neural Network – based, AutoRegressive, Moving Average,eXogenous signal, вариант 2) – нейросетевая авторегрессионная модельскользящего среднего, экзогенный тип сигналов; вариант 2.Регрессор:ϕ(t , θ) = [ y (t − 1), …, y (t − n a )u(t − n k ), … , u(t − n b − n k + 1) ,TTε(t − 1), …, ε(t − n c ) ] = ⎡⎣ϕ 1T (t ), ε(t − 1), … , ε(t − n c ) ⎤⎦ .Прогнозирующая модель:(2.14)32(2.15)yˆ(t θ) = g (ϕ(t ), θ).Данный вариант NNARMAX-модели обладает теми же преимуществамии недостатками, что и NNARMAX1.
Отличие заключается лишь в представлении скользящего среднего непосредственно нейросетевой моделью(без использования полинома С).NNSSIF(Neural Network – based, State Space Innovations form) – нейросетевая модель типа «обновлений пространства состояний».Регрессор:Tϕ(t ) = ⎡⎣ xˆ T (t | θ) u T (t ) ε T (t θ) ⎤⎦ .(2.16)Прогнозирующая модель:xˆ(t + 1 θ) = g (ϕ(t ), θ),yˆ (t θ) = C ( θ) xˆ (t θ).(2.17)Расширение модели обновления пространства состояний [9] на случайнелинейных модельных структур значительно сложнее, чем при модификации линейных входо-выходных описаний динамических систем.
Как идля случая NNARMAX-моделей, существенную роль играет проблема анализа устойчивости. Более того, значительно усложняется вопрос установления идентифицируемости. В некоторых случаях проблемы могут бытьрешены путем введения нескольких нейросетевых структур для прогнозирования отдельных частей вектора состояний.Нейросетевые модели типа NNSSIF могут рассматриваться как расширенный нелинейный фильтр Калмана [9, 58].При идентификации динамических систем помимо вышеперечисленныхбазовых моделей могут быть использованы их комбинации и модификации. На выбор конкретной модельной структуры могут влиять априорныезнания о физических принципах функционирования системы.2.2.2.Основные критерии выбора модельной структуры33При использовании НС моделей для реализации процедуры идентификации нелинейных динамических систем необходимо решить задачу выбора вектора входов НС (регрессора) и определить внутреннюю структурунейросети.Методика выбора регрессора основывается на наличии априорных знаний о системе (процессе).
Определение внутренней структуры нейросетевой модели является более сложной и неоднозначной задачей.Приведем несколько эмпирических правил, которые могут быть эффективно использованы при практической реализации.Рассмотрим регрессорϕ(t ) = [ϕ 1 … ϕ d ] = [ϕ 1 (t − 1)… ϕ 1 (t − n )… ϕ d (t − 1)… ϕ d (t − n )] , (2.18)TгдеϕiT− i -я компонента регрессора, n – «глубина» регрессии.Выбор регрессора подразумевает определение компонент регрессораϕiи глубины регрессии, т.е. количества n значений компонент регрессора впредыдущие моменты времени.
В качестве компонент регрессора обычноиспользуются те параметры системы (процесса), которые могут быть непосредственно измерены (или оценены) в режиме функционирования. Выборглубины регрессии определяется динамикой системы, поэтому при отсутствии необходимой априорной информации может быть осуществлен путем последовательного увеличения n и проверки адекватности модели.Другой способ – выбор заведомо большого значения n и проведение последующей структурной оптимизации модели.«Внешняя» структура нейросетевой модели полностью определяетсярегрессором и набором параметров, значение которых необходимо прогнозировать, т.е.