Диссертация (785777), страница 18
Текст из файла (страница 18)
Практически неограниченная гибкость получаемого комплексамоделей обеспечивается открытостью классов отображений-примитивов, доступностью ихдля корректировки и пополнения.4. Сетевой подход к моделированию (как НС-подход, так и ФС-подход) обеспечивает, какотмечалось, возможность унификации математических и компьютерных моделей, требуемыхв процессах создания и эксплуатации технических систем.Характерная особенность СМ-подхода заключается в том, что акцент в нем делается наформулирование и итерационную корректировку комплекса требований к формируемой СМ.Вследствие этого, радикально меняется процесс создания систем, в первую очередь, программных. Место традиционного программирования, как процесса реализации алгоритмовпри создании моделей и систем, занимают процессы «выращивания» и «воспитания» СМ.Процесс формирования сетевой модели при таком подходе состоит из следующих этапов:1. Сформулировать комплекс требований, условий, ограничений, описывающих проблему(синтезируемую модель или систему, цели и условия ее функционирования).2.
Взять некую исходную «протосистему» (она может изменяться далее, в процессе эволюции, как угодно, в том числе может как расти, так и сокращаться).3. Запускается процесс эволюционного (синергетического, . . . ) синтеза СМ, при этом никакого программирования «внутренностей» модели (системы) нет.4. Если требуемый результат получить не удалось, надо проанализировать комплекс требований, провести его корректировку, после чего повторить процесс синтеза.935. Перечислим характерные особенности и свойства полученного семейства моделей.
Аименно, характерные особенности введенного семейства моделей состоят в следующем:модель ДС трактуется как разложение по некоторому функциональному базису, семейство моделей — как параметризованное разложение по функциональному базису;используемый функциональный базис является многоуровневым структурированным;используемый базис является настраиваемым;порождаемое данным базисом семейство моделей может относиться как к классу функциональных сетей (ФС), так и к классу нейронных сетей (НС).Если поставить вопрос о том, что дает введенное семейство моделей, то ответы на негоможно сформулировать следующим образом. Данное семейство моделей обеспечивает:возможность строить сетевые модели (как ФС, так и НС) произвольной сложности;очень высокий уровень гибкости (настраиваемости) моделей;возможность получения для сетевых моделей высокоэффективных алгоритмов обучения(структурной корректировки и параметрической настройки);приспособленность моделей к введению в них механизмов адаптации (в том числе и сиспользованием вставочных нейронов и вставочных подсетей);высокое быстродействие моделей, основанное на их хорошей распараллеливаемости;приспособленность моделей к реализации процессов их автоматизированного синтеза.2.3 Формирование обучающих наборов для НС-моделирования динамическихсистем2.3.1 Специфика формирования обучающих наборов для НС-моделированиядинамических системПолучение обучающего набора, обладающего требуемым уровнем информативности, является критически важным этапом решения задачи формирования НС-модели.
Если какието особенности динамики (поведения) ДС не нашли отражения в обучающем наборе, тоони, соответственно, не будут воспроизводиться моделью. В одном из фундаментальных руководств по идентификации систем это положение сформулировано как Основное правилоидентификации: «Нельзя идентифицировать то, чего нет в данных» (The basic rule of systemidentification: “If it is not in the data, it can not be identified.”(см. [116], с. 85).94Обучающий набор данных, требуемый для формирования НС-модели ДС, должен бытьинформативным (репрезентативным).
Будем пока считать, что обучающий набор обладаетинформативностью, если содержащихся в нем данных достаточно для получения НС-модели,которая с требуемым уровнем точности воспроизводит поведение ДС на всей области возможных значений для величин и их производных, характеризующих это поведение. Для обеспечения выполнения этого условия при формировании обучающего набора требуется получитьданные не только об изменении величин, но также и о скорости их изменения, т. е. можносчитать, что обучающий набор обладает требуемой информативностью, если полученная сего использованием НС-модель воспроизводит поведение ДС не только на всей области изменений значений величин, характеризующих поведение ДС, но и их производных (а такжевсех допустимых сочетаний как величин, так и их производных).Такое интуитивное понимание информативности обучающего набора в дальнейшем будетуточнено.2.3.2 Прямой подход к формированию обучающих наборов для НС-моделированиядинамических систем2.3.2.1 Общая характеристика прямого подхода к формированию обучающихнаборовУточним понятие информативности обучающего набора, а также оценим его потребныйобъем для обеспечения необходимого уровня информативности.
Вначале выполним эти действия в рамках прямого подхода к решению проблемы формирования обучающего набора, вследующем разделе будет выполнено распространение этого понятия на непрямой подход.Рассмотрим управляемую динамическую систему видаx_ = F (x; u; t);(2.18)где x = (x1 ; x2 ; : : : ; xn ) — переменные состояния, u = (u1 ; u2 ; : : : ; um ) — переменные управле-t 2 T = [t0 ; tf ℄ — время.Величины x1 ; x2 ; : : : ; xn и u1 ; u2 ; : : : ; um , взятые в конкретный момент времени tkния,2Tхарактеризуют, соответственно, состояние ДС и управляющие воздействия на нее в данный95момент времени.
Каждая из этих величин принимает значения из соответствующей области:x1 (tk ) 2 X1 R; : : : ; xn (tk ) 2 Xn R;(2.19)u1 (tk ) 2 U1 R; : : : ; un(tk ) 2 Um RКроме того, существуют, как правило, ограничения на значения комбинаций этих величинx =hx1 ; : : : ; xn i 2 RX X1 Xn ;u =hu1 ; : : : ; umi 2 RU(2.20) U1 Un;а также на сочетания этих комбинацийhx; ui 2 RXU RX RU :(2.21)Пример, входящий в обучающий набор, должен показывать реакцию ДС на некоторуюкомбинациюhx; ui. Под реакцией такого рода будем понимать состояние x(tk+1), в котороеДС (2.18) перейдет из состоянияx(tk ) при значении u(tk ) управляющего воздействия:hx(tk ); u(tk )iF (x;u;t)! x(tk+1 ):(2.22)Соответственно, пример p из обучающего набора P будет включать две части — входную (этопараhx(tk ); u(tk )i) и выходную (это реакция ДС x(tk+1 )).2.3.2.2 Информативность обучающего набораОбучающий набор должен (в идеальном варианте) показывать реакции ДС на любые комбинацииhx; ui, удовлетворяющие условию (2.21).
Тогда, согласно Основному правилу иден-тификации (см. с. 94), обучающий набор будет информативным, т. е. позволяющим воспроизвести в модели всю специфику поведения моделируемой ДС 32 .Уточним это положение. Введем обозначениеpi = fhx(i) (tk ); u(i) (tk )i; x(i) (tk+1 )g;где pi2Pпредставляет собой i-й пример из задачника (обучающего набора)(2.23)P , в этомпримереx(i) (tk ) = (x(1i) (tk ); : : : ; xn(i) (tk ));u(i) (tk ) = (u(1i) (tk ); : : : ; u(mi) (tk ));32(2.24)Следует отметить, что наличие информативного обучающего набора обеспечивает потенциальную воз-можность получения модели, которая будет адекватной моделируемой ДС.
Однако этой потенциальной возможностью надо еще суметь воспользоваться, что составляет отдельную нетривиальную проблему, успешноерешение которой зависит от выбранного класса моделей и алгоритмов обучения.96Реакция рассматриваемой ДС x(i) (tk+1 ) на пример pi :x(i) (tk+1 ) = (x1(i) (tk+1 ); : : : ; x(ni) (tk+1 )):Аналогичным образом введем еще один пример pj(2.25)2 P:pj = fhx(j ) (tk ); u(j ) (tk )i; x(j ) (tk+1 )g:(2.26)Исходные данные примеров pi и pj будем считать несовпадающими, т.
е.x(i) (tk ) 6= x(j ) (tk ); u(i) (tk ) 6= u(j ) (tk ):В общем случае будут не совпадать и реакции ДС на исходные данные из этих примеров:x(i) (tk+1 ) 6= x(j ) (tk+1 ):Введем понятие "-близости для пары примеров pi и pj . А именно, будем считать примерыpi и pj "-близкими, если выполняется условие:kx(i) (tk+1) x(j) (tk+1)k 6 ";(2.27)где " > 0 — наперед заданное действительное число.P = fpigNi=1p подмножество, состоящее из таких примеров ps , для которых выполнено условие "-близости по отношению к примеру ps , т. е.Выделим из множества примеровkx(i) (tk+1) x(j) (tk+1)k 6 "; 8s 2 Is I:(2.28)Здесь Is — множество индексов (номеров) тех примеров, для которых выполняется условие"-близости по отношению к примеру ps , при этом Is I = f1; : : : ; Npg.Пример pi назовем "-представителем33 всей совокупности примеров ps , 8s 2 Is , т. е.
длялюбого примера ps ; s 2 Is выполняется условие "-близости. Соответственно, можно теперьзаменить совокупность примеров fps g; s 2 Is единственным "-представителем pi , причемпогрешность, вносимая такой заменой, не будет превышать ". Входные части совокупности(s)примеров fps g; s 2 Is выделяют подобласть RXU ; s 2 Is в области RXU , определяемойсоотношением (2.21), при этомNp[s=133Пример pi входит в набор примеров(s) = R :RXUXUfps g; s 2 Is .97(2.29)Теперь можно поставить задачу формирования обучающего набора как такой совокупности "-представителей, которая покрывает областьhx; ui.RXU (2.21) всех возможных значений парСоотношение (2.29) представляет собой условие "-покрытия обучающим набором P области RXU .