Л.А. Растригин - Теория и применение случайного поиска (1121205), страница 41
Текст из файла (страница 41)
1!.И боте период Т,=ЗО мин. Сравнение выходов объекта и модели по критерию незначимости отклонения Ьу' дает для расхода конвертированного газа у'~ в среднем (Ьу'~~ =97,3, а для соотношении насыщения (у'з) — !Ьу'г!.=00!2. Для метода обучавшейся модели принято в дальнейшем (Ьу'~(=!00; 1Ьуз(=-001. Рассмотрим уравнения (11.3.1), (11.3.2) с точки зрения наиболее эффективной организации поиска в пространстве параметров. Уравнение (!1.3.1) имеет соизмеримые коэффициенты прн хь поэтому приращения Ьа'и в процессе поиска могут организовываться известным способом (12, 13).
В случае уравнения (11.3.2) коэффициенты при переменных несоизмеримы между собой и по модулю резко отличаются друг от друга. Например, коэффициент а'м при х, на несколько порядков меньше, чем а'м и а'м. Для таких случаев, очевидно, и приращения Ьа' необходимо как-то связывать с абсолютной величиной коэффициентов. Поэтому в дальнейшем при корректировке коэффициентов уравнения (1!.3.2) приращения Ьа'м будем брать с некоторыми весами Х;=Х;(а'м), т. е. произведение направляющего 2?4 косинуса по координате и шага поиска а будет умножаться на величину Ль Так, если направляющие косинусы при какой-то очередной реализация единичного случайного вектора о равны р)н) рон) ° ° ° р) н) а а — есть шаг поиска, то приращения коэффициентов будут соответственно равны Ьа)'П)=Л) р)Н)а; Ьаок')=Лойп)а, ...
„Ьадп')=Лдйдн)а. Для коэффициентов уравнения (11.3.2) на основе экспериментов выбран следующий вектор весов: й = (Л), Лм Ло, Ль Ло, Ло) = (10 " ! 0 ' 1'* 1; 1О ' 10 ') При корректировке коэффициентов уравнений (!1.3.1), (!1.3.2) был применен алгоритм случайного поиска «с возвратом» !91. Так как масштабирование шагов поиска а=а(Я) затруднительно, то поиск производился при фиксированных а=0,5; 0,1; 0,01.
Функция качества о Я= — Х (у — у'), (1 !.3.3) г )е) где для уравнения (11,3.1) г) =4~ Яо) = (Ьу')1=100, для уравнения (1!.3.2) го=6, Я»о= (Ьу'о! =0,01 Корректировка коэффициентов на основе собранного статистического материала с объекта проводилась следующим образом. Проводился опрос параметров и вычисление их истинных значений. Для уравнения (11.3.1) количество опросов г, 4, для (1!.3.2) — г»---6, Прн каждом опросе как по уравнению (11.3.1), так и по (1!.3.2) проводилось вычисление текущего значения )у„— у',(. При достижении г,=4 заканчивается формирование исходного значения функции качества для первого уравнения, спустя еще два такта заканчивается формирование Яоо, для второго уравнения.
С этого момента включается блок поиска по уравнению (11.3.!). Оканчивается поиск при !",)о)~ ~100. При этом блок поиска переключается на второе уравнение и весь цикл корректиронки завершается достижением Яоо« -.=0,01. Среднее время общего поиска при разных значениях а (0,5; О,1; 0,01) равно, соответственно, 5, 3 и 7 мин.
Так как поиск строился на основе ограниченной информации об объекте, то по окончании программы поиска проводилось вычисление (-критерия для Лу, и бур па основе последующих опросов датчиков ел а"' * (Й=10). Если при этом получалась неадекватность уравнений модели и объекта, то осуществлялся новый поиск, для чего стандартная программа запускалась сначала, Средний период корректировки параметров получался равным 30 мии.
На печать выводилисгк значения коэффициентов уравнений (через каждые 10 шагов поиска), значения функции качества, общее число шагов поиска н значение критерия (1г,=2,7638 для р=! '!а и й=10). а ЮО лаз 4Ф заа ЖО О -яю Результаты проведенных экспериментов даются в графиках на рис. 11.14 — 11.18 (действительное число шагов равно 10 п).
На рис. 11.14 приведены графики изменения коэффициентов уравнения (11.3.1) в период корректировки с а=0,1 в одном из луг Риг. г!.!а. циклов поиска (звездочками обозначены начальные значения коэффициентов). Конечные значения коэффициентов помечены индексом (к). Величина 1=2,6345 (!<1„). На рис. 1!.15 для аа ' а'' даки ааа даюФ $н 4йва 4!ю аамт а а! 4ааа! (!а! Раг. !т,!7„ того же цикла поиска показан характер изменения функции качества Я в зависимости от шагов поиска (действптельное число шагов равно 10п). Рис. 11.16 показывает, как с течением времени уменьшается точность прогнозирования по однажды скорректированному уравнению (11.3.!).
Лу1 обозначает текушую разность между из- меренным в данный момент значением выхода объекта и выходом модели, полученным по регрессионному уравнению (11.3.1). На рис. 11.17, 11.18 приведены графики изменения а'м и Яз в процессе корректировки для уравнения (1!.3.2). Ф ОА взз пзг аш о - зос ОМ Рис Шз. На основе полученных результатов можно сделать ряд важных выводов. В первую очередь необходимо подчеркнуть, что применение алгоритмов случайного поиска для корректировки регрессионных соотношений требует проведения ряда подготовительных работ (например, осуществляется, в общем случае, экспериментальный подбор указанного выше вектора весов А и др.). Лучшие результаты следует ожидать в случае, когда статистика с объекта обновляется на каждом шаге поиска.
Но ввиду того, что опрос параметров требует определенного времени !м на практике приходится ограничивать число опросов. В противном случае суммарное время съема данных н самого поиска может оказаться очень большим. Как было показано выше, для уравнения (11.3.1) количество опросов з, было равно 4, а для (11.3.2) — гз=б. За время поиска параметры могут «уйтиз, поэтому приходится всегда проверять адекватность получаемой модели и объекта. Это, в свою очередь, требует также определенного времени, что в общем еще больше увеличивает время идентификации.
В то же время необходимо отметить два чрезвычайно важных преимущества алгоритмов случайного поиска, работающих в схеме корректировки моделей. Л именно, при применении их корректировку возможно проводить при малом числе замеров значений технологических параметров (г малб), т. е. при ограниченной информации об объекте, и эти замеры могут 278 сильно коррелировать ~между собой (1, мало).
Известно, что в таких условиях методы классического регрессионного анализа практически не дают удовлетворительного результата. К тому же зти алгоритмы весьма просты и легко реализуются на ЭВМ, С появлением более быстродействуюших ЭВМ следует ожидать, что роль и зффективность алгоритмов случайного поиска при решении задач идентификации объектов будут возрастать. ЛИТЕРАТУРА К главе 1 1. Расгригин Л. А. Случайный поиск в задачах оптимизации многопараметрических систем. Рига, «Зинатнс», 1965, 2, Расгригии Л, А. Статистические методы поиска.
М., «Наука», 1908. 3. Онколога Е Г. Метод т-градиента, — Автоматика и вычислительная техника, !968, 6. 4. Расгригин Л. Л,, Рипа К. К. Сопоставление методов наискорейшего спуска и случайного попскз с обучением. -- В кпг Проблемы статистической оптимизации Рига, «Знпатне», 1968. К главе 11 1. Растригин Л. Л. Случайный поиск в задачах оптимизации многопараметрических систем.
Рига, «Зинатнс». !965. 2. Расгригии «7, А. Работы по теории и применению статистических методов оптимизации в Институте электроники и вычислительной техники АН Латвийской ССР. — Автоматика и вычислительная техника„1967, 5. 3. Растригин «7. Л. Марковский и немарковский спуск при экстремальном регулировании в обстановке помех. — Изв. АН Лата.
ССР, Серии физ. п техн. наук, 1964, 1, 4, 4. Ширяев А. Н. К теории решавших функций и управлению процессом наблюдения по неполным данным, Тгапз. Згб Ргайпе Соп1. !п1опп. Тйеогу, 51а!!з1. !Уес1з!оп Гипс!!опз, !7апбош Ргосезз, Ргайпе, 1962. Ргайие, 1964. 5. 77ггриш Ш. Об алгоритме обучения с накоплением опыта в оптимальном управлении. Локл. на 1 Всесоюзном симпозиуме по статистическим проблемам в технической кибернетике.
М., !967. 6. Страгонозич Р. Л, Ценность информации в случае невозможности прямого наблюдения оцениваемой величины. — Изв, АН СССР, Техническая кибернетика, 1966, 3. 7, Растригин Л. А. Некоторые статистические алгоритмы глобального поиска — Автоматика и вычислительная техника, 1965, 10, 8. Юдин Д В. Методы количественного анализа сложных систем. — Техническая кибернетика, 1966, 1. К главе 1И 1. Ростригин Л.
А. Случайный поиск в задачах оптимизации многопарамогрических систем. Рига, «Зннатне», 1965. 2, Растригии Л. А., Рива К. К. Моделирование обучения при зкстре- 280 мальнон регулировании многопараметрических систем лгетодолг случайного поиска. — Автоматика, 1964, 5. 3 Растригин УТ. А., Рипа УС К., Сытенко УА В, Автоматические оптими. заторы, работающие по методу статистического понсна с самообучением.— В кнл Самообучающиеся автоматические системы. М., «Наука», 1966. 4. Езгез йг.
К Толчагдз а Яа1мй|са1 ТЬеогу о| Ьеагп!п8. — РзусЬо!. Кеч., !950, 57. 5. Буги Р., Могггллер дь. Стохастические модели обучаемости. М., Физмвттнз, 1962. 6. Еисг К. В. Тйе Ма!Ьеша|кз $)зей |п Ма!ЬешаИса! Рьусйо!о9у.— Ашег. МаИь Моп|Ыу, 7|, 1964, 4. 7. КегПе Р. Л Бигчеу апй С|аввИка$!оп о$!еагп1пй МойеЬ. — 1п: К.
К. Вивй, %$. К. Еьгеь (Едь). 5$ид!еь |п Ма!ЬешаИса| Ьеагп!п2 ТЬеогу. Яап1огд, 1959. 8 Еьгел )Р. А"., Вигйе С. У. А ТЬеогу о1 БИши|иь Каг(аЫП(у |п 1.еагьйпй. — РзусЬо!. Кеч., 1953, 60. 9. Езгез $«. К., Вигйе С. У. Арр!каИоп о| а ЯаИьИса! Моде| 1о 5ипр|е $!1всмш!па1юп Ьеагпйлд |п Нишап БиЬ!есЬ. — У Ехр. Рьусйо|., 1955, 50, 10. Бирргз Р„АГй|пзоп К.
С. Магйоч Ьеагп(п9 МойеЬ 1ог Ми!Ирегьоп 1п$егасйопв. Яап1огд, 1960. !1. Агй!лзоп К. С., Езгез 9". К. Яипи1ив БашрПпй ТЬеогу. — 1п: К О. Сисе, К. К. Виьй апй Е. Оа!ап(ег (Едв). Напдйоой о$ Ма|йсшаИса! Рьусйо)ойу, 2. $4. У., 1963. 12. У«И!!магд К. Лп ЛП-ог.й(опе Моде! |ог ХопсоггесИоп Кой|лез тчИЬ Ейпнпаиоп о1 1псоггес$ Кевропзев.