Л.А. Растригин - Теория и применение случайного поиска (1121205), страница 38
Текст из файла (страница 38)
Дело в том, что равенство функции качества нулю может быть достигнуто при различных комбинациях составляющих а'ь а'„..., а', вектора параметров А' модели, т. е. возможна неоднозначность получаемого результата. Такич образом, условие Я=-0 (или Я~е), где е — наперед заданная малая величина, является необходимым, но недостаточным условием получення однозначной модели объекта. Поэтому в практических случаях требуется так организовать функцию качества Я, чтобы достижение 9=0 или Я"=е было бы не только необходимым, но идостаточным условием однозначного моделирования.
Выбор исходной математической гипотезы об объекте. Из приведенного описания общей схемы метода обучающейся модели видно, что необходимым условием начала работы по этой схеме является наличие исходной гипотезы об объекте в виде некоторой математической структуры в общем виде, с произвольно выбранными коэффициентами, определяющими специфику исследуемого процесса. Выбор в виде первоначальной модели той или иной совокупности аналитических выражений зависит от степени изученности процесса и количества предварительной информации пнем.
Процесс поиска, осуществляемый при реализации метода, увеличивает полезную информацию об объекте, за счет чего появляется возможность более или менее точно скорректировать первоначально выбранную модель. Совершенно ясно, что потери на поиск и быстрота сходнмости метода, кроме прочих условий, зависят еще от того, насколько удачной и обоснованной оказывается исходная математическая гипотеза об объекте Технологические особенности большинства сложных систеч позволяют обычно использовать для построения алгоритма управления статистическую оптимизацию.
В этом случае исходная математическая структура может быть представлена системой обычных регрессионных уравнений с коэффициентами, подлежащими корректировке с помощью метода обучающейся модели. При непрерывной идентификации объекта в определенных узких интерзалах рабочего режима представляется возможным использование идей кусочно-линейной аппроксимации характерис- тик. В данной работе эти идеи положены в основу выбора исходных гипотез об объекте. Мы ограничиваемся лишь линейными представлениями зависимостей.
Случайный поиск. Как известно, сущность идеи случайного поиска заключается в следующем. В пространстве оптимизируемых параметров из какого-то исходного состояния система делает случайный шаг. Если этот шаг не приводит к успеху (к уменьшению функции качества), то происходит возврат в исходное положение. При уменьшении же функции О состояние, в которое пришла система при случайном шаге, принимается за исходное и из него делается новый случайный шаг и т. д. Каждое состояние, в котором оказывается система при случайном блуждании, порождает определенное значение функции качества, и, естественно, множество таких состояний дает на выходе системы некоторое множество функций качества Щ.
Очевидно, что задачей многопараметрической оптимизации в этом случае является выделение такого подмножества Я~~ев ЯГ, которое соответствует выполнению некоторых требований, предъявляемых к оптимизируемой системе. Например, к этому подмножеству можно отнести все те значения функции качества, которые меньше заданного значения или равны нулю. Управление при случайном поиске, таким ооразом, заключается в наблюдении значений Я и, в зависимости от последних, в случайном изменении вектора оптимизируемых параметров, от которых зависит состояние системы.
Поиск обычно прекращается при достижении требуемого состояния системы. Показано ~5], что такое управление будет стремиться поддерживать систему в требуемом состоянии, независимо от внешних и внутренних факторов, выводящих систему из этого состояния. Единственным условием при этом является требование одинаковой мощности множеств Я) и (Я"~.
Это необходимо для того, чтобы вероятность появления Я* на выходе системы была бы конечной. Случайный поиск, по сути дела, копирует поведение природы, которая ищет и находит решения не детермированно, а случайно, выбирая н сохраняя лишь те случайные варианты, которые наиболее приспособлены к окружающей среде. Преимущества и недостатки метода случайного поиска, по сравнению с регулярными методами, достаточно полно исследованы в литературе [5, 6~.
Основное достоинство метода заклю- 11 57 257 чается в элементе случайности, вводимом при поиске. Это позволяет вести систему в лучшем направлении, минуя «скользящие» режимы. к которым часто приводят регулярные методы поиска. Кроме того, случайный поиск не может попасть в «ловушку» в силу элемента случайности, который выводит систему из затруднительных положений прп наличии. естественно, такого выхода.
Примером распространенной ловушки является «хребет» для метода Гаусса — Зайделя и «седло» вЂ” для градиентного метода Я. Рассмотрим некоторые из шатовых алгоритмов случайного поиска, которые используются в данной главе. а) Поиск «с возвратом». Так называется алгоритм случайного поиска, при котором характерно возвратное движение прп увеличении функции качества. Рекуррентиая формула для смещения (!+1)-м шаге выглядит следующим образом: А,+,-А г+ЛА г+ь где вектор смещения иБ, если Я(А',) «Я(А'; ~); ЛА";+~ =... (11.1.6) — ЬА'ь если Я(А';) = 9(А';,).
Здесь Š— единичный счучайный вектор, равномерно распределенный во всех направлениях и-мерного пространства параметров; и — величина шага в пространстве. Этот алгоритм обычно используется для оптимизации «блуждающих» объектов, когда функция качества изменяется во времени. б) Поиск с пересчетом. Этот алгоритм поиска применяется для оптимизации систем с практически не изменяющейся функцией качества. Рекуррентная формула для смещения на 0+1)-и шаге имеет вид аЕ, если Я(А';) «..Я'; и ! — ЛА';+аЯ, если Я(А';))Я«; ь где Я =пип Я(А';) — минимальное значение функции качества за предыдущие ! шагов поиска.
258 При сравнении алгоритмов поиска обычно вводится понятие «потери на поиск», под которым подразумевается среднее число шагов, необходимое для смещения вдоль градиента функции качества Я на длину шага поиска. Остановимся на одном практически важном моменте. Величина шага а в пространстве оптимизируемых параметров определяет два показателя процесса случайного поиска. Один из них — средняя скорость минимизации функции качества, а второй — точность решения задачи минимизации. Естественно, что одновременно обеопечить высокую скорость минимизации и ее хорошую точность практически невозможно.
Поэтому приходится принимать компромиссное решение, выбирая некоторое значение а, которое является в известном смысле наилучшим. По-видимому, вдали от цели поиск надо вести при большом значении а, а с приближением к окрестности цели шаг нео>- ходимо измельчать, чтобы ооеспечить удовлетворительную точность.
К сожалению, в настоящее время еще нет разработанной единой процедуры масштабирования шагов поиска. Один и~ возможных вариантов масштабирования шагов в схемах обучающейся модели приводится ниже. Масштабирование шагов поиска. Введем пару чисел (аь Я;): гм — шаг поиска; 9; — исходное значение функции качества, начиная с которого величина шага устанавливается равной а;. Изменение и; в зависимости от 9 проводится так: при достиже- 1 нип значения Я;„, = — Я; шаг и, делится пополам,т. е. получается 2 1 (а;+ь Ясм), где а, ~ — — —,а„' с шагом псы поиск идет до тех пор, „1 пока Я;+з не будет равной —, О;ы, при этом выбирается новый 2 1 шаг а,+э=,— псы и т. д. 2 Следует заметить, что при поиске на паре (аь 9г) могу~ получаться значения Я>Яь Но обычно случайный поиск отбрасывает такие состояния и выбирает так называемые благоприятные направления, приводящие к уменьшению функции качества, т.
е. указанная процедура измельчения шага поиска осуществляется в пространстве благоприятных направлений. и. Для окончания поиска дополнительно устанавливается контрольное число случайных шагов К „. Поиск останавливаетсч в двух случаях: 1) получено О-=е и 2) при конечном масштабе поиска проведено К=К „ шагов. Таким образом, поиск осушествляется на интервале двух граничных значений шага (ао, а м), где а» соответствует началу поиска, а„ь, — его окончанию.