И.В. Бейко, Б.Н. Бублик, П.Н. Зинько - Методы оптимизации и алгоритмы. Решения задач оптимизации (1121207), страница 5
Текст из файла (страница 5)
Невыпуклые и многоэкстремальные задачи, а также задачи дискретной оптимизации (с дискретным илн частично дискретным множеством Х) являются наиболее трудными и до настоящего времени еще не найдены эффективные алгоритмы их решения (за нсКлючением частных случаев). Весьма трудными являются и задачи оптимизации при неполных данных.
Действительно, если значение параметра неопределенности р ~ Р неизвестно до момента выбора решения х, то оптимальным решением «надо было бы назвать» тот элемент х', который для всех возможных р ~ Р н х Е Х удовлетворяет неравенствам ~(х', р)(1(х, р). (з,з) Но это чрезмерно нереалиотичное требование — тахир х« обычно не оуществует. Воли же значение параметра р извесвт1»(о перед выбором элемента х, то оптимальнымрешением х' я яется любой элемент кр (р) из множества Агй ш(п1(х, р), к«Х0» <р(р) ЕАгя ппп1(х, р).
(0.4) «ЕХ0» Задачу отыскания функции ~р из условия (0.4) называют задачей параметрической оптимизации. Так как в задаче оптимизации при неполных данных р ие определено до момента выбора решения х«, то часто, особенно в экономических исследованиях, неопределенные параметры заменяют некоторыми средними значениями р, р = ) рйр/~йр, и в качестве х» Р Р выбирают % (Р). Более объективный учет неопределенности можно осуществить в задаче стохастической оптимизации: найти элемент х*, минимизирующий функцша 1,(х) а ) 1(х,, )й (р) на множестве (О 0) Х,= (х(Р(хЕХ(р)) ~1 — з).
Здесь Р (А) — вероятность события А, е ~ (О, !). В теории стохастической оптимизации построены численные алгоритмы отыскания х* также и для тех особенно трудных и важных в приложениях случаев, когда мера р неизвестна, а имеется лишь возможность наблюдать реализации р непосредственно в процессе реализации алгоритма. Такого рода алгоритмы адаптивной оптимизации «в реальном масштабе времени» находят все более широкое применение.
Однако ориентация на «среднее» не всегда эффективна и может в процессах управления приводить к ошибочным рекомендациям и решениям. Поэтому иа практике иногда отыскивают предельные решения: «оптимистическое» х,' = агй пнп ш(п1(х, р); (0.8) «ЕХ рЕР и «пессимистическое» х'„= агд ш(п шах 1(х, р). «Ех РЕР Первое решение х, рассчитано на тот благоприятный случай, когда неопределенный параметр р примет значение р, равное р,' = агйппп1(х,", р) (0.7) РЕР и этим обеспечит наилучшее возможное значение 1(х„р,), удовлетворяющее неравенству ЧхЕХ ч'РЕР 1(х,", р,')(1(х, р). (0.8) Достоинством пессимистического решения х„является наличие гарантии — какое бы значение р ие принял параметр р, полученное реальноЕ значение Г (х., р) всегда будет не больше числа Р = Г(х„', агдшах~(х'„, Р)), »9' т.
е. Ч р Е Р; 1 (х,", р) » ~Р. (0.9) В этой связи решение х, называют еще гарантирующим решением, или минимакеным решением (по виду определяющей формулы (0.6)), а задачу (0.6) называют задачей минимаксной оптимизации. На другое важное свойство гарантирующего решения указывает предложение 1. Предлолеение1. Если х не является гарантирующим решением, то найдется такое р Е Р, что )(х, р))~(х„, р). (олз) Поэтому при малых значениях Р гарантирующее решение имеет практическое значение и часто находит применение. В остальных случаях приходится либо идти на риск, либо уточнять постановку задачи с целью уменьшения множества неопределенности Р.
Возможности уменьшения неопределенности р для повышения эффективности принимаемых решений изучает также теория конфликта и коллективных решений, которая основана на предположении, что значение параметра р выбирает некоторый «заинтересованный участник конфликта (второй игрок)», стремящийся минимизировать «свою целевую функцию» 7» (х, р*). Здесь и возникает ряд новых конкретных постановок задач оптимизации в зависимости от «порядка ходов», разнообразия возможностей взаимной информированности сторон как о множествах Х, Р, так и о целевых функциях Г, 1».
Полагают, что «второй игрок делает первый ход», если значение р выбирается раньше, чем значение х. Аналогично — <первый игрок делает первый ход», если значение х выбирается раньше значения р. Заметим, что раз~.ообразие практических задач управления служит неисчерпаемым источником разнообразных конкретных задач оптимизации в конфликтных ситуациях (33, 69, 71, 50, 201, 206, 260). Так, если в случае полной взаимной информированности о функциях 1, 1» и о множествах Х, Р первый ход делает второй игрок и, следовательно, становится известным его выбор р, то мы оказываемся в условиях полной информированности и поэтому можем воспользоваться решением задачи параметрической оптимизации (0.4), сформулированной выше, т.
е. оптимальным решением будет х* с <г (р). Но ведь и второй игрок тоже может решить задачу (0.4) и отыскать «наше» «р. Это позволит ему заблаговременно вычислить значение(» (в (р), р) для каждого значения р, а затем выбрать свое наилучшее значение Р'ЕАгдш1пшах~»(х, р) а Р. »ег «е««м Если и мы проделаем такие же вычисления, то также найдем это «более узкое» множество неопределенности Р с: Р. А в случае единственных значений Ч~ и р«целевая функция ) примет значение ((у (Р*), Р*) заведомо лучшее, чем гарантированное значение Р, т. е. ) (д (р*), р») ( Р (и только в редких случаях это неравенство превратится в равенство).
Заметим, что теория оптимизации в конфликтных ситуациях изучает способы отыскания «лучших», чем Г (Ч~ (р*), р'), решений. Так, если «навязать» решение х = у (р) в ответ на выбор р, то, как и выше, найдем «более узкое» множество неопределенности Р(«») ААгдш1птах~»(х, р), »е» «емм зависящее от «». Это позволит найти и «оптимальное» ~р», удовлетворяющее условию <р» р Агу пп'п шах г («р (р), р). й»Е»(Ю Важный класс задач оптимизации при неполных данных составляют задачи многоэтапной оптимизации (задачи коррекции), возникающие в тех случаях, когда имеется возможность перенести на более поздние сроки выбор той или иной части искомого решения х. Например, задача двухэтапной оптимизации возникает при появлении возможности отложить на более поздний срок выбор некоторой определенной части х, искомого решения х = (х„х,) р Х, т.
е. сперва выбираем х» (1-й этап), а выбор х, (2-й этап) из Х (х,) (сечение множества Х по выбранному х,) можем отложить до момента, когда станет известной некоторая дополнительная информация о множестве неопределенности Р (х) (т. е. вместо первоначального Р (х) станет известно некоторое «более узкое» множество Р, (х) ~ с: Р (х)). Тогда целесообразно выбрать х, на первом этапе как оптимальное решение х~ для следующей вспомогательной задачи оптимизации при неполных данных: минимизировать по х, функцию ) (х„р„р) с неопределенным параметром (Р„р) Е Р, (х,) Х :с Р (х„Х (х,)), где Р, (х,) — множество решений х» ~ Х (х,) задачи минимизации по х, функции ) (х„х» р) с заданными х, и неопределенным параметром р ~ Р (х). Другая модификация задачи двухэтапной оптимизации возникает в тех случаях, когда функцию полезности ~ (х„х,, р) выбирают таким образом, чтобы учесть издержки как на получение дополнительной информации о множестве Р (х), так и связанные с отстрочкой выбора х,.
3 О ааяачал ввогоцелеаого Звраалевал (о.а) „, Если для данной практической задачи построить математическую модель ~о 1 = О, 1, ..., и, дающую надежный прогноз ~, (х) величинам у, при выборе тех или иных возможных действий х Е ~ Х, то эту задачу можно переформулировать как задачу отыскания среди элементов х из множества Х того элемента х*, которыя удовлетворяет условиям 'ч х с Х ~, (хе) ~< ~, (х), 0 ~ (1 ~< т; (о.щ Ч х ч Х 7, (х") ~ >~, (х), т <1< и; (з. иц ~, (хе) =* О, й < 1< з; (о.из) 7, (х*) < ао з < 1 < и.
(о.а) К сожалению, такая задача оказывается бессодержательной, так как решения х*, удовлетворяющего противоречивым условиям (0.14) — (0.17), обычно не существует (и тем не менее иногда вотречаются подобные формулировки цели в виде «максимизировать блага (например, выпуск продукции) при минимальных затратах»). Для того чтобы «довести» задачу многоцелевого управления до содержательной математической задачи оптимизации можно оставить некоторое наиболее важное среди неравенств (0.14) — (0.15), а остальные привести к виду (0.17) с помощью вспомогательных констант до ( < й.