Радиоэлектронные системы Основы построения и теория. Справочник . Под ред. Я.Д. Ширмана (2007) (1151789), страница 101
Текст из файла (страница 101)
Скалярные составляющие /с, вектора к удобно выбирать так, чтобы все они возрастали или убывали с повышением качества РЭС. В последнем случае говорят о векторе 216 несовершенства (ввктаре стакиастей потерь, векторе ущерба, векторе риска) РЭС г = [~ г, [~. 14.2.2. Критерии приемлемости и предпочтения Используются при: > инженерной оптимизации реальных РЭС; > теоретической оптимизации математических моделей РЭС и моделей их элементов [6.36].
Критерии приемлемости. Эти критерии устанавливают границу между приемлемыми и неприемлемыми векторами качества (несовершенства). Они имеют вид ,1(г) = 7(г1,гз,...,г~) < О, (14.1) где 1(г) — неубывающая функция своих скалярных ар- гументов гь При независимом влиянии аргументов г, на функцию 1'(г), выражение (14.1) переходит в систему нера- венств г! < ~~ дол (! = 1, 2,..., т), (14.2) в которых б д „ — допустимое значение ~'-го показателя несовершенства (потерь). Критерии предпочтения. Эти критерии рассчитаны на отсеивание худших из приемлемых вариантов систем и на выбор лучшего в некотором смысле варианта.
Выделяют безусловный и условные критерии предпочтения. Безусловный критерий предпочтения. Рассчитан на выбор варианта системы, для которого все показатели не хуже, чем у конкурирующих вариантов, а один или несколько показателей лучше. Часто подобным критерием не удается воспользоваться, поскольку варианты РЭС имеют преимущества по разным показателям. Тогда, отбрасывая множество явно худших вариантов, рассматривают только не худшие варианты. Для сравнения же не худших вариантов вводят условные критерии предпочтения. Условные критерии предпочтения. Усчавиео является выбор некоторых результирующих скалярных показателей качества <р(к) нли несовершенства чг(г), где функции д(к) и у(г), увязывают требования к различным составляющим векторов к и г компромиссно.
Оптимизация состоит в нахождении таких значений векторов кот или тот, что ~р(йопт) д Е(1с) или Л~(гопт) < Мг). (14.3) Многокритериальная задача оптимизации сводится при этом к аднакритериальнай, что упрощает ее решение. Элемент произвола в выборе функций д(К) и у(г) свидетельствует об условности всех критериев вида (14.3). Линейяые функции предпочтения (линейные целевые функции выигрыша или потерь).
Целевая функция потерь имеет вид Ц4(г) = 4)~г (14.4) и подлежит минимизации. Здесь д = !!4ь1! — вектор весовых коэффициентов. Размерность коэффициента 4 обратна размерности показателя г; Переход к ведущему показателю за счет выбора функции предпочтении. Выбор ведущего показателя 1 = 1 проводится по его максимуму (минимуму) при выполнении условий (14.3) для других показателей ) = = 2, 3, ..., т и нх независимости. 14.2.4.
Понятия нечеткого множества и нечеткой логики Совокупности объектов произвольного вида называют чвткичи 44нажествами, если свойства объектов, по которым они сгруппированьц определены однозначно, и нечеткими множествами в противном случае. Хорошо разработанная теория четких множеств оперирует с такими категориями, как подмножества, мощности множеств, операции над множествами и т,д.
Развита система четкой математической логики. За последнее сорокалетие наряду с этим развиваются теории нечетких множеств и нечеткой логики. В системотехнике они вызывают интерес. Это связано с тем, что исходные данные и параметры критериев предпочтения систем задаются нечеткими множествами. Оставляя в стороне подлежащие дискуссии детали, подход нечеткой логики обычно заменяют статистическим подходом. Без какого-либо учета же априорных неопределенностей проектировать системы нельзя. Особый интерес к этим вопросам проявляется в связи с проблемами вычислительного интеллекта (см.
разд. 5.7), распознавания образов, экспертных оценок и адаптации к помехам. 14.2.б. Инженерные и математические методы оптимиэгции Эти методы взаимосвязаны, переплетаются, но в ряде случаев не совпадают. Инженерные методы оптимизации. Рассчитаны на многокритериальную оптимизацию в условиях нечетких множеств исходных данных и критериев предпочтения. Используются применительно к блокам векторов качества (несовершенства). Сопоставляя варианты технических решений, широко применяют таблицы и так называемые диаграммы обмена [6.36) преимуществ в одних показателях на преимущества в других при фиксации части показателей. Расчетные методы анализа дополняются эвристическими. В связи с компьютеризацией изучается применение экспертных систем (см.
разд. 5.7) и нейрокомпьютерной (нейрасетевай) аптичиэации [6.87, 6.92] инженерных решений. Математические методы оптимизации. Строятся обычно в предположении четких множеств исходных данных и параметров, входящих в критерии предпочтения. Охватьааются термином исследование операций, связанным с развитием этой теории в период второй мировой войны. При решении инженерных задач математические методы используют, внося эвристические поправки на отсутствие теоретического учета или неполный учет отдельных факторов, что отражено в последующих разделах Справочника. 14.3. Экстремумы скалярных функций в отсутствие ограничений 14.3.1.
Экстремумы функций одной скалярной переменной Чтобы дифференцируемая функция г(а) имела в точке а локальный экстречуч, необходимо, чтобы в этой точке обращался в нуль дифференциал указанной функции (14.5) 44г(а) =(дг(а)Ыа) Ыа = О, а значит, и ее производная дг(а)Ыа. Характер экстремумов функции (рис. 14.1) определяется ее трехчленным разложением в ряд Тейлора, справедливым в окрестности точки а, г(а) = г(а)+ [4(г(а) ! йа)(а -а) + «-[4! г(а)/4!а )(а-а) )2. (!4.5) При условии д г(а1))Ыа >Овточке а! имеетместо локальный миничум. При условии 41~г(ч,))4!а <О в точке аз имеет место локальный чаксичум (на рис. 14.1).
Эти условия вместе с условием й.(а! 1))4(а = Π— необхо- димые и достаточные условия указанных экстремумов. В данном случае локальный минимум является одновременно глоба эьныч .чиничУ- О а а — — а .чом, что нельзя сказать о локальном максимуме. Если же в точке а4 вв(а«)!4(а=О, 41 г(а4)/с1а =О, она является точкой перегиба. 14.3.2. Необходимое условие локального экстремума функции двух скглярных переменных Необходимое условие локального экстремума функции двух скалярных переменных состоит в том, что дифференциал функции г(а,и) в точке экстремума а,й равен нулю: 4!г(а, и) = [4)г ! Ыа) Ыа + [дг ) 47изу7и = О. Дифференциалы Ыа, ди в общем случае независимы, отсюда следует, что в тачках экстремума а, й у частные производные 41г)41а и дг)ди должны равняться нулю.
При выполнении этих условий наряду с точками максимума, минимума возможно наличие точек О перегиба, а также специ- а фических для двумерного а случая седлавых точек (рис. 14.2). Иначе, приведеннь4е условия оптимизации являются необходимыми, но не достаточными, что требует внимания к вопросам исключения ложных решений.
217 14.3.3. Необходимое условие локального экстремума функции векторной переменной Пусть и скалярных переменных образуют век«ар а = ><а>, аь ..., <Ц'. Необходимое условие экстремума функции г(а) состоит в том, чтобы в точке а дг!да< > =О, /=1,2, ...,и. (!4.6) Если ввести градиент скалярной функции г(а) (ее производную по вектору, разд. 27.7), совокупность скалярных выражений (14.6) можно заменить векторным выражением 8га<1г = Й ! Йа = ))дг ! да< > ~~ = О.
(14.7) 14.3.4. Численные методы нахождения безусловных экстремумов Безусловными экстремумами, в отличие от условных, называются экстремумы функций, определяемые без задания каких либо дополнительных условий. К численным методам нх отыскания принадлежат метод Ньютона, градиентный .иетад и их видоизменения. Интенсивно развиваются методы случайного поиска, в том числе «генетические» (см. разд. 25). Метод Ньютона длн функций скалирного аргумента. Основывается на разложении функции «(а) в ряд Тейлора (14.5) с удержанием квадратичных членов в окрестности точки аь близкой к экстремуму для определенности полагаем — к минимуму, Й(ал) 1 Й «(а/с) 2 г(а) =г(ал)+ (а-ал)+ — (а-ал) Йа 2 < 2 Дифференцируя (14.5) по скалярному параметру а, заменяя после этого а =ак+>, а а =аз, находят Йг(а г, > ) ) Йа = Й (ал) ) Йа + !Й г(ал) ) Йа)(ал, > — а> ) . Исходя из условий минимума Йг(ая«1)! Йа = О при Й «(ал«> ) /Йа > О, отсюда определяют значение 2 2 .2 2)-1 а2~1 =а>,— к< г(ак))Йа > (Й<аь)IЙа).
Если трехчленное разложение соблюдается точно, а вычисления прецизионны, минимизация обеспечивается всего за один шаг. В общем же случае необходима многошаговая (итерационная) процедура. Метод Ньютона дли функций векторного аргумента. Функция г(а) является в данном случае функцией многих скалярных переменных. Алгоритм минимизации приобретает вид ал»>»ал — к< г(ал)!Йа 1 !Й«(ал)!Йа]. 12 2~< Первая производная функции г(а) по вектору а Йг(ал)/Йа = 8<ай«(ал) является вектором-градиентом (14.7), состоящим из частных производных от составляющих вектора г(а).