Диссертация (1149594), страница 10
Текст из файла (страница 10)
Нетрудно видеть, что минимум по , достигается при(︀)︀−1 T, = JTΩJR, ,,,откуда получаем, что() = − T Q() + T ,гдеQ() =∑︁,=1(︀)︀−1 T, R, JTΩJR, .,,58Матрица Q() зависит от , но если игнорировать эту зависимость и взятьматрицуΩ = diag( 1 , . . . , )фиксированной, то получим следующую задачу квадратичного программирования(,) = − T Q() + T → max,∑︁(3.18) = 1; ≥ 0, = 1, . . . ,.=1Решаем эту задачу итерационно до достижения сходимости, подставляя на каждой новой итерации решение, полученное на предыдущей итерации вместо .Похожая процедура предлагалась в работе [13].Отметим, что получение оптимальных значений (3.15) требует в алгоритме 3 гораздо меньше вычислительных ресурсов, чем в алгоритме 2, так какколичество опорных точек в промежуточном плане, который находится в ходеитерации, существенно меньше за счет удаления точек с нулевыми весами.Предложенный способ вычисления весов можно также применить в алгоритме 2 вместо второго шага итерации.
Вычислительные эксперименты показывают, что алгоритм 3, где на первом шаге итерации мы добавляем в множествоопорных точек все локальные максимумы функции Ψ, а на втором шаге используем описанную выше процедуру, примерно в два раза быстрее, чем модификация алгоритма 2 с тем же вторым шагом, где на первом шаге мы добавляем копорным точкам только глобальный максимум Ψ.При практической реализации предложенной процедуры для шага 2 рекомендуется проводить только первые несколько итераций и прерывать процедуру, как только будет достигнута существенная разница между значениямикритерия при начальном для шага 2 плане и плане, полученном в результате итерационного процесса. При этом общая скорость сходимости алгоритма 3существенно возрастает, однако равенство значений функции Ψ для опорныхточек вычисленного на шаге 2 плана (как указано в лемме 3) может и не достигаться.593.4.2Градиентный методТеперь рассмотрим альтернативную процедуру, представляющую из себяспециализированный градиентный метод, которым можно воспользоваться навтором шаге алгоритма 3.
Необходимо найти максимум по для функции() =∑︁,,=1∑︁[︀]︀2 ( , ) − ( ,̂︀, ) ,(3.19)=1где ̂︀, = ̂︀, () определяются в (3.15). Введем функции () =∑︁[︀]︀2, ( , ) − ( ,̂︀, ()) , = 1, . . . ,,,=1и посчитаем последовательность векторов (() )=0,1,... по следующему алгоритму. Вначале возьмем какой-нибудь вектор (0) = (например, с равными весами). Если () = ((),1 , . . .
,(), ) задан, будем производить вычисления для = 0,1, . . . по следующей схеме. Найдем индексы и , такие что = arg max (() ), = arg min (() ).1≤≤1≤≤Обозначим* = argmax0≤≤(),( () ()),(3.20)где вектор () () = ( (),1 (), . . . , (), ()) определяется как⎧⎪⎨ (), + , если = ; (), () =(), − , если = ;⎪⎩(), , иначе.Вектор (+1) на следующей итерации определяется как (+1) = () (* ). Следующая теорема показывает, что сгенерированная таким образом последовательность сходится к оптимальному значению * , доставляющему максимумфункции из (3.19).Теорема 12.
Последовательность (() )∈N сходится к * ∈ arg max ().60Доказательство теоремы можно найти в [15].Стоит отметить, что одномерная оптимизационная задача (3.20) являетсядостаточно дорогой с вычислительной точки зрения. В программной реализации этого метода мы используем линеаризацию подобно той, что была описанав параграфе 3.4.1.3.5ПримерыТеперь проиллюстрируем предлагаемые алгоритмы с помощью двух примеров.
Алгоритм 3 с двумя способами оптимизации по весам из параграфов 3.4.1и 3.4.2 был реализован в качестве пакета [17] для языка . Примеры из этогопараграфа также можно найти в пакете. В программе пользователь задает начальный план 0 , метод решения оптимизационной задачи на шаге 2, веса ,и априорную информацию о параметрах . Таблицу⎡⎤1,1 1,2 . . . 1,−1 1,⎢........
⎥P = ⎣ ....... ⎦,1 ,2 . . . ,−1 ,мы будем называть таблицей сравнения для задачи нахождения локального -оптимального плана. Эта таблица должна быть задана экспериментатором.Так как задача нахождения байесовского -оптимального плана в случае дискретных априорных распределений для параметров может быть сведена к задаче нахождения локального -оптимального плана с большим числом конкурирующих моделей и попарных сравнений, мы опишем соответствующую таблицусравнения для байесовского критерия. Для наглядности в первом примере мырассмотрим случай двух конкурирующих моделей = 2. Байесовский критерий -оптимальности в этом случае задается формулой (3.9), где априорноераспределение на Θ1 имеет носитель 1 , .
. . ,ℓ и веса 1 , . . . ℓ . Этот критерийможет быть переписан в видеP () =ℓ+1∑︁,=1,∫︁ [︁]︁2inf (, ) − (,, ) (),, ∈Θ(3.21)61где таблица сравнения задается какP = (, ),=1,...,ℓ+1⎡0⎢⎢0⎢..= ⎢⎢.⎢⎣000 ...0 ..... ... .0 ...0 ...⎤1⎥2 ⎥.. ⎥ℓ+1×ℓ+1,.⎥⎥∈R⎥0 ℓ ⎦0 000...(3.22) (, ) = 1 (, ), = 1, . . . , ℓ и ℓ+1 (,, ) = 2 (,,ℓ+1 ). Таким образом, байесовский критерий для дискретного априорного распределения предусматривает попарных сравнений вместо одного сравнения в случае локального критерия.Построение таблиц сравнения для случая дискриминации более чем двух моделей делается по аналогии.Для всех рассматриваемых в этом параграфе регрессионных моделей выполнено предположение 4. Проверка предположения 5 оказывается проблематичной.
Тем не менее в последующих примерах мы будем действовать так, какесли бы оно было также выполнено. На практике мы не столкнулись с трудностями в связи с этим допущением.3.5.1Байесовские -оптимальные планы для дискриминацииэкспоненциальных моделейРассмотрим задачу дискриминации между двумя конкурирующими экспоненциальными регрессионными моделями1 (,1 ) = 1,1 − 1,2 exp(−1,3 1,4 ),2 (,2 ) = 2,1 − 2,2 exp(−2,3 ),(3.23)где множество планирования — это интервал [0,10].
Экспоненциальные моделивида (3.23) широко используются в различных приложениях. Например, модель2 часто возникает в сельскохозяйственных исследованиях, где у нее есть специальное название (Mitscherlich growth law), при описании зависимости урожайности от количества использованного удобрения. В исследованиях в областирыболовства эта же модель носит название закона роста Берталанффи и используется при описании зависимости длины рыбы от ее возраста (смотри [33]).Оптимальные планы для экспоненциальных моделей обсуждались, например, в62работе [34]. Нетрудно показать, что -оптимальный план для дискриминациимоделей (3.23) не зависит от линейных параметров модели 1 , поэтому можновыбрать их произвольными, например, ¯1,1 = 2 и ¯1,2 = 1.
Для параметров ¯1,3и ¯1,4 были взяты независимые априорные распределения, сосредоточенные вточках( − 3) = 1, . . . ,5 ; = 3,4 ,(3.24)2где 3 = 0.8, 4 = 1.5. Веса в этих точках пропорциональны (в обоих случаях)величинам(︁ ( − 3)2 )︁1√; = 1, . . . , 5 .(3.25)exp −82 2 +Отметим, что описанные условия соответствуют 25 попарным сравнениям вбайесовском критерии (3.9). Байесовские -оптимальные планы для дискриминации моделей (3.23), имеющие эффективностьEff P () =P ()≥ 0.999,sup P ()были найдены тремя способами: 1) алгоритмом 3 со вторым шагом из § 3.4.1,2) алгоритмом 3 со вторым шагом из § 3.4.2, и 3) алгоритмом 2.
В таблице 4представлены планы, полученные первым способом, при различных значенияхпараметра 2 , а в таблице 5 — сравнительное время работы в секундах до получения плана с нужной эффективностью для всех трех алгоритмов. В качественачального плана во всех случаях был взят план, сосредоточенный в 11 точках0,1, .
. . ,10 с одинаковыми весами.Вычисления проводились на персональном компьютере с центральнымпроцессором intel core i7-4790K. Из таблицы 5 видно, что предложенные в настоящей главе алгоритмы значительно превосходят стандартный алгоритм повремени работы.Отметим, что в случае небольшой дисперсии 2 , оптимальные планы имеют четыре опорные точки, а при 2 ≥ 0.285 байесовские -оптимальные планысосредоточены в пяти точках. Графики функции Ψ из теоремы эквивалентности 6 показаны на рисунке 3.1 при разных значениях дисперсии 2 .63Таблица 4 — Байесовские -оптимальныепланы для дискриминации моделей (3.23)2Оптимальный план *20.000 0.441 1.952 10.0000.209 0.385 0.291 0.1150.000 0.452 1.877 10.0000.10.209 0.391 0.290 0.1100.000 0.455 1.811 10.0000.20.208 0.394 0.291 0.1070.000 0.453 1.758 10.0000.2850.207 0.396 0.292 0.1050.000 0.452 1.747 4.951 10.0000.30.207 0.396 0.292 0.003 0.1020.000 0.446 1.651 4.699 10.0000.40.200 0.384 0.290 0.060 0.0660.0Таблица 5 — Время работы различных алгоритмов всекундахПример 2 Алг.
3(1) Алг. 3(2)(3.23) 0.00.030.11(3.26)0.40.03721.40.097.811.60.7537.1АФ12.4218.35.7762.3Примечание — Алг. 3(1) и Алг. 3(2) — алгоритм 3 с использованием методов оптимизации по весам из параграфов 3.4.1 и 3.4.2 соответственно; АФ — алгоритм 2●●●●●Psi024680.0000.0000.0010.0020.0020.001Psi●●0.003●0.0030.00464100246x●●0.0035●10б) 2 = 0.1●●●●Psi0.00050.00050.00150.0015Psi0.00250.00250.0035а) 2 = 0●8x02468100246x●●●●●●●●PsiPsi0.00050.00050.00150.00150.00250.0035●10г) 2 = 0.2450.00250.0035в) 2 = 0.2●8x0246x8100246810xд) 2 = 0.3е) 2 = 0.4Непрерывной линией обозначен график функции Ψ(,*2 ), задаваемойформулой (3.14), пунктирной — значение функционала (*2 ), определенногов (3.5), а выколотыми точками — опорные точки -оптимального плана *2 .Рисунок 3.1 — Графики функций Ψ(,*2 ) для планов из таблицы 4653.5.2 Байесовские -оптимальные планы для дискриминациимоделей зависимости эффективности препарата от дозыНелинейные регрессионные модели также часто используются при проведении исследований зависимости эффективности препарата от дозы.
Например,для этих целей в работе [35] рассматривались следующие модели1 (, 1 ) = 1,1 + 1,2 ;2 (, 2 ) = 2,1 + 2,2 (2,3 − );3 (, 3 ) = 3,1 + 3,2 /(3,3 + );(3.26)4 (, 4 ) = 4,1 + 4,2 /(1 + exp(4,3 − )/4,4 );где множество планирования есть интервал = [0,500]. В этой работе такжеприводились априорные значения для параметров этих моделей1 = (60, 0.56),2 = (60, 7/2250, 600),3 = (60, 294, 25),4 = (49.62, 290.51, 150, 45.51).Локальный -оптимальный план для моделей (3.26) был получен в работе [13]в случае , = 1/6, (1 ≤ < ≤ 4), то есть критерий -оптимальности (3.5)предусматривает в этом случае 6 попарных сравнений моделей.Демонстрацию новых методов, предложенных в параграфе 3.4, мы начнемс вычисления того же локального -оптимального плана для дискриминациимоделей (3.26), что был представлен в работе [13]. Алгоритму 3 со вторым шагом из параграфа 3.4.1 требуется четыре итерации и 0.09 секунд для полученияплана с эффективностью ≥ 0.999.















