Диссертация (1149594), страница 3
Текст из файла (страница 3)
Для дискриминациинескольких моделей в работе [13] был предложен критерий -оптимальности,представляющий из себя взвешенную сумму из попарных квадратов разностеймежду конкурирующими моделями, где параметры одной из моделей в парефиксированы, а параметры другой подбираются по методу наименьших квадратов. Стандартным же способом компенсации локальности любого критерияявляется введение его байесовской версии, где вместо фиксированного значенияпараметров используется фиксированное априорное распределение. В § 3.2 вводится байесовский критерий -оптимальности и показывается, что он сводитсяк обычному критерию -оптимальности с большим числом попарных сравнений в случае, когда априорные распределения для параметров дискретны. В§ 3.3 сформулирована теорема эквивалентности для -критерия.
В § 3.4 предложен новый двухэтапный численный метод для нахождения -оптимальныхпланов, суть которого состоит в чередовании обновления носителя промежуточного плана и оптимизации по его весам. Далее доказывается сходимость этогоалгоритма, а также рассматриваются две процедуры для выполнения эффективной оптимизации по весам промежуточного плана.
В § 3.5 приведены примеры полученных численно байесовских -оптимальных планов с дискретнымиаприорными распределениями. Изложение в главе 3 опирается на материал изработы [15]. Алгоритмы из § 3.4 реализованы в качестве пакета [17] для языка R.В главе 4 все результаты, полученные для байесовских -оптимальныхпланов, обобщены на случай байесовских -оптимальных планов. Критерий -оптимальности предполагает гомоскедастичность и нормальную распределенность случайных ошибок наблюдения.
В [10] был предложен критерий -оптимальности, основанный на расстояниях Кульбака–Лейблера, не требующийнормальности и пригодный для дискриминации двух произвольных конкурирующих моделей для плотностей ошибок. Этот критерий и его статистическаяинтерпретация описаны в § 4.1. Байесовский критерий -оптимальности вводится в § 4.2 по аналогии с байесовским критерием -оптимальности. Соответствующая теорема эквивалентности сформулирована в § 4.3.
Численные алгоритмы из главы 3 обобщены на случай нового критерия и описаны в § 4.4.Заключительный § 4.5 посвящен численным примерам. Изложение в данной13главе опирается на материал из работы [16]. Алгоритмы, описанные в § 4.4,также реализованы в пакете [17] для языка R.Глава 5 посвящена так называемым полу-параметрическим -оптимальным планам. Рассматривается только случай дискриминации двух конкурирующих регрессионных моделей.
В работах по планированию дискриминационныхэкспериментов, как правило, исследуется ситуация, когда конкурирующие модели, определяемые парой из функции регрессии и закона распределения дляслучайных ошибок, известны с точностью до параметров. В работе [11] былпредложен полу-параметрический критерий оптимальности для планированиядискриминационных экспериментов, обобщающий критерий KL-оптимальностииз [10], суть которого заключается в том, что функции регрессии для всех конкурирующих моделей и закон распределения ошибок для одной из них считаютсяизвестными, а закон распределения для оставшейся модели получается как решение специальной задачи вариационного исчисления с ограничениями.
В § 5.1рассмотрены два варианта полу-параметрического критерия из [11], которыев данной работе обозначаются как () - и () -критерии, а также доказана теорема, упрощающая нахождение планов, оптимальных с точки зренияэтих критериев. Упрощение заключается в том, что предложенный в теоремеподход требует решения одного нелинейного уравнения на заданном интервале для вычисления расстояния Кульбака-Лейблера в критерии оптимальностивместо решения системы из двух нелинейных уравнений. В § 5.2 формулируется теорема эквивалентности для () - и () -критериев.
В § 5.3 доказаныдве теоремы, связывающие критерии () - и () -оптимальности с критерием -оптимальности. Первая теорема утверждает, что () -оптимальныепланы совпадают с -оптимальными планами в случае, когда плотность случайных ошибок первой модели является усеченной и симметричной относительноусловного среднего. Вторая теорема утверждает, что () -оптимальные планы совпадают с -оптимальными планами, если ошибки второй модели распределены нормально. Наконец, в § 5.4 приводятся численные результаты.В заключении сформулированы основные результаты работы.14Глава 1.
Постановка задачи планирования дискриминационныхэкспериментов и обзор известных результатовПервая глава является обзорной и имеет следующую структуру. Вначале обсуждается разница между задачами анализа и планирования в контекстевосстановления регрессионных зависимостей. Затем формулируются основныеположения теории оптимального планирования эксперимента и задача дискриминации регрессионных моделей, описывается связь между задачей дискриминации и задачей оценивания неизвестных параметров в случае вложенных регрессионных моделей. Далее приводятся критерий -оптимальности для плановдискриминации, его статистическая интерпретация, теорема эквивалентности,теорема о связи с задачей чебышёвской аппроксимации, численный алгоритмпостроения -оптимальных планов, а также различные обобщения критерия -оптимальности, изучению которых посвящены последующие главы работы.1.1Задачи анализа и планирования в контексте восстановлениярегрессионных зависимостейПусть зависимость результатов измерений 1 , .
. . , ∈ R от условий ихпроведения 1 , . . . , описывается следующим уравнением: = ( ,) + , ∈ , ∈ Θ, = 1, . . . ,,(1.1)где — общее число проводимых измерений, (,) — вещественнозначнаяфункция, = (1 , . . . , ) — ее неизвестные параметры, 1 , . . . , — некоррелированные случайные ошибки с нулевым математическим ожиданием и заданной дисперсией. От требования о некоррелированности случайных ошибокможно отказаться (смотри, например, [18]), но в рамках данного текста этотслучай рассматриваться не будет.Функцию (,) принято называть регрессионной моделью, а уравнение (1.1) — уравнением регрессии (смотри, например, книгу [19] с.192). Регрессионная модель называется линейной (по параметрам), если она представима ввиде(,) = (), () = [1 (), .
. . , ()] ,(1.2)15где 1 (), . . . , () есть набор вещественнозначных линейно независимых функций. В противном случае модель называется нелинейной.В этом параграфе рассматриваются две задачи, связанные с уравнением (1.1): задача анализа эмпирических данных и задача оптимального планирования эксперимента. Постановки этих задач связаны с двумя соответствующими типами прикладных исследований: наблюдательными исследованиями(observational studies), где сам исследователь никак не вмешивается в процесссбора данных и работает с уже готовой выборкой, и экспериментальными исследованиями (experimental studies), где исследователь может непосредственновлиять на процесс сбора данных посредством изменения условий проведенияэксперимента.Задача анализа эмпирических данных в контексте уравнения (1.1) состоитв построении функции регрессии по имеющейся выборке(1 , 1 ), .
. . , ( , )из совместного распределения и , то есть при определенных предположенияхо природе случайных ошибок (например, что 1 , . . . , являются нормальными случайными величинами с постоянной дисперсией) необходимо найти такуюфункцию (,) (и оценить при этом ее неизвестные параметры), которая приближала бы имеющиеся выборочные данные достаточно хорошо относительнокакого-нибудь заранее заданного критерия качества ℛ(), например, суммыквадратов разностей реальных наблюдений и предсказаний1 ∑︁1 ∑︁ℒ [ , ( ,)] =[ − ( ,)]2 ,ℛ() = =1 =1имея при этом также хорошую обобщающую способность (грубо говоря, функция, которую мы ищем, не должна быть слишком сложной). Более подробное описание этой задачи можно найти, например, в соответствующих главахкниг [20] и [21].Задача оптимального планирования эксперимента в контексте уравнения (1.1) формулируется следующим образом.
Пусть выбор точек 1 , . . . , , которые соответствуют различным условиям для проведения экспериментальныхизмерений, находится в руках исследователя-экспериментатора, заинтересован16ного в оценивании функциональной зависимости (,) между и , котораяпредполагается известной a priori с точностью до параметров . Задача планирования эксперимента состоит в том, чтобы с точки зрения некоторого заранеезаданного критерия оптимальности рационально выбрать условия для проведения измерений, то есть точки 1 , .
. . , . Так, например, объем доверительногоэллипсоида для оценок неизвестных параметров по методу наименьших квадратов в случае линейной по параметрам регрессионной модели вида (1.2) принормальных ошибках с одинаковой дисперсией является монотонно возрастающей функцией от величиныΦ(1 , . . . , ) = det{︃ ∑︁}︃−1 ( ) ( ),=1поэтому естественно выбрать 1 , . . . , таким образом, чтобы Φ(1 , . . .
, )была наименьшей (смотри, например, книгу [22], раздел 2.4, с.51). Это примерзадачи планирования эксперимента для оценивания неизвестных параметроврегрессионной модели. Отметим, что в уравнении (1.1) при такой постановкезадачи является случайной величиной, а детерминирован. Настоящая работа посвящена планированию экспериментов для дискриминации регрессионныхмоделей, о которых речь пойдет в последующих параграфах. При рациональномвыборе условий для проведения измерений можно получить результаты заданной степени точности с помощью наименьшего количества экспериментов, чтопозволяет сэкономить ресурсы. В случае дорогостоящих экспериментов выгодаможет быть весьма существенной, поэтому оптимальное планирование экспериментов представляет существенный практический интерес.1.2Планы экспериментаВ рамках задач оптимального планирования эксперимента множество обычно называют множеством планирования, а любой конечный набор1 , .
. . , элементов — планом эксперимента (смотри [23], с.45). В этом параграфе формулируются два стандартных понятия: точного плана экспериментаи приближенного плана эксперимента, которые понадобятся нам в дальнейшем.Предполагается, что в уравнении (1.1) точки 1 , . . . , не обязательно должны17быть различными. Наряду с уравнением (1.1) рассмотрим уравнение:, = ( ,) + , , = 1, . . .
, , = 1, . . . , ,(1.3)в котором ̸= при ̸= , а , ∈ N. Дискретную вероятностную меру ,задаваемую таблицей[︃]︃1 . . . =,1 . . . ∑︁ = , ∈ , = , =1(1.4)принято называть (смотри, например, книгу [23], с. 119) точным планом эксперимента (exact experimental design). Точки 1 , . . . , называются опорнымиточками плана, их совокупность — носителем плана, а 1 , .















