Обработка результатов учебного эксперимента (1188441), страница 10
Текст из файла (страница 10)
ниже), реализующийся при нормальном(гауссовом) распределении ошибок.Замечание. Простые аналитические выражения для оценки методом хиквадрат существуют (см. п. 4.6.1, 4.6.3) только в случае линейной зависимости () = + (нелинейную зависимость часто можно заменой переменныхсвести к линейной). В общем случае задача поиска минимума 2 () решается численно, а соответствующая процедура реализована в большинствеспециализированных программных пакетов по обработке данных.4.2. Метод максимального правдоподобия.Рассмотрим кратко один из наиболее общих методов оценки параметровзависимостей — метод максимума правдоподобия.Сделаем два ключевых предположения:∙ зависимость между измеряемыми величинами действительно можетбыть описана функцией = ( | ) при некотором ;∙ все отклонения ∆ результатов измерений от теоретической моделиявляются независимыми и имеют случайный (не систематический!)характер.42Пусть (∆ ) — вероятность обнаружить отклонение ∆ при фиксированных { }, погрешностях { } и параметрах модели .
Построим функцию, равную вероятности обнаружить весь набор отклонений {∆1 , . . . ,∆ }.Ввиду независимости измерений она равна произведению вероятностей:=∏︁ (∆ ).(4.2)=1Функцию называют функцией правдоподобия.Метод максимума правдоподобия заключается в поиске такого , прикотором наблюдаемое отклонение от модели будет иметь наибольшую вероятность, то есть() → max.Замечание. Поскольку с суммой работать удобнее, чем с произведениями,чаще используют не саму функцию , а её логарифм:∑︁ln =ln (Δ ).Пусть теперь ошибки измерений имеют нормальное распределение. Согласно (2.5), вероятность обнаружить в -м измерении отклонение ∆ пропорциональна величине (∆ ) ∝ −Δ22 2,где — стандартная ошибка измерения величины .
Тогда логарифмфункции правдоподобия (4.2) будет равен (с точностью до константы)ln = −∑︁ ∆ 2221= − 2 .2Таким образом, максимум правдоподобия действительно будет соответствовать минимуму 2 .4.3. Метод наименьших квадратов (МНК)Рассмотрим случай, когда все погрешности измерений одинаковы, =const.
Тогда множитель 1/ 2 в сумме хи-квадрат (4.1) выносится за скобки,и оценка параметра сводится к нахождению минимума суммы квадратовотклонений: (︁)︁2∑︁∑︁() =∆2 ≡ − ( | ) → min.(4.3)=1=1Оценка по методу наименьших квадратов (МНК) удобна в том случае, когда не известны погрешности отдельных измерений. Для построения прямой = + по методу МНК существуют простые аналитические43выражения (см. п. 4.6.1). Однако тот факт, что метод МНК игнорирует информацию о погрешностях, является и его основным недостатком.
В частности, это не позволяет определить точность оценки (например, погрешности коэффициентов прямой и ) без привлечения дополнительныхпредположений (см. п. 4.6.2 и 4.6.4).4.4. Проверка качества аппроксимацииЗначение суммы 2 позволяет оценить, насколько хорошо данные описываются предлагаемой моделью = ( | ).Предположим, что распределение ошибок при измерениях нормальное.Тогда можно ожидать, что большая часть отклонений данных от моделибудет порядка одной среднеквадратичной ошибки: ∆ ∼ . Следовательно, сумма хи-квадрат (4.1) окажется по порядку величины равна числувходящих в неё слагаемых: 2 ∼ .Замечание. Точнее, если функция ( | 1 , .
. . , ) содержит подгоночныхпараметров (например, = 2 для линейной зависимости () = + ), топри заданных лишь − слагаемых в сумме хи-квадрат будут независимы.Иными словами, когда параметры определены из условия минимума хиквадрат, сумму 2 можно рассматривать как функцию − переменных.Величину − называют числом степеней свободы задачи.В теории вероятностей доказывается [4, 5], что ожидаемое среднее значение (математическое ожидание) суммы 2 в точности равно числу степенейсвободы:2 = − .Таким образом, при хорошем соответствии модели и данных, величина2 /( − ) должна в среднем быть равна единице. Значения существеннобольшие (2 и выше) свидетельствуют либо о плохом соответствии теориии результатов измерений, либо о заниженных погрешностях. Значенияменьше 0,5 как правило свидетельствуют о завышенных погрешностях.Замечание.
Чтобы дать строгий количественный критерий, с какой долей вероятности гипотезу = () можно считать подтверждённой илиопровергнутой, нужно знать вероятностный закон, которому подчиняетсяфункция 2 . Если ошибки измерений распределены нормально, величинахи-квадрат подчинятся одноимённому распределению (с − степенями свободы). В элементарных функциях распределение хи-квадрат не выражается,но может быть легко найдено численно: функция встроена во все основныестатистические пакеты, либо может быть найдена по таблицам.4.5. Оценка погрешности параметровВажным свойством метода хи-квадрат является «встроенная» возможность нахождения погрешности вычисленных параметров .44ˆ то есть ˆ — решеПусть функция () имеет максимум при = ,ние задачи о максимуме правдоподобия. Согласно центральной предельнойтеореме мы ожидаем, что функциябудем близка к нормаль)︁(︁ правдоподобия^2(−)ному распределению: () ∝ exp − 22 , где — искомая погрешностьпараметра. Тогда в окрестности ˆ функция 2 () = −2 ln(()) имеет видпараболы:ˆ2( − )2 () =+ const.2Легко убедиться, что:ˆ = 1.2 (ˆ ± ) − 2 ()Иными словами, при отклонении параметра на одну ошибку от значеˆ минимизирующего 2 , функция 2 () изменится на единицу.
Такимния ,образом для нахождения интервальной оценки для искомого параметрадостаточно графическим или численным образом решить уравнение∆2 () = 1.(4.4)Вероятностное содержание этого интервала будет равно 68% (его еще называют 1– интервалом). Отклонение 2 на 2 будет соответствовать уже95% доверительному интервалу.4.6.
Методы построения наилучшей прямойПрименим перечисленные выше методы к задаче о построении наилучшей прямой = + по экспериментальным точкам { , }. Линейностьфункции позволяет записать решение в относительно простом аналитическом виде.Обозначим расстояние от -й экспериментальной точки до искомой прямой, измеренное по вертикали, как∆ = − ( + ) ,и найдём такие параметры {,}, чтобы «совокупное» отклонение результатов от линейной зависимости было в некотором смысле минимально.4.6.1. Метод наименьших квадратовПусть сумма квадратов расстояний от точек до прямой минимальна:(,) =∑︁( − ( + ))2 → min.(4.5)=1Данный метод построения наилучшей прямой называют методом наименьших квадратов (МНК).Рассмотрим сперва более простой частный случай, когда искомая прямая заведомо проходит через «ноль», то есть = 0 и = .
Необходимое45условие минимума функции (), как известно, есть равенство нулю её производной. Дифференцируя сумму (4.5) по , считая все величины { , }константами, найдём∑︁=−2 ( − ) = 0.=1Решая относительно , находим=∑︁ =1⧸︁ ∑︁2 .=1Поделив числитель и знаменатель на , этот результат можно записатьболее компактно:⟨⟩= 2 ,(4.6)⟨ ⟩где, напомним, угловые скобки обозначают выборочное среднее (по всемэкспериментальным точкам).В общем случае при ̸= 0 функция (,) должна иметь минимум какпо , так и по . Поэтому имеем систему из двух уравнений / = 0,/ = 0, решая которую, можно получить (получите самостоятельно):=⟨⟩ − ⟨⟩ ⟨⟩⟨2 ⟩ − ⟨⟩2 = ⟨⟩ − ⟨⟩ .,(4.7)Эти соотношения и есть решение задачи о построении наилучшей прямойметодом наименьших квадратов.Замечание.
Совсем кратко формулу (4.7) можно записать, если ввести обозначение ≡ ⟨Δ · Δ⟩ = ⟨⟩ − ⟨⟩ ⟨⟩ .(4.8)В математической статистике называют ковариацией. При ≡⟨︀ величину⟩︀ имеем дисперсию = Δ2 . Тогда=, = ⟨⟩ − ⟨⟩ .(4.9)4.6.2. Погрешность МНК в линейной моделиПогрешности и коэффициентов, вычисленных по формуле (4.7)(или (4.6)), можно оценить в следующих предположениях.
Пусть погрешность измерений величины пренебрежимо мала: ≈ 0, а погрешностипо одинаковы для всех экспериментальных точек = const, независимыи имеют случайный характер (систематическая погрешность отсутствует).46Пользуясь в этих предположениях формулами для погрешностей косвенных измерений (см. п. 2.6) можно получить следующие соотношения:√︃(︂)︂√︀1(4.10)− 2 , = ⟨2 ⟩, = − 2 где использованы введённые выше сокращённые обозначения (4.8). Коэффициент − 2 отражает число независимых «степеней свободы»: экспериментальных точек за вычетом двух условий связи (4.7).В частном случае = :√︃(︂ 2)︂1⟨ ⟩2 .
=−(4.11) − 1 ⟨2 ⟩4.6.3. Метод хи-квадрат построения прямойПусть справедливы те же предположения, что и для метода наименьшихквадратов, но погрешности экспериментальных точек различны. Методминимума хи-квадрат сводится к минимизации суммы квадратов отклонений, где каждое слагаемое взято с весом = 1/2 :2 (,) =∑︁2 ( − ( + )) → min.=1Этот метод также называют взвешенным методом наименьших квадратов.Определим взвешенное среднее от некоторого набора значений { } как′⟨⟩ =где =∑︀1 ∑︁ , — нормировочная константа.Повторяя процедуру, использованную при выводе (4.7), нетрудно получить (получите) совершенно аналогичные формулы для искомых коэффициентов:′′′⟨⟩ − ⟨⟩ ⟨⟩′′= = ⟨⟩ − ⟨⟩ ,(4.12)′′2 ,2⟨ ⟩ − ⟨⟩′с тем отличием от (4.7), что под угловыми скобками ⟨. . .⟩ теперь надо понимать усреднение с весами = 1/2 .Записанные формулы позволяют вычислить коэффициенты прямой, если известны погрешности . Значения могут быть получены либо изнекоторой теории, либо измерены непосредственно (многократным повторением измерений при каждом ), либо оценены из каких-то дополнительныхсоображений (например, как инструментальная погрешность).474.6.4.