Обработка результатов учебного эксперимента, страница 3
Описание файла
PDF-файл из архива "Обработка результатов учебного эксперимента", который расположен в категории "". Всё это находится в предмете "физика" из 2 семестр, которые можно найти в файловом архиве МФТИ (ГУ). Не смотря на прямую связь этого архива с МФТИ (ГУ), его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст 3 страницы из PDF
Поэтому адекватным языком для описания погрешностей является язык вероятностей. Тот факт, что значение некоторой величины «случайно», не означает, что она может принимать совершенно произвольные значения. Ясно, что частоты, с которыми возникает те или иныезначения, различны. Вероятностные законы, которым подчиняются случайные величины, называют распределениями.2.1. Случайная величинаСлучайной будем называть величину, значение которой не может бытьдостоверно определено экспериментатором. Чаще всего подразумевается,что случайная величина будет изменяться при многократном повторенииодного и того же измерения.
Также случайной можно считать величину,значение которой фиксированно, но не известно экспериментатору (например, смещение нуля шкалы прибора).Каждому из возможных значений некоторой случайной величины можно поставить в соответствие значение вероятности получить это значение при измерении. Численно вероятность равна относительной частотенаблюдения этого значения, если бы опыт был повторён большое число раз:,→∞ = limгде — полное число измерений, — количество измерений, дающих результат . На практике значения могут быть получены как при многократном повторении опыта, либо как оценка на основе данных другихэкспериментов или теоретической модели.Большинство физических величин могут при измерениях приниматьнепрерывный набор значений.
Пусть [0 , 0 +] — вероятность того, чторезультат измерения величины окажется вблизи некоторой точки 0 впределах интервала : ∈ [0 , 0 + ]. Устремим интервал к нулю.Нетрудно понять, что вероятность попасть в этот интервал также будетстремиться к нулю (никакой результат измерения нельзя получить с абсо0 +]лютной точностью!).
Однако отношение (0 ) = [0 ,будет оставатьсяконечным. Функцию () называют плотностью распределения вероятности или кратко распределением непрерывной случайной величины .Замечание. В математической литературе распределениемчасто называRют не функцию (), а её интеграл () = () . Такую функцию вфизике принято называть интегральным или кумулятивным распределением. В англоязычной литературе для этих функций принято использоватьсокращения: pdf (probability density function) и cdf (cumulative distributionfunction) соответственно.13Гистограммы. Проиллюстрируем наглядно понятие плотности распределения.
Результат большого числа измерений случайной величины удобнопредставить с помощью специального типа графика — гистограммы. Дляэтого область значений , размещённую на оси абсцисс, разобьём на равныемалые интервалы — «корзины» или «бины» (англ. bins) некоторого размера ℎ. По оси ординат будем откладывать долю измерений , результатыкоторых попадают в соответствующую корзину. А именно, пусть — номер корзины; — число измерений, попавших в диапазон ∈ [ℎ, ( +1)ℎ].Тогда на графике изобразим «столбик» шириной ℎ и высотой = /.В результате получим картину, подобную изображённой на рис. 2.1.w, %wNx±σxx ± 2σxРис.
2.1. Пример гистограммы для нормального распределения ( = 10, = 1,0,ℎ = 0,1, = 104 )Согласно данному выше определению, высоты построенных столбиковбудут приближённо соответствовать значению плотности распределения() вблизи соответствующей точки . Если устремить число измеренийк бесконечности ( → ∞), а ширину корзин к нулю (ℎ → 0), то огибающаягистограммы будет стремиться к некоторой непрерывной функции ().Самые высокие столбики гистограммы будут группироваться вблизимаксимума функции () — это наиболее вероятное значение случайнойвеличины.
Если отклонения в положительную и отрицательную стороныравновероятны, то гистограмма будет симметрична — в таком случае среднее значение ⟨⟩ также будет лежать вблизи этого максимума. Ширина гистограммы будет характеризовать разброс значений случайной величины —по порядку величины она близка к среднеквадратичному отклонению .14Свойства распределений. Из определения функции () следует, чтовероятность получить в результате эксперимента величину в диапазонеот до можно найти, вычислив интеграл:Z∈[,] = () .(2.1)Согласно определению вероятности, сумма вероятностей для всех возможных случаев всегда равна единице. Поэтому интеграл распределения() по всей области значений (то есть суммарная площадь под графиком ()) равен единице:+∞Z() = 1.−∞Это соотношение называют условием нормировки.Среднее и дисперсия. Вычислим среднее по построенной гистограмме.
Если размер корзин ℎ достаточно мал, все измерения в пределах однойкорзины можно считать примерно одинаковыми. Тогда среднее арифметическое всех результатов можно вычислить как∑︁1 ∑︁ = .⟨⟩ ≈ Переходя к пределу, получим следующее определение среднего значенияслучайной величины:Z = ,(2.2)где интегрирование ведётся по всей области значений . В теории вероятностей также называют математическим ожиданием распределения.ВеличинуZ 2 = ( − )2 = ( − )2 (2.3)называют дисперсией распределения.
Значение есть срекднеквадратичноеотклонение в пределе → ∞. Оно имеет ту же размерность, что и самавеличина и характеризует разброс распределения. Именно эту величину,как правило, приводят как характеристику погрешности измерения .Доверительный интервал. Обозначим как |Δ|< вероятность того,что отклонение от среднего ∆ = − составит величину, не превосходящую по модулю значение :+Z|Δ|< =() .(2.4)−Эту величину называют доверительной вероятностью для доверительногоинтервала | − | ≤ .152.2.
Нормальное распределениеОдним из наиболее примечательных результатов теории вероятностейявляется так называемая центральная предельная теорема. Она утверждает, что сумма большого количества независимых (см. ниже п. 2.3) случайных слагаемых, каждое из которых вносит в эту сумму относительно малыйвклад, подчиняется универсальному закону, не зависимо от того, каким вероятностным законам подчиняются её составляющие. Это распределениеназывают нормальным или распределением Гаусса.Доказательство теоремы довольно громоздко и мы его не приводим.Остановимся кратко на том, что такое нормальное распределение и егоосновных свойствах.Плотность нормального распределения непрерывной случайной величины выражается следующей формулой:2 () = √(−)1− 22 .2(2.5)Здесь и — параметры нормального распределения: равно среднемузначению величины (математическому ожиданию), a — её среднеквадратичному отклонению от среднего.Функция () представлена на рис.
2.1. Распределение представляетсобой симметричный «колокол», положение вершины которого соответствует ¯ (ввиду симметрии оно же совпадает с наиболее вероятным значением— максимумом функции ()). При значительном отклонении от среднего величина () очень быстро убывает. Это означает, что вероятностьвстретить отклонения, существенно большие, чем , оказывается пренебрежимо мала. Ширина «колокола» по порядку величины равна — она характеризует «разброс» экспериментальных данных относительно среднегозначения.Универсальный характер центральной предельной теоремы позволяетшироко применять на практике нормальное (гауссово) распределение дляобработки результатов измерений, поскольку часто случайные погрешностискладываются из множества случайных независимых факторов.
Заметим,что на практике для приближённой оценки параметров нормального распределения случайной величины используются выборочные значения среднего и дисперсии: ≈ ⟨⟩, ≈ .Доверительные вероятности. Вычислим некоторые доверительные вероятности (2.4) для нормально распределённых случайных величин.Вероятность того, что результат отдельного измерения окажется впределах ± , равна площади под графиком функции () в данноминтервале:+Z|Δ|< = ≈ 0,68.−16()1 = 10,40,368%0,22 = 20,195%−6−4−20246 − 0Рис. 2.2. Плотность нормального распределенияR2Замечание. Интеграл вида − , называемый интегралом ошибок, вэлементарных функциях не выражается, но легко находится численнымиметодами. Соответствующая функция, обычно обозначаемая как erf, реализована большинстве математических программных пакетов.Вероятность отклонения в пределах ± 2:|Δ|<2 ≈ 0,95,а в пределах ± 3:|Δ|<3 ≈ 0,9973.Иными словами, при большом числе измерений нормально распределённойвеличины можно ожидать, что лишь треть измерений выпадут за пределыинтервала [¯ − , ¯ + ].
При этом около 5% измерений выпадут за пределы[¯ − 2; ¯ + 2], и лишь 0,27% окажутся за пределами [¯ − 3; ¯ + 3].Пример. В сообщениях об открытии бозона Хиггса на Большом адронномколлайдере в 2012 году говорилось о том, что исследователи ждали подтверждение результатов со «статистической значимостью 5 сигма». Используянормальное распределение (2.5) нетрудно посчитать, что они использовалидоверительную вероятность ≈ 1 − 5,7 · 10−7 = 0,99999943. Такую достоверность можно назвать фантастической!Полученные значения доверительных вероятностей используются пристандартной записи результатов измерений.
В физических измерениях,как правило, используется = 0,68, то есть, запись=¯ ± 17означает, что измеренное значение лежит в диапазоне (доверительном интервале) ∈ [¯ − ; ¯ + ] с вероятностью 68%. Таким образом погрешность ± считается равной одному среднеквадратичному отклонению: =. В технических измерениях чаще используется = 0,95, то есть под абсолютной погрешностью имеется в виду удвоенное среднеквадратичное отклонение, = 2. Во избежание разночтений доверительную вероятностьследует указывать отдельно.Замечание. Хотя нормальный закон распределения встречается на практике довольно часто, стоит помнить, что он реализуется не всегда. Нарушениеполученных соотношений для долей измерений, попадающих в соответствующие интервалы можно использовать как признак «нормальности» исследуемого распределения.Сравнение результатов измерений.
Теперь мы можем дать количественный критерий для сравнения двух измеренных величин или двух результатов измерения одной и той же величины.Пусть 1 и 2 (1 ̸= 2 ) измерены с погрешностями 1 и 2 соответственно. Ясно, что если различие результатов |2 − 1 | невелико, его можнообъяснить просто случайными отклонениями. Если же теоретическая вероятность обнаружить такое отклонение достаточно мала, различие результатов следует признать значимым.Граничное значение вероятности, в принципе, может быть выбрано произвольным образом.
Наиболее часто в качестве границы выбирают вероятность = 5%, что для нормального распределения соответствует двумстандартным отклонениям.Допустим сначала, что одна из величин известна с существенно большей точностью: 2 ≪ 1 (например, 1 — результат, полученный студентомв лаборатории, 2 — справочное значение). Поскольку 2 мало, 2 можнопринять за «истинное»: 2 ≈ . Предполагая, что погрешность измерения1 подчиняется нормальному закону с и дисперсией 12 , можно утверждать,что различие считают будет значимы, если разность результатов превышает удвоенное значение погрешности: |1 − 2 | > 21 .Пусть теперь погрешности измерений сравнимы по порядку величины:1 ∼ 2 .
В теории вероятностей показывается, что линейная комбинациянормально распределённых величин также имеет нормальное распределение с дисперсией 2 = 12 + 22 (см. также правила сложения погрешностей(2.7)). Тогда для проверки гипотезы о том, что 1 и 2 являются измерениями одной и той же величины, нужно√︀ вычислить, является ли значимымотклонение |1 − 2 | от нуля при = 12 + 22 .Пример. Два студента получили следующие значения для теплоты испарения некоторой жидкости: 1 = 40,3 ± 0,2 кДж/моль и 2 = 41,0 ±0,3 кДж/моль, где погрешность соответствует одному стандартному отклонению. Можно ли утверждать, что они исследовали одну и ту же жидкость?18Имеем наблюдаемую разность |1 −√︀2 | = 0,7 кДж/моль, среднеквадра0,22 + 0,32 = 0,36 кДж/моль.