Рихтмайер - Принципы современной математической физики, том 1 (947397), страница 64
Текст из файла (страница 64)
Эссена, 1971 г.). Далее, р пе может быть меньше оа (см. упражнение ниже), но в некоторых ситуациях можно ожидать, что р и оа будут Гл. 13. Вероатиость. Мера (в сравнимы. Затем из (13.5.16) мы видим, что г'„отличается от функции нормального распределения не более чем на 0.05 для и — 256 и не более чем на 0.01 для и ж 6400. Во многих вариантах центральной предельной теоремы (включая вариант Берри — Эссена) не требуется, чтобы переменные в„$„..., $„имели одинаковые распределения, а достаточно, чтобы их распределения отличались друг от друга не слишком сильно в том смысле, который определен в этих теоремах.
И в этом случае результат тот же: распределение переменной (ьг+... +и"„))$' и стремится к нормальному распределению при И вЂ” е оо. Упрджнннив ), Используи неравенство Шварца, покажите, что ) ) х)е(Р(х) ~о. Путем дальнейшего использовании этого неравенства установите, что о4 ~ ~ ) х ) бР (х) ~ ) х )а ИГ (х), н выведите отсюда, что аз ~р, Обобщите этот результат, $3.6.
ВЫВОРКА Иногда распределение вероятности может быть вы:нелепо из физических закономерностей, но чаще заключение о физических законах делают из наблюдаемого распределения вероятности, Например, наблюдаемую ненулевую корреляцию между двумя случайными переменными (когда коэффициент корреляции не равен нулю) можно принять как указание существования причинной связи между этими переменнылш. В качестве другого примера допустим, что два различных предположения предсказывают различные значения х, и х, величины э, которая имеет случайные осцилляции, связанные с экспериментальиыыи или измерительнылги ошибками. Если большое число наблюдаемых значений ч показывает, что математическое ожидание Е(ь) согласуется с каким-то из чисел х„х„то это воспринимается как подтверждение соответствующего предположения.
Конечное (но большое) число и наблюдаемых значений случайной переменной $ или набора коррелированных переменных $, т), ..., получающихся при и независимых повторениях некого. рого эксперимента или наблюдаемого явления, называется выборкой распределения переменной $ или переменных $, т), .... Теория выборки имеет отношение к получению ннфорлаации путем проб, когда неизвестно лежащее в основе явления распределение вероятности.
Пусть требуется найти математическое ожидание Е (еь)=р некоторой единственной случайной переменной й, н пусть и неза- /8.б. Выборка 3!9 висимых измерений $ дали значения хо ..., х„. Тогда в качестве выборочного среднего значения принимают а=(х,+... +х„)/и (13.6.1) н рассматривают его как приближение к р. Мы хотим получить оценку для евероятной ошибки» этого приближения.
Ясно, что а является измеренным значением случайной переменной а=($»+... +$„)/и, (13.6.2) где $п ..., $„независимы и имеют то же распределение, что и$. Можно представить себе п независимых повторений эксперимента как некоторый составной эксперимент, дающий значение я, и можно си рос ить, к а к раси р еде лено наблюдаемое значение а, если много раз повторяется этот составной экспериьиент. Математическое ожидание переменной а равно (!/и) [Е(э)+... +Е(ь„)1=р. но нетрудно видеть, что дисперсия Е((а — р)') меньше в и раз, чем дисперсия о' переменной $, поскольку Е (( --р)») = Е (((1/и) Х В! — р)») = (1/п') Е ((ХБ! — р1)») = — — (1/п) Е (~ [с! — р! ~~Я~ — р!) =(1/и') '~" Е Ят — 1!)) =о /и.
(1363) Здесь предпоследнее равенство получено благодаря обращению в нуль корреляций Е(($! — р)($~ — р)) при в~/, что следует из независимости переменных с!. Если бы о была известна, то в качестве меры вероятной ошибки выборки можно было бы принять стандартное отклонение а/)/и переменной а. Однако поскольку распределение вероятности неизвестно, о также является искомой величиной.
Поэтому вводится еь!барочная дисперсия У = (! /п),~„(хт — а)'. (13.6.4) !'=! Интуитивно ясно, что У довольно близка к о'. Из (13.6.1) следует, что У можно записать в виде (1/п) ,'~'„х,*.— а*. Значит, У есть измеренное значение случайной переменной р = (1/и) ~ Ц вЂ” сс', (13.6.5) и простые вычисления дают Е (р) = [(п — 1)/и] о», (13.6.6) Поэтому разумно допустить, что о» вЂ” Уп/(и — 1), и считать »тт!"-о !» «-н» ! ременной сс. Теперь из центральной предельной теоремы следует, что если и велико, то функция распределения сс приближенно описывается как с(а)=Ф~ ~~ ), 326 Гх.
13. Вероятность. Мера йа = 0.6745 )с' (с/(и — 1) „ то формула (13.4.4) дает Р()а — р) < йа) =0.5, (13.6.8) Этот результат можно интерпретировать следуюшим образом: допустим, мы производим не одну серию а измерений, а много серий из и измерений. Тогда а и ба будут иметь различные численные значения после проведения различных серий, в то время как (х имеет всегда одно и то же неизвестное значение, и неравенство (а — (ь~ < Ьа будет верным примерно для половины этих серий и неверным для другой половины.
Переходя к более надежной оценке ошибки, можно положить ь' -1.е44з~~Ё~~, ГС', (13.6.9) тогда Р((а — р( < б'а) =0.9. (1 3.6. 10) Хотя обычно испольауются эти формулы для ошибки, следовало бы отметить, что подобные формулы могут быть получены из более элементарного неравенства Чебышева (см. ниже упражнение 1). Действительно, если константы в (13.6.7) и (13.6.9) увеличить примерно вдвое, то из неравенства Чебышева при о= = )'Ъ/(сг — 1) получатся аналоги формул (13.6.8 и 13.6.10), в которых знак равенства будет заменен иа ). УПРАЖНЕНИЯ 1, Пусть г (х) — функция распределения случайной переменной $ со средним значением и и дисперсией пз < «>.
Рассматривая интеграл (х — р)' ог" (х), (х сс() с получите неравенство Чебышева Р ((х — р( > С) ~от/Сз, х. Проверьте равенство (13.6.6.), В случае выборки распределения двух случайных переменных $, т) измеряемыми значениями являются пары(хс, ус), 1 =1, 2,..., и. Выборочной ковариационной малс рссцей называется (2 х 2)-матрица, элементасии которой являются Рм = (1/а) ~; (х, — а)', Рм = (1/и) ~Р~ (у; — Ь)', )ссз == Р„ = (1/и) ~л~(хс — а)(Ус — Ь), (13.6.11) где а и Ь вЂ” выборочные средние переменных 5 и т( соответственно.
где (х= Е (а) =Е ($). Следовательно, если мы определим вероятную ошибку в виде (13.6.7) 13.7. Маргинальная и рслоеноя аерояглносши Выборочный коэффициент корреляции определяется как й7 = =)7,ДФ',т)г,а. ИЗ НЕраВЕНСтна КОШИ СЛЕдуЕт, Чта — 1()(7 (1, точно так же как из неравенства Шварца следовало — 1(р(1. Упялжнвнив 3. Найдите случайные переманные(связанные с составными зкспериментамн из н измерений $ н Ч), для которых !гм, Ум и !гзз представляют собой ожидаемыа значения. Найдите приближенные вероятные ошибки и придумайте способ грубого установления того, является ли существенным заданный ненулевой выборочный коэффициент корреляции !Р.
13.7. МАРГИНАЛЬНАЯ И УСЛОВНАЯ ВЕРОЯТНОСТИ Пусть каждое повторение эксперимента дает значения х и у случайных переменных с„т(, и пусть совместная функция распределения $, т) определяется так же, как в (13.3.1): Р (х, у) = Р Д < х, т! < у). Тогда распределение так полученных значений х при полном игнорировании значений у имеет функцию распределения Р(х, со) = Маргинальная функция распределения $; (13.7,1) аналогично Р(оо, у) = Маргинальная функция распределения т1.
(13.7.2) Возьмем другую крайность: отбросим все эксперименты, кроме тех, в которых обнаружено, что т! лежит в некотором малом интервале (у( т! ( у+ бу). Тогда получаемое распределение значений х переменной в называется условным распределением переменной $, причем условие состоит в том, что т( лежит в указанном интервале. Чтобы обсудить далее условные вероятности, сделаем упрощающее предположение о том, что Р(х, у) имеет непрерывную плотность ~ (х, у) = д'Р (х, у)/дх ду. Позднее мы вернемся к общему случаю.
Маргинальное распределение $ имеет плотность 1,(х)= ~ )(х, у)ду, (13.7.3) которая равна производной функции Р(х, оо), потому что в общем случае Р(х, у)= ~ ~ 7(х', у')г(х'г(ус Гя. 18. Вероятность. Мера вследствие граничных условий г" ( — оо, у)=г (х, — со) =О. Аналогично маргинальное распределение переменной т1 имеет плотность 1, (х) = ~ 1 (х, у) ~(х.
(13.7А) Для того чтобы найти условные вероятности, заметим, что доля экспериментов, в которых х($(х+Ах и у т1(у-~-бу, равна приблизительно 7 (х, у) Ах Ау, тогда как полная доля экспериментов, в которых у(т1(у+Ау независимо от значений $, равна ) ~(х, у)с(хбу. Если отбросить все те эксперименты, в которых т) ([у, у+Ау], то распределение $ в остающихся экспериментах имеет плотность (в пределе Ах, Ау- 0) с (х У)ахну с (х У) 7( ~ ) (И 7 3) ( 1(х,у)лхасу [1(х, у)ах при условии, что знаменатель не равен нулю.
Величина 7'(х1у) называется плотностью условной верояглности переменной $ при условии, что п=у. Если знаменатель обращается в нуль, то и числитель также обращается в нуль, а значит, 7" (х~у) не определена. Однако часто условная вероятность имеет физический смысл, и ее можно найти из модифицированного эксперимента. Например, в эксперименте по определению распределения рассеянных частиц для данной первоначальной энергии Е, может случиться, что спектр первичных частиц не содержит частиц с энергиями, близкими к Е„ и тогда потребуется другой источник первичных частиц.
Физически все вероятности условны, поскольку любой результат любого эксперимента зависит от любого из условий, при которых он осуществляется. Лишь обращаясь к физике явления, можно предсказать, например, будет ли влиять фаза Луны на ядерно-физический эксперимент. [Тем, кому этот пример кажется крайностью, нужно указать на то, что фаза Луны оказывает слабое воздействие на магнитное поле Земли через влияние атмосферных приливов на ионосферные токи.] Определение (13.7.5) можко записать в виде 1(х, У) =~,(У) 7(х )У), (13.7.6) где 1ь — маргинальная плотность переменной т1, задаваемая (13.7.4).
Разложения такого вида очень важны при вычислениях по методу Монте-Карло. В трехмерном случае случайных переменных $, т1, Ь можно записать 7 (х, у, г) = ) (г) д (у ~ г) й (х ~ у, г). 323 »8.8. Моделирование. Метод Монте-Карло Здесь д(у~а) — плотность значений «1 (при»1=-у) при условии, что Т = г и игнорировании значений $. Метод Монте-Карло использует соответствующие функции распределения: г" (г) = ~ ~ (г') е(г' = Р (Д =' г) Я и Ч игнорируются), (!3.7.7) 6 (у ~ г) = ~ в' (у' ~ г) Ф' = Р (»1 ( у ~ ~ = г) (з игнорируется), (13.7.3) Н(х)у, г) = 1 Й(х' )у, г)«1х'=Р(е(х(») =-у (~=г).
(13.7,9) Ясно, что три функции г, 6, Н полностью определяют совместное распределение переменных $, ть ь. Однако такое описание не является достаточно общим, так как существование функций 6 и Н зависит от некоторой гладкости распределения относительно»1 и ~ (в настоящем рассмотрении мы даже допустили существование плотности 1(х, у, г)), хотя для большинства применений методов Монте-Карло это описание удовлетворительно.