Б.Л. ван дер Варден Математическая статистика (1960) (1186203), страница 26
Текст из файла (страница 26)
(х, (у,... у. (10) по области (9), Этот интеграл немедленно распадается на два множителя, из которых первый является интегралом по х„..., х, а второй — интегралом по у„..., уее Поэтому вероятность одновременного осуществления событии (9) равна произведению ве- роятностей ! а, -зезх<Ь,) (аз-Д<Ьз~ аз :.х<Ьз 1 (а,-У<Ь, ) (11) Но в 9 2? было доказано, что 7', и М„независимы, следовательно, первый множитель в (11) снова распадается на два множителя Р(а, — хз, < Ь,) Р(аз х < Ьз) То же самое справедливо и для второго сомножителя в формуле (11). Таким образом, мы в конце концов получаем произведение четырех вероятностей, соответствующих случайным величинам Узп Узз, х н У. Этим завеРшаетсЯ доказательство независимости Указанных величин.
Их совместнаЯ плотность веРоЯтности 1(ип из, а,. пз) в СилУ только что доказанной теоремы представляет собоц произведение 162 Гл. 1"1. Гадссова теория ошибок и критерий Ствюдекта четырех плотностей вероятности. Формулы этих плотностей были выведены ранее в ~ 27: Хг имеет плотность вероятности е — г 1 д,(и) =аги г е (распределение Хг с д — 1 степенями свободы), аналогично для Х1 г — г — — и дг(и) =- аг и г е в то время как л и у распределены нормально с нулевым средним и дисперсиями 1/д и 1/Ь соответствешю. В силу независимости Х',, Х,', л и у, случайные величины Х' = (д + Ь вЂ” 2) ег = Хг + Хе О =х — у (12) (13) Согласно ~ 2? Е, плотность вероятности для Х' снова является плотностью типа / — г 1 д(и) =аи г е (14) с /= д + Ь вЂ” 2 степенями свободы, в то время как Л распределена нормально с нулевым средним значением и дисперсией г г г 1 1 о'о =- се + а.х = — +— д Ь (15) Согласно (6) и (12), '-= (-'--'~ г=~-'+-') "— = 1-'+-'1-"' Из (15) и (16) следует, что Вг г Х' (17) Отношение (7) можно теперь записать так: 8 о х х (16) где (19) также независимы, Вероятность одновременного осуптествления двух событий с, ~ Хе < с(, и с, -Л < е1г равна четырехкратному интегралу от плотности вероятности 7(ио иг, с,, с,), который распадается па два множителя: Р(с, Х <7,).Р(с, Л < (,).
йзз й 99. Сравнение деух средних значений Формула (18) полностью аналогична формуле 14) из 5 2В, согласно которой т = ут— ~Т (20) Х у и Хе так же, как ранее у, и Хз, являются независимыми случайными величинами, из которых первая распределена нормально с нулевым средним значением и единичной дисперсией, а вторая подчиняется распределению Хз с 7' степенями свободы. Следовательно, отношение 1 имеет то же самое распределение, что и раньше. Таким образом, получается следуитщий критерий, который называют критерием Отьюдента для проверки различия средних значений: Ясли абсолютная величина отношения ! !=- — =— )о~ 3 я превьииает границу т' из табл. 7, то гипотезу х = у следует отвергнуть и счилиуть, что х > у или х ( у, смотря по тому, будет ли разность О положительной или отрицательной.
Если распределения отдельных наблюдений не слишком отклоняются от нормальных и соответствующие дисперсии равны друг другу, то вероятность ошибочно отвергнуть правильную гипотезу х = у для указанного критерия равна 2б, Если жс в действительности х > у и дисперсии равны, то вероятность ошибочного вывода х ~ у оказывается даже меньше, чем р'. В случае одностороннего критерия вероятность ошибочно отвергнуть правильную гипотезу не превышаеттб. Если одно из выборочных значений сильно отклоняется от выборочного среднего остальных наблюдений, то возникает вопрос, можно ли это отклонение считать случайным или оно является следствием грубой ошибки в измерениях и поэтому соответствующее наблюдение нужно из выборки исключить? Для ответа на этот вопрос можно воспользоваться критерием Стьюдента, положив в формулах этого параграфа Ь = 1.
Пусть у, = хе+т— отлельное наблюДение, котоРое поДлежит пРовеРке, а х„..., зев остальные наблюдения. Вероятность того, что на основе этого критерия наблюдение хе+, будет ошибочно отвергнуто, равна 2р. Если этот же критерий применить последовательно ко всем В случае односторонвего критерия основной гипотезой является х~ у (или х~ у). Поэтому здесь вероятность отвергнуть правильную гипотезу существенно зависит от разности х — у. Максимальное значение этой вероятности достигается при х == у и равно р.
— ттридс перев. 154 Гл. 1гп Гауссооа тоорил ошибок и критерий Стьюденто элементам выборки х„..., х „,, то общая вероятность того, что хотя бы один элемент выборки будет ошибочно отвергнут, не превосходит 2р)(д+ 1) = 28п, где и — количество наблюдений. Если, к примеру, выбрать 26 = 0,01, то прн и = 20 вероятность ошибочно отвергнуть хотя бы одно наблюдение из двадцати почти равна 0,2. Исключение одного из элементов выборки практически не влияет на точность выводов: выборочное среднее оставшихся !9 наблюдений будет почти точно таким же, как и выборочное среднее всех двадцати наблюдений'.
Пример 17 (по книге Кецба!1 М. О., Адчвпссг( Т!теогу о( Б!аыаысэ, чо). П, Ехвшр1е 21.4). В одном классе из 20 детей были случайно отобраны 10, которыл| ежедневно стали выдавать апельсиновый сок. Остальные 10 человен ежедневно получали молоко. Через некоторое время было зафиксировано следующее увеличение веса детей (в фунтах): 1 т 1 т т т Первая группа 4, 2., 3 —,, 4, 1,, 1, 3 —,, 3, 2в, 3 -, 1 1 1 ! 1 1 Вторая группа 1„, Зя, 2з, 3, 2ь, 2, 2, 2в, 1ь, 3, Среднее увеличение веса на одного ребенка в первой группе равно 2,9 фунта, а во второй группе — 2,4 фунта. Значимо ли это различие средних весов) Находим П =- 2,9 — 2,4 = 0,5, 13,3 а* = — ' =- 0,74, !8 (1 11 Ва = ~ — + — ~ а' = 0,148, '(10 10~ 1Э с = — = 1,30 8 боюграннца для с с 20 — 2 = 18 степенями свободы равна 2,!О.
Следовательно, иет оснований для заключения, что различие выборочных средних вызвано различием истинных срелних. т Указанный вариант критерия Стьюдента обычно используют и процессе эксперимента для предсказания границ, н которых будет иахоляться какое-либо из очередных, еще не известных наблюдений; при этом предполагается, что известны все прелшествующие наблюдения а„..., а„или их часть.
Для исключения наблюдений, содержащих грубые ошибки, критерий Стьюдента практически не применяется, тан как для этой цела выгоднее пользоваться лругими более соэершеннымн критериями. См., например, Д у и н н - Б а р к о в с к и й И.
В, и С м и р н о в Н. В., Теория вероятностей и математическая статистика в технике (общая часть), ГИТТЛ, М., 1955, гл, 8, 4 4 и табл. ХХ1У. — Прим. порез. ГЛАВА МП МЕТОД НАИМЕНЫБИХ КВАДРАТОВ й 30. Выравнивание ошибок наблюдений Запросы астрономии и геодезии привели Гаусса к следующей проблеме: Пусть е,,..., е, — истинные значения каких-либо неизвестных физических постоянных (например, значения элементов траектории некоторой планеты). Далее, пусть результатами наблюдений являются несами „..., е„анекоторыедругиевеличины х„..., х„(например, координаты положений планеты, наблюдаемые с земли в различные моменты времени). При этом предполагаешься, что истинные значения ~,;...,~, величин х„ ..., х„ определенным образом зависят от а, , е,; 6=тт(сг . ° 0).
Какие значения параметров д; лучше всего согласуются с наблюденными значениями х,,..., х„? Лежандр предлагал считать согласие «наилучшим» в том случае, когда сумма квадратов ошибок Я= (х,— ~,)'+... +(х„— ~„)' (2) минимальна, Теоретико-вероятностное обоснование этого подхода было дано Гауссом, который заметил, что если все наблюдения лишены систематических ошибок и имеют одинаковое квадратичное отклонение т, то, согласно гауссовой теории ошибок, вероят ность того, что результаты наблюдения х, будут лежать между 1 1 1,—, бг; и 1, -1-,— дг, (г = 1,2...
и), при малых 61; приближенно равна п г <~,—.",~ в" — «.-1.) ЬИ' = ст (2и) " е ' "' бг,... бС„. (3) При этом точки с координатами (бм .„е„) принадлежат некоторому многообразию и-мерного пространства, определяемому равенствами (1). Для заданных 1; и АГ; вероятность ЬВг достигает Гм (»1, Метод наименьшим квадратов 1бб наибольшего значения в той точке (б„...,б„) этого многообразия, в которой квадратичная форма (( ьр)2+ + (! р )» будет минимальной. Если в эту форму вместо (, подставить результаты наблюдений хо то получится форма (2). 0ледовательно, ао Гауссу, «наилучшими значениями» би..., б, будут те значения, которым соответствует наибольшая вероятность (3).
Впоследствии Гаусс дал другое обоснование принципа «наименьших квадратов», не зависящее от предположения нормальной распределенности х,,..., х„, Отыскание оценки некоторого параметра д он сравнивал с азартной игрой, в которой нельзя выиграть, а можно лишь проиграть, Если Т выбрано в качестве оценки параметра Ю, то «пронгрыш» от этого будет тем больше, чем больше абсолютная величина ошибки Т вЂ” б.