18 ¦С¦Ш¦Ы¦Х¦в (Ответы на теория к экзамену)
Описание файла
Файл "18 ¦С¦Ш¦Ы¦Х¦в" внутри архива находится в папке "¦С¦¬¦¬¦¦TВTЛ". Документ из архива "Ответы на теория к экзамену", который расположен в категории "". Всё это находится в предмете "теория вероятностей и математическая статистика" из , которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "к экзамену/зачёту", в предмете "теория вероятности и математическая статистика" в общих файлах.
Онлайн просмотр документа "18 ¦С¦Ш¦Ы¦Х¦в"
Текст из документа "18 ¦С¦Ш¦Ы¦Х¦в"
БИЛЕТ №18 1.Коэффициент корреляции и его свойства. Теорема о коэффициенте корреляции для пары независимых случайных величин. Коэффициентом корреляции случайных величин X и Y называют число = (X, Y), определяемое равенством (предполагается, что DX>0 и DY>0): . Коэффициент корреляции имеет следующие свойства: (X, X) = 1 Если случайные величины X и Y являются независимыми (и существуют DX>0 и DY>0), то (X, Y) = 0. (a1X1+b1, a2X2+b2) = (X1, X2). При этом знак плюс нужно брать в том случае, когда a1 и a2 имеют одинаковые знаки, минус – разные. –1 (X, Y) 1|(X, Y)| = 1 тогда и только тогда, когда случайные величины X и Y линейно зависимы. Доказательство следует из свойств ковариации. Ковариация имеет следующие свойства: 1)cov(X, X) = DX 2)cov(X1, X2) = 0 для независимых случайных величин X1 и X2 3)Если Yi = aiXi+bi, i=1,2, то cov(Y1, Y2) = a1a2cov(X1, X2) 4) 5) для линейно зависимых X1 и X2: X2 = aX1+b 6)cov(X1, X2) = M(X1X2) – MX1 MX2. Доказательство. Утверждение 1 вытекает из очевидного соотношения: cov(X, X) = M(X-MX)2. Если случайные величины Х1 и Х2 являются независимыми и имеют математические ожидания, то cov(X1, X2) = M((X1-MX1)(X2-MX2) = (M(X1-MX2))(M(X2-MX2)), откуда приходим к утверждению 2. Пусть Y1 = a1X1+b1, Y2 = a2X2+b2. Тогда cov(Y1, Y2) = M((Y1-MY1)(Y2-MY2)) = M((a1X1+b1-a1MX1-b1)(a2X2+b2-a2MX2-b2)) = M(a1a2(X1-MX1)(X2-MX2)). Поэтому справедливо утверждение 3. Рассмотрим дисперсию случайной величины Yx = xX1-X2, где х – произвольное число. В силу свойств дисперсии и свойства 3 ковариации DYx = D(xX1)+2cov(xX1,-X2)+D(-X2) = x2DX1-2xcov(X1, X2)+DX2. Дисперсия DYx, как функции от x, представляет собой квадратный трехчлен. Но дисперсия любой случайной величины не может быть меньше нуля, а это означает, что дискриминант D = (2cov(X1, X2))2-4DX1DX2 квадратного трехчлена DYx является неположительным, т. е. имеет место утверждение 4. Далее, пусть выполнено равенство 5. Значит дискриминант равен нулю, и уравнение DYx = 0 имеет решение, которое обозначим a. Тогда случайная величина Ya = aX1-X2 принимает всего одно значение (допустим, b), и, следовательно, X2 = aX1+b. Наоборот, пусть выполнено X2 = aX1+b. Тогда в соответствии со свойством 1 дисперсии DYx = 0, а значит дискриминант является неотрицательным. Поскольку при доказательстве свойства 4 было показано, что этот дискриминант неположителен, то он равен нулю, откуда следует . Утверждение 6 получается раскрытием скобок в формуле ковариации и использованием свойств математического ожидания.
2.Задача о проверке гипотез. Ошибки первого и второго рода; мощность критерия. Лемма Неймана-Пирсона. Пример: проверка гипотезы о математическом ожидании гауссовской случайной величины с известной дисперсией.Статистической гипотезой называют гипотезу о виде неизвестного распределения генеральной совокупности или о параметрах известных распределений. Нулевой (основной) называют выдвинутую гипотезу Н0. Конкурирую-щей (альтернативной) называют гипотезу Н1, которая противоречит нулевой. Пример. Пусть Н0 заключается в том, что математическое ожидание генеральной совокупности а = 3. Тогда возможные варианты Н1: а) а ≠ 3; б) а > 3; в) а < 3. Простой называют гипотезу, содержащую только одно предположение, сложной – гипотезу, состоящую из конечного или бесконечного числа простых гипотез. Пример. Для показательного распределения гипотеза Н0: λ = 2 – простая, Н0: λ > 2 – сложная, состоящая из бесконечного числа простых ( вида λ = с, где с – любое число, большее 2). В результате проверки правильности выдвинутой нулевой гипотезы ( такая проверка называется статистической, так как производится с применением методов математичес-кой статистики) возможны ошибки двух видов: ошибка первого рода, состоящая в том, что будет отвергнута правильная нулевая гипотеза, и ошибка второго рода, заключаю-щаяся в том, что будет принята неверная гипотеза. Замечание. Какая из ошибок является на практике более опасной, зависит от конкретной задачи. Например, если проверяется правильность выбора метода лечения больного, то ошибка первого рода означает отказ от правильной методики, что может замедлить лече-ние, а ошибка второго рода (применение неправильной методики) чревата ухудшением состояния больного и является более опасной. Вероятность ошибки первого рода называется уровнем значимости α. Основной прием проверки статистических гипотез заключается в том, что по имеющейся выборке вычисляется значение некоторой случайной величины, имеющей известный закон распределения. Статистическим критерием называется случайная величина К с известным законом распределения, служащая для проверки нулевой гипотезы. Критической областью называют область значений критерия, при которых нулевую гипотезу отвергают, областью принятия гипотезы – область значений критерия, при которых гипотезу принимают. Мощностью критерия называют вероятность попадания критерия в критическую область при условии, что верна конкурирующая гипотеза. Если обозначить вероятность ошибки второго рода (принятия неправильной нулевой гипотезы) β, то мощность критерия равна 1 – β. Следовательно, чем больше мощность критерия, тем меньше вероятность совершить ошибку второго рода. Поэтому после выбора уровня значимости следует строить критическую область так, чтобы мощность критерия была максимальной.