Матем анализ 3 семестр вероятность (930363), страница 6
Текст из файла (страница 6)
Свойства ковариации.
Если случайные величины независимы, то , тогда по свойству 1
.
Случайные величины называются некоррелированными, если , из некоррелированности не следует независимость, из независимости следует некоррелированность.
По свойству 1
Рассмотрим случайную величину .
Заметим, что отсюда следует свойство дисперсии (при a =1)
Так как , то
. Это возможно только, если дискриминант этого квадратного трехчлена относительно a меньше или равен нулю. Выпишем это требование к дискриминанту:
-
Для того, чтобы случайные величины были линейно зависимы (Y = aX +b), необходимо и достаточно, чтобы
Необходимость. Пусть Y=aX+b. Тогда
Достаточность. Пусть . Тогда (доказательство свойства 5)
следовательно, z -
детерминированная величина, т.е.
, поэтому величины X, Y – линейно зависимы.
Коэффициентом корреляции называется .
Свойства коэффициента корреляции.
Двумерное равномерное распределение
Случайный вектор (X, Y) равномерно распределен в области D (площадь D равна S), если его плотность распределения задана так: p(x,y) = 0, если x D, p(x,y) = 1/S, если xD.
Пример. Случайный вектор (X,Y) равномерно распределен в прямоугольнике 0xa, 0xb.
Следовательно, случайные величины X, Y не коррелированны.
Двумерное нормальное распределение
Двумерная случайная величина (X,Y) распределена нормально со средними значениями m, m2, дисперсиями и коэффициентом корреляции
, если ее плотность задана:
Задача линейного прогноза.
Заданы характеристики случайного вектора
. Вводится случайная величина – оценка
- линейный прогноз. Вычислить
, чтобы линейный прогноз был наилучшим среднеквадратическим (в смысле минимума погрешности оценки:
).
За счет выбора можно лишь минимизировать последнее слагаемое, сделав его нулем:
.Теперь остается обеспечить минимум квадратного трехчлена от
(найти вершину параболы):
. Подставляя это значение, найдем
. Вычислим погрешность оценки при этих значениях параметров
При линейной зависимости оценка точна, погрешность равна нулю.
Чем меньше коэффициент корреляции, тем грубее оценка. В крайнем случае, при отсутствии корреляции ( )
.
Лекция 7.
Законы больших чисел и центральная предельная теорема.
Неравенства Чебышева.
Первое неравенство Чебышева. Пусть случайная величина X0 и существует ее математическое ожидание M(X). Тогда для любого >0 выполнено первое неравенство Чебышева
Доказательство. В дискретном случае .
В непрерывном случае
Второе неравенство Чебышева. Пусть существуют математическое ожидание и дисперсия случайной величины . Тогда для любого
выполнено второе неравенство Чебышева
Доказательство проведем для непрерывного случая, для дискретного случая оно доказывается аналогично.
Последовательность случайных величин сходится по вероятности к числу
, если
Законы больших чисел.
Законы больших чисел могут быть записаны в разных формах, но суть их состоит в том, что при большом числе случайных явлений их средний результат практически перестает быть случайным.
Теорема Чебышева
(Закон больших чисел в форме Чебышева)
При достаточно большом количестве независимых опытов среднее арифметическое наблюденных значений случайной величины сходится по вероятности к ее математическому ожиданию.
Доказательство. Рассмотрим ,
.
Тогда по второму неравенству Чебышева .
Если выбрать , (
- целая часть), то при n>N будет
, следовательно, при n>N будет выполнено неравенство
, поэтому при тех же значениях n будет
.
Следовательно, . Теорема Чебышева доказана.
Обобщенная теорема Чебышева.
Пусть X1, Xn – независимые случайные величины с математическими ожиданиями m1,…mn и дисперсиями D1…, Dn. Пусть дисперсии ограничены в совокупности (Dk < L, k-1,2…n). Тогда среднее арифметическое наблюденных значений случайных величин сходится по вероятности к среднему арифметическому их математических ожиданий.
Доказательство. Рассмотрим, как в предыдущей теореме .
,
(случайные величины независимы, следовательно, и не коррелированны)
= . Отсюда по второму неравенству Чебышева следует утверждение теоремы (доказательство сходимости по вероятности проводится как в предыдущей теореме).
Теорема Маркова.
Пусть X1, Xn – зависимые случайные величины с математическими ожиданиями m1,…mn и дисперсиями D1…, Dn. Пусть
. Тогда среднее арифметическое наблюденных значений случайных величин сходится по вероятности к среднему арифметическому их математических ожиданий.
Доказательство. Доказательство сходимости по вероятности проводится как в теореме Чебышева.
Теорема Бернулли.
При неограниченном увеличении числа опытов – независимых испытаний частота события сходится по вероятности к вероятности события.
Доказательство проводится аналогично теореме Чебышева.
Предельные теоремы.
Центральная предельная теорема – это любая теорема, ставящая условия, при которых функция распределения суммы индивидуально малых случайных величин с ростом числа слагаемых сходится к нормальной функции распределения.
Центральная предельная теорема подтверждает следующее: если исход случайного эксперимента определяется большим числом случайных факторов, влияние каждого из которых пренебрежимо мало, то такой эксперимент хорошо аппроксимируется нормальным распределением с параметрами , подобранными соответствующим образом.
Теорема Ляпунова.
Пусть Xk – независимые случайные величины, имеющие математические ожидания M(Xk) = mk и дисперсии D(Xk) = Dk. Обозначим . Если можно подобрать такое
, что
, то при
равномерно по x.
Теорема Леви – Линдеберга.
Пусть Xk – независимые одинаково распределенные случайные величины, имеющие математические ожидания M(Xk) = m и дисперсии D(Xk) = . Обозначим
. Тогда при
равномерно по x.
Замечание. В теореме Леви – Линдеберга (ее чаще всего и называют центральной предельной теоремой) , условие
выполнено, оно превращается в
(проверьте сами) из-за требования «одинаковости распределений», т.е. равенства вкладов случайных величин в случайную величину
. Так как всегда можно выбрать
, то условие выполнено.
Если рассматривать схему Бернулли, то из теоремы Леви – Линдеберга следует интегральная теорема Муавра – Лапласа.
Интегральная теорема Муавра – Лапласа.
Пусть производится n независимых испытаний, в каждом из которых с вероятностью p может появиться событие А. Обозначим - число появлений события в k –ом испытании (
). Обозначим
- общее число появлений события в n испытаниях (
). Обозначим
. Тогда при
равномерно по x.
Отсюда следует практическое правило вычисления
. Так как
то заменим
на
,
на
,
Получим формулу для вероятности нахождения числа успехов в заданном интервале:
Поэтому справедлива формула для вычисления отклонения частоты от вероятности
Если интервал симметричный, т.е. , то по нечетности функции Лапласа получим
Пример. Вероятность появления события p = 0,8. Сделано n = 100 независимых испытаний. Найти вероятность того, что событие произойдет не менее 75 и не более 90 раз.
Пример. Бюффон бросил монету 4040 раз и получил герб 2048 раз. Найти вероятность отклонения частоты появления герба от вероятности.
Лекция 8
Элементы математической статистики.
Пусть исследуется случайная величина с заранее неизвестной функцией распределения F(x).
Множество всех значений этой случайной величины называется генеральной совокупностью (Г С).
Единичное значение случайной величины называется выборкой объема 1.
Совокупность n значений случайной величины образуют выборку объема n.
Выборка имеет то же распределение, что и генеральная совокупность.
Выборочные значения называются вариантами.
Изучая выборку, делают заключение о вероятностных свойствах Г С.
Основные задачи статистики.
-
Оценка неизвестных параметров распределения:
-
точечные оценки параметров распределения, например оценка математического ожидания, дисперсии, моментов распределения,
-
интервальные оценки – доверительные интервалы – интервалы, в которых находятся параметры распределения с доверительной вероятностью.
-
Проверка статистических гипотез – предположений о законе распределения ГС
или параметрах распределения.
-
Установление формы и степени связи между несколькими случайными переменными.
Эмпирические законы распределения.
Вариационным рядом называются варианты, расположенные в порядке их возрастания (не убывания, если варианты повторяются).
Будем обозначать xk – различные варианты вариационного ряда (k = 1, 2, …), nk – их частоты (число повторений варианты), - относительные частоты.