Лекционный курс в ворде (1120109), страница 8
Текст из файла (страница 8)
Отметим наиболее важные из них
α=1
α10=m*x
α01=m*y
μ10= μ01=0
μ20=Dx
μ02=Dy
Центральный момент
(3) μ11=M[(x-mx)*(y- my)]=Kxy -корреляционный момент
Это величина характеризует степень зависимости x,y ,так же рассеяния значений ДДСВ (x,y) относительно центра( mx , my)
§6.Корреляция и зависимость
Случайные величины x и y называются коррелированными, если коэффициент корреляции x и y не равен нулю. В противном случае Kxy=0,то x и y не коррелированны.
Имеет место теорема о связи корреляции и зависимости
Утверждение1: если x и y независимы, то они не коррелируются
Доказательство:
Рассмотрим формулу (3)
Kxy=M[xy- mxy- myx- mxmy]=M(xy)- mxmy - mymx+ mxmy =M(xy)- mxmy
если x и y не зависимы, то
Утверждение2:если x и y коррелируются, то они зависимы
Доказательство:
(от противного)
Пусть x независима, тогда по утверждению 1 они не коррелируются пришли к противоречию
Можно сделать следующий вывод: из независимости следует некоррелируемость, из коррелируемости- зависимость.
Обратные утверждения не верны, т.е зависимые величины могут быть некоррелируемыми, а некоррелируемые могут быть зависимыми.
Пример тому : Двумерная случайная величина заданная равномерно в круге
Для этой величины были найдены законы распределения
Очевидно, что для каждой точки внутри круга
Вычислим корреляционный момент этой величины по формуле
(т.к mx=0 my=0,т.к распределение симметрично )
Т.к положительному x соответствует такой же отрицательный и положительному y соответствует так же отрицательный y; величины зависимы, но не коррелируются.
Из определения корреляционного момнента следует что размерность корреляции
[Kxy]=[x][y]
Кроме того, может так получится, что (x-mx) или (y-my) оказываются малыми,
Kxy оказывается близким к нулю,что не является характеристикой малой корреляции
rxy = -коэффициент корреляции(безразмерная величина)
имеет место утверждение:
-
об ограниченности коэффициента корреляции
доказательство:
рассмотрим вспомогательную величину
Раскроем скобки
-
если x и y связаны линейной зависимостью
rxy= M(x-mx )(Ax+B-ABx-B)=AM(x-mx)2=ADx
Если А>0 –то rxy=1,если A<0 – то rxy=1
ВЫВОДЫ:
1.Коэффициент корреляции служит характеристикой линейной зависимости между x и y: чем ,тем сильнее сказывается линейная зависимость между x и y
2.Чем ближе rxy к нулю, тем меньше проявляется корреляция между x и y (в некоторых случаях считают что x и y независимы)
3.Если rxy положительный, то говорят о положительной корреляции
§7.Линейная среднеквадратическая регрессия.
Рассмотрим двумерную случайную величину (x,y) и предположим что y можно приблизить
,где α,β-коэффициенты корреляции
Эти коэффициенты находят из условия минимизации этой величины
α,β находятся по методу наименьших квадратов и в этом случае
Регрессия-это зависимость среднего значения какой-либо величины то другой величины
Теорема «О линейной среднеквадратической регрессии»
План доказательства
коэффициенты α и β находят из условия
Нетрудно убедиться, что регрессия и
изображается прямыми, проходящими через общую точку (mx,my).Эти прямые совпадают только в том случае, если x и y связаны линейной зависимостью
-среднеквадратическая регрессия y на x
Если x и y не коррелируются rxy =0 ,следовательно и
две перпендикулярные прямые
Если x и y связаны точной линейной зависимостью, то и тогда
чем ближе эти прямые, тем сильнее проявляется линейная зависимость между x и y
Для подсчета ошибки предполагаемой в линейной зависимости вычисляют так называемую остаточную регрессию
подставив сюда найденные α и β =
-остаточная дисперсия, она равна нулю при точной линейной зависимости и близка к нулю при сильном влиянии линейной зависимости
§8.Линейная корреляция.
Введем понятие условного математического ожидания:
ДДСВ:
НДСВ:
Условные математические ожидания называют регрессией. Если эти регрессии линейные функции, т.е.
то говорят, что x и y связаны линейной корреляцией.
Можно доказать, что линейные регрессии и
совпадают с линейными среднеквадратическими регрессиями, т.е
Если условные математические ожидания представляют собой линейные функции, то их графики совпадают с прямыми среднеквадратических регрессий. В этом случае говорят о линейной корреляции между x и y.
При линейной корреляции необязательна между x и y линейная зависимость, но их условные математические ожидания выражаются линейной зависимостью от x.
Регрессия-зависимость некоторых средних величин от других случайных величин.
теорема о линейной корреляции нормально распределенной двумерной случайной величины
если для ДДСВ имеет место нормальный закон распределения, то между ее составляющими существует линейная корреляция.
62