Гмурман - Теория вероятностей и математическая статистика (969547), страница 47
Текст из файла (страница 47)
За меча нне 2. Можно доказать я обратное предположение: если признак У связан с признаком Х функциональной завнсвмостьео, то т1= 1. Приведем еще два свойства, опустив доказательства. Свойство 4. Выборочное корреляционное отношение 273 18 — 2730 Поскольку внутригрупповая дисперсия есть средняя арифметическая групповых дисперсий (взвешенная по объемам групп) ° то из (»») следует, что дисперсия каждой группы (значений г", соответствующих определенному значению Х) равна нулю. А зто означает, что в группе содержатся равные значения У, т.
е. каждому значению Х соответствует одно значение У'. Следовательно, прн т)=1 признак г связан с признаком Х функциональной зависимостью. не меньше абсолютной величины выборочного коэффициента корреляции: Ч)~ ~ г, ~. Свойство 5. Если выборочное корреляционное отношение равно абсолютной величине выборочного коэффициента корреляции, то имеет место точная линейная корреляционная зависимость. Другими словами, если Ч=«г,~, то точки (х,« у,), (х,; у,), ..., (х„; у„) лежат на прямой линии регрессии, найденной способом наименьших квадратов. й 13. Корреляционное отношение как мера корреляционной связи. Достоинства и недостатки этой меры В предыдущем параграфе установлено: при Ч= О признаки не связаны корреляционной зависимостью; при Ч = 1 имеет место функциональная зависимость.
Убедимся, что с возрастанием Ч корреляционная связь становится более тесной. С этой целью преобразуем соотношение Р,бщ=-Р.„„+Р„, „так: Ррррр = 1 «общ [1 (Рмещгр/~ ~общ)1~ или Рвигр ' Рабщ (1 Ч ) Если Ч 1, то Рщ„О, следовательно, стРемитсн к нУлю и каждая из групповых дисперсий, Другими словами, при возрастании Ч значения У, соответствующие определенному значению Х, все меньше различаются между собой и связь 1' с Х становится более тесной, переходя в функциональную при Ч = 1.
Поскольку в рассуждениях не делалось никаких допущений о форме корреляционной связи, Ч слузсит мерой тесноты связи любой, в том числе и линейной, формы. В этом состоит преимущество корреляционного отношения перед коэффициентом корреляции, который оценивает тесноту лишь линейной зависимости, Вместе с тем корреляционное отношение обладает недостатком: оно не позволяет судить, насколько близко расположены точки, найденные по данным наблюдений, к кривой определенного вида, например к параболе, гиперболе и т, д.
Это объясняется тем, что при определении корреляционного отношения форма связи во внимание не принималась. где А, В, С вЂ” неизвестные параметры. Пользуясь методом наименьших квадратов, получают систему линейных уравнений относительно неизвестных параметров (вывод опущен, поскольку он не содержит ничего нового сравнительно с $ 4): (~п„х4) А+(~ч~~~п„х') В+(,'Яп„х') С=~п„у х', (,'Яп„х') А+(~, 'п„х*) В+(,'Я п„х) С=,'~', п„у х; (,'Я п.х*) А+ (,"5', п„х) В+ пС = ,'Яп„у„. (") Найденные из этой системы параметры А, В, С подставляют в ('); в итоге получают искомое уравнение регрессии.
м* 275 $14. Простейшие случаи криволинейной корреляции Если гРафик РсгРессии У =7(х) нли ха — — ~(У) изображается кривой линией, то корреляцию называют криволинейной. Например, функции регрессии У на Х могут иметь вид: у =ах'+Ьх+с (параболнческая корреляция второго порядка); у„=ах*+ Ьх*+сх+й (параболическая корреляция третьего порядка). Для определения вида функции регрессии строят точки (х; у ) и по их расположению делают заключение о примерном виде функции регрессии; при окончательном решении принимают во внимание особенности, вытекающие из сущности решаемой задачи.
Теория криволинейной корреляции решает те же за дачи, что и теория линейной корреляции (установление формы и тесноты корреляционной связи). Неизвестные параметры уравнения регрессии ищут методом наименьших квадратов. Для оценки тесноты криволинейной корреляции служат выборочные корреляционные отношения (см. $11). Чтобы выяснить суть дела, ограничимся параболической корреляцией второго порядка, предположив, что данные п наблюдений (выборки) позволяют считать, что имеет место именно такая корреляция.
В этом случае выборочное уравнение регрессии 1' на Х имеет вид у„=Ах'+Вх+С, (') Пример. Найти выборочное уравнение регрессии У на Х вида у„=Аха+Вх+С по данным корреляционной табл. 19. Таблица !9 Составим расчетную табл. 20. Подставив числа (суммы) нижней строки табл. 20 в (ее), получим систему 74,98 А +67,48 В+60,89 С=4!3,93, 67,48 А +60,89 В + 55,10 С= 373,30, 60,89 А +55,10 В -1-50 С = 337,59. ) Решив вту систему, найдем: А=1,94, В=2,98, С=1,10. Напишем искомое уравнение регрессии: у „=!,94ха+ 2,98х+ 1,10. Легко убедиться, что условные средние, вычисленные по атому уравнению, незначнтельно отличаются от условных средних корреляционной таблицы.
Например, прн хт=! найдем: по таблице уд=6; по уравнению ус= 1,94-1-2,98+1,10=6,02. Таким образом, найденное уравнение хорошо согласуется с данными наблюдений (выборки). 9 1б. Понятие о множественной корреляции До настоящего параграфа рассматривалась корреляционная связь между двумя признаками. Если же исследуется связь между несколькими признаками, то корреляцию называют мноягегтгенной. В простейшем слу- Я чае число признаков равно трем и связь между ними линейная: ч а=ах+Ьу+с. В атом случае возникают задачи: 1) найти по данным наблюдений выборочное уравнение связи вида г=Ах+Ву+С, (е) т.
е. требуется найти коэффициенты регрессии А и В и параметр С; 2) оценить тесноту связи между 2 и обоимн признаками Х, )', 3) оценить тесноту связи между 2 и Х (при постоянном У), между 2 и У (при постоянном Х). Первая задача решается методом наименьших квадратов, причем вместо уравнения (') удобнее искать уравнение связи вида 2 — я = А (х — х) + +в (у — у), где А г х Ътхц о ф Э 1 — г~д а„ ЗДЕСЬ Гяяь Гяа, Гкя КОЭффнпннитЫ КОРРЕЛЯЦИИ СООтветственйо между йризнаками Х и Е, ). и Е, Х и У; о„, аи, о,— средние квадратические отклонения.
Теснота связи признака Е с признаками Х, )' оценивается выборочным совокупным коэффициентом коррвллции й= г~~ — 2г„„г г я, + гэа 1 — г~яэ причем 0(Я(!. Теснота связи между Е и Х (при постоянном 3'), между Е и )' (при постоянном Х) оценивается соответственно частными выборочными коэффициентами корреляции: г — г„„г„ Газ (а) 1 3l'(1 — г*„) (1 — г,*, ) гяе — г~я гяг Гяаив = )г (1 — г~~) (1 — г~) Эти коэффициенты имеют те же свойства и тот же смысл, что и обыкновенный выборочный коэффициент корреляции, т. е. служат для оценки линейной связи между признаками.
В задачах 1 — 2 даны корреляционные табл. 21 в 22. Найти: а) ге; б) выборочные уравнения прямых регрессия: в) Чвя н Ч„я. Ота. и задави 1. а) 0,6361 б) у,=1,17 я+16,78, хи — — О,зчб у+ +1,67; в) Чя„~~0,656, я~я — — 0,651 ° 276 Б ! 10 ~ 1Б ~ 20 ~ 'с2 ! 2 !О 2 ~ — — ( — ~ 2 ) 5 20 5 4 ~ 1 ~ — 10 ~ В 40 — 3 6 6 15 ~ 16 50 — — 2 1 3 ~ 16,67 л„10 15 ~ 15 1О л=50 85 95 125 155 185 215 "2 ! л 81С 8 ! 12 — ! — ! — — 10 бс 0 ьи — ь ! 0 ! е ! — ! — 1с ! псс,сь осс — ! 1 ь ! с ! с — 10 1'ю ЛЗ ! — — ! — — 1 ! 1 2 ! 2110 Лл ! О ! 21 ! 111 ! 11 ! Ь ! 1 Л=ЬЬ ~ 34,44 ~ 44.75 ~ 55 ~ 56,36 ( 63,33( 70 Отв. к задаче 2.
а) 0,825; б) у =0.23х+21,78, х =2,92у— 27,25; а) г)вк=0,859, Вчу=0 875 В задачах 3-4 найти ныборочные уравнении регрессия ух= *=Аха+Вх+С но данныи корреляционных табл. 23 и 24. Таблица 23 Отв. ух=2,94 ха+7,27 к — !,2ог. Табл и ца 24 Отв. у„=0,39 ха+2,49 х — 0,75. Глава девятнадцатая стлтистичкскля провкркл стлтистичвски х гипоткз ф 1. Статистическая гипотеза.
Нулевая н конкурирующая, простая н сложная гипотезы Часто необходимо знать закон распределения генеральной совокупности. Если закон распределения неизвестен, но имеются основания предположить, что он имеет определенный внд (назовем его А), выдвигают гипотезу: генеральная совокупность распределена по закону А. Таким образом, в этой гипотезе речь идет о в и де предполагаемого распределения. Возможен случай, когда закон распределения известен, а его параметры неизвестны. Если есть основания предположить, что неизвестный параметр 6 равен определенному значению О„выдвигают гипотезу: 6=9,.