Н.А. Спирин, В.В. Лавров - Методы планирования и обработки результатов инженерного эксперимента (1062945), страница 21
Текст из файла (страница 21)
4.6):S 2y =где y =1 n[ y i − y] 2 ,∑n − 1 i =1(4.10)1 n∑ yi .n i =1Средний квадрат отклонения линии регрессии от среднего значения линии y = C (см. рис. 4.6):1 n )1 n22S*y2 =∑ [ y i − y] =∑ [f ( x i , b 0 , b1,..., b k ) − y] .n − 1 i =1n − 1 i =1(4.11)Очевидно, что общая дисперсия S2y (сумма квадратов относительносреднего значения y ) равна остаточной дисперсии S 2y ост (сумме квадратов относительно линии регрессии) плюс средний квадрат отклонения линии регрессии Sy*2 (сумма квадратов, обусловленная регрессией).1274.
АНАЛИЗ РЕЗУЛЬТАТОВ ПАССИВНОГО ЭКСПЕРИМЕНТА…S 2y = S 2y ост + S*y2 .(4.11а)Разброс экспериментально наблюдаемых точек относительно линии регрессии характеризуется безразмерной величиной – выборочным корреляционным отношением, которое определяет долю, которую привносит величина Х вобщую изменчивость случайной величины Y.S 2y − S 2y остS*y2 S*y*.ρ xy ===22SySySy(4.12)Проанализируем свойства этого показателя.1. В том случае, когда связь является не стохастической, а функциональной, корреляционное отношение равно 1, так как все точки корреляционногополя оказываются на линии регрессии, остаточная дисперсия равна S 2y ост = 0 ,а S*y2 = S 2y (рис.
4.7, а).2. Равенство нулю корреляционного отношения указывает на отсутствиекакой-либо тесноты связи между величинами x и y для данного уравнения регрессии, поскольку разброс экспериментальных точек относительно среднегозначения и линии регрессии одинаков, т.е. S 2y = S 2y ост (рис. 4.7, б).Рис. 4.7. Значения выборочного корреляционного отношения ρxy:1284.
АНАЛИЗ РЕЗУЛЬТАТОВ ПАССИВНОГО ЭКСПЕРИМЕНТА…а – функциональная связь; б – отсутствие связи3. Чем ближе расположены экспериментальные данные к линии регрессии, тем теснее связь, тем меньше остаточная дисперсия и тем больше корреляционное отношение.Следовательно, корреляционное отношение может изменяться в пределах от 0 до 1.Учитывая, что для компьютеров имеются пакеты программ для статистической обработки результатов исследований, рассмотрим методологию этогоподхода на примере простейших линейных и одномерных задач (см. уравнение(4.5)). Идеология решения более сложных задач принципиально не отличается.Более того, как мы увидим в дальнейшем, многие нелинейные зависимостиможно свести к линейным.4.4. Линейная регрессия от одного фактораУравнение линии регрессии на плоскости в декартовых координатахимеет вид выражения (4.5).Задачу метода наименьших квадратов аналитически можно выразитьследующим образом:nФ( b 0 , b1 ) = ∑ [ y i − (b 0 + b1x i )] 2 → min .b 0 , b1i =1(4.13)Для решения этой задачи, как известно из математического анализа, необходимо вычислить частные производные функции Ф по коэффициентам b0, b1и приравнять их нулю:∂ Ф( b 0 , b1 )∂ Ф( b 0 , b1 )= 0;= 0.∂ b0∂ b1(4.14)Система нормальных уравнений (4.8) в этом случае примет вид1294.
АНАЛИЗ РЕЗУЛЬТАТОВ ПАССИВНОГО ЭКСПЕРИМЕНТА…nn⎧n−+=+=[y(bbx)]0;nbbxyi ,∑∑∑iii0101⎪⎪ i =1i =1i =1⎨nnnn2⎪ [ y − (b + b x )] ⋅ x = 0; b+=xbxxi y i .∑ii01 i0∑ i1∑ i⎪⎩∑i =1i =1i =1i =1(4.15)Решение этой системы относительно b0 и b1 даетnnnn∑ y i ∑ (x i )2 − ∑ ( x i y i ) ∑ x ii =1i =1 ;b 0 = i =1 i =12n⎛ n ⎞n ∑ (x i )2 − ⎜ ∑ x i ⎟⎜⎟i =1⎝ i =1 ⎠nnnnn ∑ x i yi − ∑ x i ∑ yi∑ ( x i − x )( y i − y)i =1 i =1 = i =1,b1 = i =1n22n⎛ n ⎞∑ (x i − x)n ∑ ( x i )2 − ⎜ ∑ x i ⎟⎜⎟i =1i =1⎝ i =1 ⎠(4.16)(4.16а)т.е.
для расчета b0 и b1 необходимо определить ∑ x i , ∑ y i , ∑ x i y i , ∑ (x i )2 .Коэффициент b0 (свободный член уравнения регрессии) геометрическипредставляет собой расстояние от начала координат до точки пересечения линии регрессии с осью ординат, а коэффициент b1 характеризует тангенс угланаклона линии регрессии к оси OX.Если же определяют уравнение регрессии в виде)y = b 0 + b1x + b11 x 2 ,то система уравнений для нахождения b0, b1, b11 будет иметь следующий вид:nn⎧n2⎪∑ yi = b0 n + b1 ∑ xi + b11 ∑ xi ,i =1i =1⎪ i =1nnnn⎪23xybxbxb=++⎨∑ i i0∑ i1∑ i11 ∑ xi ,i =1i =1i =1⎪ i =1nnnn⎪2234xybxbxb=++⎪∑ i i0∑ i1∑ i11 ∑ xi .i =1i =1i =1⎩ i =1(4.16б)Из уравнений (4.15) и (4.16б) вытекает правило записи любых системнормальных уравнений: необходимо записать столько уравнений в системе,1304.
АНАЛИЗ РЕЗУЛЬТАТОВ ПАССИВНОГО ЭКСПЕРИМЕНТА…сколько неизвестных коэффициентов содержится в искомом уравнении, всякийраз суммируя произведения членов исходного уравнения на переменную приискомом коэффициенте.Оценку силы линейной связи осуществляют по выборочному (эмпирическому) коэффициенту парной корреляции rxy. Выборочный коэффициент корреляции может быть вычислен двумя способами.1. Как частный случай корреляционного отношения для линейного уравнения регрессии.С учетом того, что y = b0 + b1 x ,1 nS*y2 =∑ [b 0 + b1x i − b 0 − b1 x ]2 = b12S 2x ,n − 1 i =1(4.17)величина отношения S*y S y будет равнаrxy = b1S x / S y ,(4.18)где Sx и Sy – выборочные средние квадратичные отклонения.2.
Как среднее значение произведения центрированных случайных величин, отнесенное к произведению их среднеквадратичных отклонений:nn∑ ( x i − x )( y i − y)rxy = i =1( n − 1)S x S y∑ ( x i − x )( y i − y)=i =1nni =1i =1.(4.19)∑ ( x i − x ) 2 ∑ ( y i − y) 2Покажем, что две последние формулы эквивалентны.
Для этого преобразуем выражение (4.19) к видуn∑ ( x i − x )( y i − y) = rxy ( n − 1)S x S y .i =1Подставляя последнее выражение в формулу (4.16а), имеемb1 =rxy (n − 1) S x S yn∑ (xi =1i= rxy S y / S x , откуда rxy =− x) 2131b1 S x.Sy4. АНАЛИЗ РЕЗУЛЬТАТОВ ПАССИВНОГО ЭКСПЕРИМЕНТА…Как правило, по результатам экспериментов находят Sx, Sy, x, y и рас-считывают rxy по формуле (4.19), а затем, используя эти величины, определяюткоэффициенты уравнения регрессии:b1 = rxy S y / S x ; b 0 = y − b1 x.(4.20)Коэффициент корреляции rxy изменяется в пределах -1≤ rxy ≤+1.Положительная корреляция между случайными величинами характеризует такую стохастическую зависимость между величинами, когда с возрастанием одной из них другая в среднем также будет возрастать.
При отрицательной корреляции с возрастанием одной случайной величины другая в среднембудет уменьшаться. Чем ближе значение rxy к единице, тем теснее статистическая связь.Отметим еще раз область применимости выборочного коэффициентакорреляции для оценки тесноты связи.1. Коэффициент парной корреляции значений y и x применительно к однофакторной зависимости характеризует тесноту группирования данных лишь относительно прямой (например, линия A на рис.
4.8, a).При более сложной зависимости (рис.4.8, б) коэффициент корреляцииrxy будет оценивать тесноту экспериментальных точек относительнонекоторой прямой, обозначенной буквой А, что, естественно, несетмало сведений о тесноте их группирования относительно искомой)кривой y = f (x).2. Коэффициент парной выборочной корреляции имеет четкий физический смысл только в случае двумерного нормального распределенияпараметров, т.е. когда для каждого значения Х, например х1, х2, х3,существует совокупность нормального распределения у и наоборот, адисперсия зависимой переменной при изменении значения аргументаостается постоянной (рис.
4.9).1324. АНАЛИЗ РЕЗУЛЬТАТОВ ПАССИВНОГО ЭКСПЕРИМЕНТА…Рис.4.8. К понятию коэффициента парной корреляцииДаже при выполнении этих, вообще говоря достаточно жестких условий,не всякое значение выборочного коэффициента корреляции является достаточным для статистического обоснования выводов о наличии действительнонадежной корреляционной связи между фактором и откликом. Надежность статистических характеристик ослабевает с уменьшением объема выборки (n).Так, при n=2 через две экспериментальные точки можно провести только однупрямую и зависимость будет функциональной, при этом выборочный коэффициент корреляции равен единице (rxy=1). Однако это не означает надежностьполученных статистических характеристик в силу весьма и весьма ограниченного объема выборки.
Значит, вычислять коэффициент корреляции порезультатам двух наблюдений бессмысленно, так как он заведомо будет равенединице, и это будет обусловлено не свойствами переменных и их взаимнымотношением, а только числом наблюдений.133yАВСy = b 0 + b1x4. АНАЛИЗ РЕЗУЛЬТАТОВ ПАССИВНОГО ЭКСПЕРИМЕНТА…Всвязисэтимтребуется проверка того,Syi=constнасколько значимо отличается выборочный коэффициенткорреляцииrxy от его действительного значения rxy*. При достаточно большом объеме выборки n→∞ rxy*=rxy.x1x2x3xРис.4.9.
К понятию коэффициента парнойкорреляции в случае двумерногонормального распределения параметровТаким образом, требуется проверка значимости выборочного коэффициента парной корреляции иоценка его доверительного интервала.Для определения значимости rxy сформулируем нуль-гипотезу Н0: rxy*=0,т.е. корреляция отсутствует. Для этого рассчитывается экспериментальноезначение t-критерия Стьюдентаt = rxyn−2(4.21)1 − (rxy ) 2и сравнивается с теоретическим при числе степеней свободы n-2.Если t≥tα;n-2 при заданном уровне значимости α, то нулевая гипотеза отклоняется, а альтернативная гипотеза Н1: rxy* ≠ 0, о том, что коэффициент корреляции существенен, принимается.Определение доверительного интервала коэффициента корреляции. Прималых объемах выборки (n<20) можно рекомендовать построение доверительного интервала для rxy* , которое основано на преобразовании Р.Фишера.