Шанченко Н.И. - Лекции по эконометрике (1094691), страница 7
Текст из файла (страница 7)
Но он не является определяющим, так как в эконометрике более важным является не способность модели соответствовать имеющемуся массиву данных наблюдений, а ее способность раскрывать существующие закономерности в экономических явлениях и процессах и интерпретация полученныхс ее помощью результатов.2.3. Оценка параметров линейной парной регрессииЛинейная парная регрессия описывается уравнением:yˆ a b x ,(2.6)согласно которому изменение Δy переменной y прямо пропорционально изменению Δx переменной x (Δy = b·Δx).Для оценки параметров a и b уравнения регрессии (2.6) воспользуемсяметодом наименьших квадратов (МНК).
При определенных предположенияхотносительно ошибки ε МНК дает наилучшие оценки параметров линейноймоделиy a b x .(2.7)Согласно МНК, выбираются такие значения параметров а и b, при которыхсумма квадратов отклонений фактических значений результативного признакаyi от теоретических значений ŷi = f(xi) (при тех же значениях фактора xi) минимальна, т.
е.2S yˆ i yi min .(2.8)С учетом вида линейной парной регрессии (2.6) величина S является функцией неизвестных параметров а и b27(2.9)S = Σ(yi a b·xi)2 = S(а,b).Следовательно, оптимальные значения параметров а и b удовлетворяютусловиямS 0;aS 0.b(2.10)Выполняя соответствующие вычисления, получим для определения параметров а и b следующую систему уравненийS= 2Σ(yi a b·xi) = 0,aS= 2bΣ(yi a b·xi) = 0,bоткуда после некоторых преобразований получается система нормальных уравнений метода наименьших квадратовna b xi y i ,(2.11)a xi b xi2 y i xi .Используя соотношения nx xi , ny y i , n x 2 xi2 , n yx yi xi из(2.8) получимa b x y ,(2.12)a x b x 2 yx.Откуда следуют следующие выражения для определения параметров а и byx yx.a y b x, b (2.13)x2 x 2Формулу для параметра b можно представить следующим образом1 ( xi x )( yi y )cov( x, y ) n ib.(2.14)22xxРассмотрим интерпретацию параметров уравнения линейной регрессии.Коэффициент b при факторной переменной x показывает насколько изменится в среднем величина y при изменении фактора x на единицу.
Например,допустим, что зависимость между затратами (тыс. руб.) и объемом выпускапродукции описывается соотношениемy = 35000+0,58·x.В этом случае увеличение объема выпуска на 1 единицу потребует дополнительных затрат на 580 рублей.Что касается свободного члена a в уравнении (2.6), то в случае, когда переменная x представляет собой время, он показывает уровень явления в начальный момент времени. В других случаях, параметр a может не иметь экономической интерпретации.282.4.
Оценка параметров нелинейных моделейНелинейные уравнения регрессии можно разделить на два класса:– уравнения, которые с помощью замены переменных можно привести клинейному виду в новых переменных x', y'y a b x ;(2.15)– уравнения, для которых это невозможно. Назовем их внутренне нелинейными.В первом случае, уравнения регрессии преобразуются к линейному виду спомощью введения новых (линеаризующих) переменных x', y'. При этом предварительно формируются массивы значений {(x'i, y'i), i = 1, …,n}. В последующем, после определения параметров линейного уравнения регрессии с помощью обратного преобразования можно получить параметры исходного уравнения регрессии, представляющие интерес для исследователя.Линеаризующие преобразования для некоторых нелинейных моделей приведены в таблице 2.2.Таблица 2.2Линеаризующие преобразованияЗависимостьФормулаГиперболическаяby axЛогарифмическаяy a b ln xСтепеннаяyˆ a x bЭкспоненциальнаяyˆ e a b xПоказательнаяŷ = a·bx ,Преобразованиеy y1x xy yx ln xy ln yx ln xy ln yx xy ln yx xЗависимость между параметрамиa ab ba ab bln a a b ba ab bln a a ln b b Для оценки параметров внутренне нелинейных зависимостей также можноприменить метод наименьших квадратов и определять оптимальные значенияпараметров а и b исходя из условия (2.8) или (2.9).
Но в данном случае условия(2.10) уже не являются линейными алгебраическими уравнениями относительнопараметров а и b, поэтому величины параметров а и b удобнее определять непосредственно из условия (2.9) как значения, доставляющие минимум величине S.Итерационную процедуру минимизации S в общем виде можно представить в виде следующих последовательных шагов.1. Задаются некоторые «правдоподобные» начальные (исходные) значения0а и b0 параметров а и b.292. Вычисляются теоретические значения ŷ i = f(xi) с использованием этихзначений параметров.3. Вычисляются остатки еi = ŷi – yi и сумма квадратов остатков2S yˆ i y i .4. Вносятся изменения в одну или более оценку параметров.5.
Вычисляются новые теоретические значения ŷ i, остатки еi и S.6. Если произошло уменьшение S, то новые значения оценок используютсяв качестве новой отправной точки.7. Шаги 4, 5 и 6 повторяются до тех пор, пока не будет достигнута ситуация, когда величину S невозможно будет улучшить (в пределах заданной точности).8. Полученные на последнем шаге значения параметров а и b являютсяоценками параметров уравнения регрессии, полученными по нелинейным методом наименьших квадратов.Конкретные методы минимизации S отличаются способом выбора новыхизмененных значений оценок параметров.2.5. Качество оценок МНК линейной регрессии.Теорема Гаусса-МарковаПри использовании полученных различными способами оценок параметров уравнения регрессии (2.6) важно быть уверенными, являются ли они «лучшими» среди всех остальных в некотором смысле.
Ответ на этот вопрос даеттеорема Гаусса-Маркова, согласно которой оценки параметров линейной регрессии, полученные методом наименьших квадратов, будут несмещенными иэффективными (т. е. будут иметь наименьшую дисперсию) в классе линейныхнесмещенных оценок при выполнении четырех условий, известных как условия Гаусса-Маркова.Эти условия принимаются в качестве основных предпосылок регрессионного анализа.1-е условие Гаусса-Маркова: математическое ожидание случайного членаεi равно нулю в любом наблюденииМ(εi) = 0.(2.16)2-е условие Гаусса-Маркова: дисперсия случайного члена εi постоянна длявсех наблюденийD( i ) 2 .(2.17)3-е условие Гаусса-Маркова: значения случайного члена в любых наблюдениях εi и εj не коррелируют между собой(2.18)Cov(εi, εj) = 0 (i ≠ j).Это условие с учетом того, что М(εi) = М(εj) = 0 принимает видM(εi, εj) = 0 (i ≠ j).(2.19)4-е условие Гаусса-Маркова: случайный член должен быть распределеннезависимо от объясняющих переменных xiCov(xi, εi) = M (xi, εi) = 0,(2.20)где было учтено, что М(εi) = 0.30Следует сказать, что последнее условие заведомо выполняется, еслиобъясняющие переменные xi считаются детерминированными величинами.Выполнение 4-го условия Гаусса-Маркова обеспечивает несмещенностьоценки параметра b.Выполнение 1-го и 4-го условий Гаусса-Маркова обеспечивает несмещенность оценки параметра а.Нарушение одного из условий Гаусса-Маркова приводит к нарушениюэффективности оценок, т.
е. в классе несмещенных оценок можно найти такие,которые имеют меньшую дисперсию.В регрессионном анализе обычно делается еще одна предпосылка о нормальности распределения случайного члена, что позволяет выполнить количественную оценку точности полученных оценок параметров (2.13).После построения модели необходимо вычислить значения остатков еi ипроверить выполнение условий Гаусса-Маркова, так как их нарушение снижаеткачество модели. Если условия нарушаются, то следует модернизировать модель соответствующим образом. Эти вопросы будут рассмотрены в 3 разделе.2.6.
Проверка качества уравнения регрессии. F-критерий ФишераОценка качества полученного уравнения регрессии основывается на методах дисперсионного анализа.Наблюдаемые значения результативного признака yi можно представить ввиде суммы двух составляющих ŷi и еi(2.21)yi = ŷi+ еi.Величина ŷi = а + b·хi представляет собой расчетное значение переменной ув наблюдении i. Остаток еi есть расхождение между наблюдаемым и расчетными значениями переменной у, или необъясненная с помощью уравнения регрессии часть переменной у.Из (2.21) следует следующее соотношение между дисперсиями наблюдаемых значений переменной D(y), ее расчетных значений D(ŷ) и остатков D(е)(остаточной дисперсией Dост = D(е))D(y) = D(ŷ) + D(е).(2.22)1122D( yˆ ) yˆ i y ,Учитывая соотношенияD( y ) y i y ,nnD(e) Dост 1 yˆ i yi 2 и М(е) = 0 равенство (2.21) можно записать в видеnnnni 1i 1i 1 ( yi y ) 2 ( yˆ i y ) 2 ( yˆ i yi ) 2 .(2.23)Отношение объясненной части D(ŷ) дисперсии переменной у ко всей дисперсии D(y)nR2 D( yˆ )или R 2 D( y ) ( yˆ i y ) 2i 1n ( yi y ) 2i 1(2.24)31называют коэффициентом детерминации и используют для характеристикикачества уравнения регрессии или соответствующей модели связи.Соотношение (2.23) можно представить в альтернативном видеnR2 1Dостили R 2 1 D( y )2 ( yˆ i yi ) 2i 1n ( yi y ) 2.(2.25)i 1Коэффициент детерминации R принимает значения в диапазоне от нуля доединицы0 ≤ R2 ≤ 1.Коэффициент детерминации R2 показывает, какая часть дисперсии результативного признака y объяснена уравнением регрессии.