Применение регрессионного анализа в эконометрике

Автор работы: Пользователь скрыл имя, 15 Сентября 2011 в 10:33, курсовая работа

Описание работы

Целью курсовой работы явилось исследование регрессионного анализа и применение его в эконометрике. Для достижения поставленной цели были решены следующие задачи:

◦изучение основных положений регрессионного анализа
◦рассмотрение оценки параметров парной регрессионной модели
◦изучение интервальной оценки функции регрессии и ее параметров
◦исследование оценки значимости уравнения регрессии и особенностей применения коэффициента детерминации
◦рассмотрение практических задач

Содержание работы

Введение……………………………………………………………………………...3

1.Глава 1. Теоретические и методологические основы применения регрессионного анализа в эконометрике
1.Основные положения регрессионного анализа………………………….5
2.Оценка параметров парной регрессионной модели…………………….8
3.Интервальная оценка функции регрессии и ее параметров…………...15
4.Оценка значимости уравнения регрессии и особенности
применения коэффициента детерминации………………….…………16

Выводы……………………………………………………………………………...20

2.Глава 2. Практическое применение регрессионного анализа в эконометрике
1.Задача 1…………………………………………………………………...22
2.Задача 2…………………………………………………………………...23
Выводы……………………………………………………………………………...26

Заключение………………………………………………………………………….27

Библиографический список………………………………………………………..29

Приложение

Файлы: 1 файл

Курсовая по эконометрике.doc

— 311.00 Кб (Скачать файл)

       Поскольку коэффициенты эластичности представляют экономический интерес, а виды моделей  не ограничиваются только степенной  функцией, то существуют формулы расчета  коэффициентов эластичности для наиболее распространенных типов уравнений регрессии, приведенные в приложении 1.

       Несмотря  на широкое использование в эконометрике коэффициентов эластичности, возможны случаи, когда их расчет экономического смысла не имеет. Это происходит тогда, когда для рассматриваемых признаков бессмысленно определение изменения значений в процентах.

    1. Интервальная оценка функции регрессии и ее параметров

       В прогнозных расчетах по уравнению регрессии  определяется предсказываемое (ур) значение как точечный прогноз ŷx при хрк, то есть путем подстановки в уравнение регрессии ŷx=a+b*x соответствующего значения х12. однако точечный прогноз явно не реален. Поэтому он дополняется расчетом стандартной ошибки ŷx, то есть mŷx, и соответственно интервальной оценкой прогнозного значения (у*)

       ŷx- mŷx≤ у*≤ ŷx+mŷx

       что бы понять, как строится формула  для определения величины стандартной  ошибки ŷx, обратимся к уравнению линейной регрессии: ŷx=a+b*x. Подставим в это уравнение выражение параметра а: a=y-b*x, тогда уравнение регрессии примет вид: ŷx= y-b*x+b*x=у+ b(x-x).

       Отсюда  вытекает, что стандартная ошибка mŷx зависит от  ошибки у и ошибки коэффициента регрессии b, то есть:

       mŷx2=my2+mb2(x-x)2

       Из  теории выборки известно, что my2= σ2/n. Используя в качестве оценки σ2 остаточную дисперсию на одну степень свободы S2, получим формулу расчета ошибки среднего значения переменной у:

       my2= S2/n.

       Считая, что прогнозное значение фактора  хзк, получим следующую формулу расчета стандартной ошибки предсказываемого по линии регрессии значения, то есть mŷx:

       mŷx2= S2/n+ S2/∑(x-x)2*(хк-х)2= S2*(1/n+((xk-x)2/(∑(x-x)2)))

       Рассмотренная формула стандартной ошибки предсказываемого среднего значения у при заданном значении xk характеризует ошибку положения линии регрессии. Величина стандартной ошибки mŷx, как видно из формулы, достигает минимума при хк=х, и возрастает по мере того, как «удаляется» от х в любом направлении. Иными словами, чем больше разность между хк и х, тем больше ошибка mŷx с которой предсказывается среднее значение у для заданного значения хк. Можно ожидать наилучшие результаты прогноза, если признак-фактор х находится в центре области наблюдений х и нельзя ожидать хороших результатов прогноза при удалении хк от х. Если же значение хк оказывается за пределами наблюдаемых значений х, используемых при построении линейной регрессии, то результаты прогноза ухудшаются в зависимости от того, насколько хк отклоняется от области наблюдаемых значений фактора х.

       Фактические значения у варьируются около среднего значения ŷx. Индивидуальные значения у могут отклоняться от ŷx на величину случайной ошибки ε, дисперсия которой оценивается как остаточная дисперсия на одну степень свободы S2. Поэтому ошибка предсказываемого индивидуального значения у должна включать не только стандартную ошибку mŷx, но и случайную ошибку S.

    1. Оценка значимости уравнения регрессии и особенности применения коэффициента детерминации

       После того как найдено уравнение линейной регрессии, проводится оценка значимости как уравнения в целом, так и отдельных его параметров13.

       Оценка  значимости уравнения регрессии  в целом дается с помощью F-критерия Фишера. При этом выдвигается нулевая гипотеза, коэффициент регрессии равен нулю, то есть b=0, и, следовательно, фактор х не оказывает влияния на результат у. Непосредственному расчету F-критерия предшествует анализ дисперсии. Центральное место в нем занимает разложение общей суммы квадратов отклонений переменной у от среднего значения у на две части – «объясненную» и «необъясненную» (приложение 2).

       Общая сумма квадратов отклонений индивидуальных значений результативного признака у от среднего значения у вызвана  влиянием множества причин. Условно  всю совокупность причин можно разделить  на две группы:

    • изучаемый фактор х
    • прочие факторы

       Если фактор не оказывает влияния на результат, то линия регрессии на графике параллельна оси охи у = ŷ. Тогда вся дисперсия результативного признака обусловлена воздействием прочих факторов и общая сумма квадратов отклонений совпадает с остаточной. Если же прочие факторы не влияют на результат, то у связан с х функционально и остаточная сумма квадратов равна нулю. В этом случае сумма квадратов отклонений, объясненная регрессией, совпадает с общей суммой квадратов.

       Поскольку не все точки поля корреляции лежат  на линии регрессии, то всегда имеет место их разброс как обусловленный влиянием фактора х, то есть регрессией у по х, так и вызванный действием прочих величин (необъясненная вариация). Пригодность линии регрессии для прогноза зависит от того, какая часть общей вариации признака у приходится на объясненную вариацию. Очевидно, что если сумма квадратов отклонений, обусловленная регрессией, будет больше остаточной суммы квадратов, то уравнение регрессии статистически значимо и фактор х оказывает существенное влияние на результат у. Это равносильно тому, что коэффициент детерминации r2xy будет приближаться к единице.

       Любая сумма квадратов отклонений связана  с числом степеней свободы (df – degrees of freedom), то есть с числом свободы независимого варьирования признака. Число степеней свободы связано с числом единиц совокупности n и с числом определяемых по ней констант. Применительно к исследуемой проблеме число степеней свободы должно показать, сколько независимых отклонений из n возможных [(y1-y), (y2-y),…,(yn-y)] требуется для образования данной суммы квадратов. Так, для общей суммы квадратов ∑(y-y)2 требуется (n-1) независимых отклонений.

       При расчете объясненной или факторной  суммы квадратов ∑(ŷx -y)2 используются теоретические (расчетные) значения результативного признака ŷx, найденные по линии регрессии: ŷx=а+b*x.

       В линейной регрессии сумма квадратов отклонений, обусловленных линейной регрессией, составит:   ∑(ŷx -y)2=b2*∑(x –x)2.

       Поскольку при заданном объеме наблюдений по х и у факторная сумма квадратов  при линейной регрессии зависит только от одной константы коэффициента регрессии b, то данная сумма квадратов имеет одну степень свободы. К тому же выводу придем, если рассмотрим содержательную сторону расчетного значения признака у, то есть ŷx. Величина ŷx определяется по уравнению линейной регрессии: ŷx=а+b*x. Параметр а можно определить как: a=y-b*x. Подставив выражение параметра а в линейную модель получим:

       ŷx= y-b*x+b*x= y-b*(х-х).

       Отсюда  видно, что при заданном наборе переменных у и х расчетное значение ŷx является в линейной регрессии функцией только одного параметра – коэффициента регрессии. Соответственно и факторная сумма квадратов отклонений имеет число степеней свободы, равное 1.

       Существует  равенство между числом степеней свободы общей, факторной и остаточной суммами квадратов. Число степеней свободы остаточной суммы квадратов при линейной регрессии составляет n-2. Число степеней свободы для общей суммы квадратов определяется числом единиц, и поскольку используется средняя вычисленная по данным выборки, то теряем одну степень свободы, то есть dfобщ= n-1.

       Итак, имеется два равенства:

       ∑(у-у)2=∑( ŷx –у)2+∑(у- ŷx)2,

       n-1=1+(n-2).

       Разделив  каждую сумму квадратов на соответствующее  ей число степеней свободы, получим  средний квадрат отклонений, или, что то же самое, дисперсию на одну степень свободы D.

       Dобщ=∑(у-у)2/(n-1);

       Dфакт=∑( ŷx –у)2/1;

       Dост=∑(у- ŷx)2/(n-1).

       Определение дисперсии на одну степень свободы  приводит дисперсии к сравнимому виду. Сопоставляя факторную и  остаточную дисперсии в расчете  на одну степень свободы, получим  величину F-отношения (F-критерия):

       F= Dфакт/ Dост, где

       F – критерий для проверки нулевой гипотезы Н0: Dфакт=Dост.

       Если  нулевая гипотеза справедлива, то факторная  и остаточная дисперсии не отличаются друг от друга. Для Н0 необходимо опровержение, чтобы факторная дисперсия превышала остаточную в несколько раз.

       Английским  статистиком Снедекором разработаны  таблицы критических значений F-отношений при разных уровнях существенности нулевой гипотезы и различимом числе степеней свободы. Табличное значение F-критерия – это максимальная величина отношения дисперсий, которая может иметь место при случайном их расхождении для данного уровня вероятности наличия нулевой гипотезы. Вычисленное значение F-отношения признается достоверным (отличным от единицы), если оно больше табличного. В этом случае нулевая гипотеза об отсутствии связи признаков отклоняется и делается вывод о существенности этой связи: Fфакт>Fтабл. Н0 отклоняется.

       Если  же величина окажется меньше табличной  Fфакт<Fтабл, то вероятность нулевой гипотезы выше заданного уровня и она не может быть отклонена без серьезного риска сделать неправильный вывод о наличии связи. В этом случае уравнение регрессии считается статистически не значимым. Н0 не отклоняется.

         Оценку качества модели дает  коэффициент детерминации. Коэффициент детерминации (R2) — это квадрат множественного коэффициента корреляции14. Он показывает, какая доля дисперсии результативного признака объясняется влиянием независимых переменных.

       Формула для вычисления коэффициента детерминации:

            где

           yi — выборочные данные, а fi — соответствующие им значения модели.

       Также это квадрат корреляции Пирсона между двумя переменными. Он выражает количество дисперсии, общей между двумя переменными.

       Коэффициент принимает значения из интервала  [0;1]. Чем ближе значение к 1 тем ближе модель к эмпирическим наблюдениям.

       В случае парной линейной регрессионной  модели коэффициент детерминации равен  квадрату коэффициента корреляции, то есть R2 = r2.

       Иногда  показателям тесноты связи можно  дать качественную оценку (шкала Чеддока) (приложение 3).

       Функциональная  связь возникает при значении равном 1, а отсутствие связи — 0. При значениях показателей тесноты  связи меньше 0,7 величина коэффициента детерминации всегда будет ниже 50 %. Это означает, что на долю вариации факторных признаков приходится меньшая часть по сравнению с остальными неучтенными в модели факторами, влияющими на изменение результативного показателя. Построенные при таких условиях регрессионные модели имеют низкое практическое значение.

       Выводы

       В настоящее время регрессионный анализ используется как в естественнонаучных исследованиях, так и в обществоведении.

       Уравнение регрессии позволяет найти значение зависимой переменной, если величина независимой или независимых  переменных известна.

       Практически, речь идет о том, чтобы, анализируя множество точек на графике (т.е. множество статистических данных), найти линию, по возможности точно отражающую заключенную в этом множестве закономерность (тренд, тенденцию),  линию регрессии.

       Задачи  регрессионного анализа лежат в сфере установления формы зависимости, определения функции регрессии, использования уравнения для оценки неизвестных значений зависимой переменной.

       Решение задач основывается на анализе соответствующих  параметров (статистических данных) в  которых всегда неизбежно присутствуют отклонения, вызванные случайными ошибками.  Поэтому существуют специальные методы оценки как уравнения регрессии в целом, так и отдельных ее параметров. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Информация о работе Применение регрессионного анализа в эконометрике