Автокоррелированность случайной компоненты, ее обнаружение и устранение

Автор работы: Пользователь скрыл имя, 08 Апреля 2015 в 18:56, реферат

Описание работы

Автокорреляция обычно встречается в регрессионном анализе при использовании данных временных рядов. Естественно, что при создании модели разработчик не в состоянии учесть все факторы, влияющие на зависимую переменную. Воздействию этих неучтенных факторов подвергается случайный член u уравнения регрессии. Для того, чтобы выполнялось третье условие Гаусса-Маркова, то есть cov(uk,ui) ≠0, при k≠i, необходимо, чтобы скрытые в u факторы тоже были некоррелированные со своими значениями в предыдущих наблюдениях.

Содержание работы

Введение 3
1. Теоретическая часть 4
Автокорреляция 4
Обнаружение автокорреляции 10
Устранение автокорреляции 13
Заключение 17
Список литературы 18

Файлы: 1 файл

Эконометрика рефератi.docx

— 146.91 Кб (Скачать файл)

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ

 

ГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ

ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ

 

МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

ПРИБОРОСТРОЕНИЯ И ИНФОРМАТИКИ

 

 

 

Реферат

по дисциплине «Эконометрика»

 

на тему: «Автокоррелированность случайной компоненты, ее обнаружение и устранение»»

 

 

 

Ф.И.О. студента

Факультет    

Шифр студента

Курс 3

Вариант № 5

Группа  

Подпись студента _____________

Направление 080100  

Подпись преподавателя__________

 

 

 

 

Оглавление

 

 

Введение

Автокорреляция обычно встречается в регрессионном анализе при использовании данных временных рядов. Естественно, что при создании модели разработчик не в состоянии учесть все факторы, влияющие на зависимую переменную. Воздействию этих неучтенных факторов подвергается случайный член u уравнения регрессии. Для того, чтобы выполнялось третье условие Гаусса-Маркова, то есть cov(uk,ui) ≠0, при  k≠i, необходимо, чтобы скрытые в u факторы тоже были некоррелированные со своими значениями в предыдущих наблюдениях.

Естественно, что в большинстве реальных экономических задач условие некоррелированности ошибок невыполнимо.

Наличие автокорреляции затрудняет применение ряда классических методов анализа временных рядов. В моделях регрессии, описывающих зависимости между случайными значениями взаимосвязанных величин, она снижает эффективность применения метода наименьших квадратов. Поэтому выработаны и применяются специальные статистические приемы для ее выявления и элиминирования, а также для модификации самого метода наименьших квадратов.

Данная работа посвящена автокорреляции и ее устранению.

Целью работы является осветить вопросы, касающиеся понятия автокорреляции.

Задачами работы являются:

    • раскрыть определение автокорреляции;
    • рассмотреть автокорреляцию первого порядка;
    • рассмотреть способы устранения автокорреляции.

1. Теоретическая часть

Автокорреляция

Автокорреляция (или серийная корреляция) – это корреляция между наблюдаемыми показателями, упорядоченными во времени (временные ряды) или в пространстве (перекрестные данные).

Автокорреляция – нарушение третьего условия Гаусса – Маркова, которое заключается в том, что случайные члены регрессии в разных наблюдениях являются зависимыми: cov(uk,ui) ≠0, при  k ≠ i.

Причиной автокорреляции может быть либо неверная спецификация модели, либо наличие неучтенных факторов. Устранение этих причин не всегда дает нужный результат. Автокорреляция имеет собственные внутренние причины, связанные с автокорреляционной зависимостью. Среди основных причин, вызывающих появление автокорреляции, можно выделить:

    • ошибки спецификации,
    • инерцию в изменении экономических показателей,
    • запаздывающее влияние факторов на экономические показатели и сглаживание данных.

Последствия автокорреляции в некоторой степени сходны с последствиями гетероскедастичности. Коэффициенты регрессии остаются несмещенными, но становятся неэффективными, и их стандартные ошибки оцениваются неправильно (чаще всего они смещаются вниз, то есть занижаются).

Автокорреляция обычно встречается только в регрессионном анализе при использовании данных временных рядов. Случайный член u в уравнении регрессии подвергается воздействию тех переменных, влияющих на зависимую переменную, которые не включены в уравнение регрессии. Если значение u в любом наблюдении должно быть независимым от его значения в предыдущем наблюдении, то и значение любой переменной, “скрытой” в u, должно быть некоррелированным с ее значением в предыдущем наблюдении.

Положительная автокорреляция – ситуация, когда случайный член регрессии в следующем  наблюдении ожидается того же знака, что и случайный член в настоящем наблюдении. Соответствует случаю

  ,

где ρ – коэффициент корреляции между двумя соседними случайными членами.

Постоянная направленность воздействия не включенных в уравнение переменных является наиболее частой причиной положительной автокорреляции — ее обычного для экономического анализа типа. Предположим, что оцениваем уравнение спроса на мороженное по ежемесячным данным и что состояние погоды является единственным важным фактором, “скрытым” в u. Вероятно, будет несколько последовательных наблюдений, когда теплая погода способствует увеличению спроса на мороженое u, таким образом, u положительно, и после этого — несколько последовательных наблюдений, когда ситуация складывается противоположным образом, после чего идет еще один ряд теплых месяцев.

Если доход постоянно возрастает со временем, схема наблюдений может быть такой, как показано на рис 1.

Рисунок 1. Положительная автокорреляция

 При обозначении объема  продаж мороженого через у и дохода через х имеет место трендовая зависимость, отражающая рост объема продаж:

 

Фактические наблюдения будут в основном сначала находиться выше линии регрессии, затем ниже ее и затем опять выше.

Изменения экономической конъюнктуры часто приводят к похожим результатам, особенно наглядным в макроэкономическом анализе, и в литературе о циклах деловой активности есть много таких примеров.

Здесь важно отметить, в частности, что автокорреляция в целом представляет тем более существенную проблему, чем меньше интервал между наблюдениями. Очевидно, что чем больше этот интервал, тем менее правдоподобно, что при переходе от одного наблюдения к другому характер влияния неучтенных переменных будет сохраняться.

Если в примере с мороженым наблюдения проводятся не ежемесячно, а ежегодно, то автокорреляции, вероятно, вообще не будет. Маловероятно, чтобы совокупное влияние погодных условий в одном году коррелировало с аналогичным влиянием в следующем году.

 Автокорреляция может также быть отрицательной.

Отрицательная автокорреляция – ситуация, когда случайный член регрессии в следующем  наблюдении ожидается знака, противоположного знаку случайного члена в настоящем наблюдении. Соответствует случаю:

 

Это означает, что корреляция между последовательными значениями случайного члена отрицательна. В этом случае, скорее всего, за положительным значением в одном наблюдении идет отрицательное значение в следующем, и наоборот; диаграмма рассеяния при этом выглядит так, как на рисунке 2.

Рисунок 2. Отрицательная автокорреляция

Здесь снова предполагается, что х со временем растет. Линия, соединяющая последовательные наблюдения друг с другом, будет пересекать линию, показывающую зависимость между у и х, чаще, чем можно было ожидать, если бы значения случайного члена не зависели друг от друга.

В экономике отрицательная автокорреляция встречается относительно редко. Но иногда она появляется при преобразовании первоначальной спецификации модели в форму, подходящую для регрессионного анализа.

Автокорреляция первого порядка – ситуация, когда коррелируют случайные члены регрессии в последовательных наблюдениях:

 

Авторегрессионная схема первого порядка – частный случай автокорреляции первого порядка, когда зависимость между последовательными случайными членами описывается формулой:    

,

  где ρ – константа,

ek+1 – новый случайный член.

Это означает, что величина случайного члена в любом наблюдении равна его значению в предшествующем наблюдении умноженному на p, плюс новый ek+1. Данная схема называется авторегрессионной, поскольку и определяется значениями этой же самой величины с запаздыванием, и схемой первого порядка, потому что в этом простом случае максимальное запаздывание равно единице. Предполагается, что значение  в каждом наблюдении не зависит от его значений во всех других наблюдениях. Если ρ положительно, то автокорреляция положительная; если ρ отрицательно, то автокорреляция отрицательная. Если ρ = 0, то автокорреляции нет и третье условие Гаусса—Маркова удовлетворяется.

Не располагая способом измерения значений случайного члена, невозможно оценить регрессию непосредственно. Тем не менее можно оценивать p путем оценивания регрессионной зависимости еk от еk-1 с использованием обычного Метода наименьших квадратов. При этом

,

Где r – коэффициент автокорреляции остатков.

Можно показать, что

.

Обнаружение автокорреляции

Критерий  Дарбина–Уотсона (DW-критерий) – это метод обнаружения автокорреляции первого порядка с помощью статистики Дарбина–Уотсона.

Статистика критерия  Дарбина–Уотсона вычисляется по формуле:

,

где ek – остатки в наблюдениях авторегрессионной схемы первого порядка ,

Значение DW-статистики будем обозначается через d.

Критерий  Дарбина–Уотсона обнаруживает только ярко выраженную автокорреляцию первого порядка и лишь при отсутствии лаговых переменных в регрессии.

Если автокорреляция отсутствует, то ρ = 0, и поэтому величина d должна быть близкой к двум. При наличии положительной автокорреляции величина будет меньше двух; при отрицательной автокорреляции она будет превышать 2. Так как  ρ должно находиться между значениями 1 и – 1, то d должно лежать между 0 и 4.

Критическое значение d при любом данном уровне значимости зависит от числа объясняющих переменных в уравнении регрессии и от количества наблюдений в выборке. К сожалению, оно также зависит oт конкретных значений, принимаемых объясняющими переменными. Поэтому невозможно составить таблицу с указанием точных критических значений для всех возможных выборок, как это можно сделать для t- и F-статистик; но можно вычислить верхнюю и нижнюю границы для критического значения d. Для положительной автокорреляции они обычно обозначаются как dU и dL.

На рисунке 3 представлена данная ситуация. Стрелка указывает критический уровень d, который обозначается как dкрит. Если знать значение dкрит, то можно сравнить с ним значение d, рассчитанное для регрессии. Если бы оказалось, что d dкрит, то невозможно было бы отклонить нулевую гипотезу об отсутствии автокорреляции. В случае d dкрит возможно отклонить нулевую гипотезу и сделать вывод о наличии положительной автокорреляции.

 

Рисунок 3. Тест Дарбина-Уотсона на автокорреляцию (положительную)

Вместе с тем знаем только, что dкрит находится где-то между dL и dU. Это предполагает наличие трех возможностей:

    1. Величина d меньше, чем dL. В этом случае она будет также меньше, чем dкрит, и поэтому делаем вывод о наличии положительной автокорреляции.
    2. Величина d больше, чем dU. В этом случае она также больше критического уровня, и поэтому невозможно отклонить нулевую гипотезу.
    3. Величина d находится между dL и dU. В этом случае она может быть больше или меньше критического уровня. Поскольку нельзя определить, которая из двух возможностей налицо, невозможно  ни отклонить, ни принять нулевую гипотезу.

В случаях 1 и 2 тест Дарбина—Уотсона дает определенный ответ, но случай 3 относится к зоне невозможности принятия решения, и изменить создавшееся положение нельзя.

Таким образом, зона неопределенности критерия Дарбина–Уотсона – промежуток  значений статистики Дарбина–Уотсона, при попадании в который критерий не дает определенного ответа о наличии или отсутствии автокорреляции первого порядка.

Проверка на отрицательную автокорреляцию проводится по аналогичной схеме, причем зона, содержащая критический уровень, расположена симметрично справа от 2. Так как отрицательная автокорреляция встречается относительно редко, предполагается, что при необходимости самостоятельно вычисляются границы зоны на основе соответствующих значений для положительной автокорреляции при данном числе наблюдений и объясняющих переменных.  Как показано на рисунке 4 величина (4 - dU) есть нижний предел, ниже которого признается отсутствие автокорреляции, а (4 - dL) — верхний предел, выше которого делается вывод о наличии отрицательной автокорреляции.

 

Рисунок 4. тест Дарбина-Уосона на автокорреляцию (отрицательную)

Устранение автокорреляции

Наилучший, но не всегда возможный, способ устранения автокорреляции – установление ответственного за нее фактора и включение соответствующей объясняющей переменной в регрессию.

В других случаях процедура, которую следует принять для устранения автокорреляции, будет зависеть от характера зависимости между значениями случайного члена. В литературе наибольшее внимание уделяется авторегрессионной схеме первого порядка , так как она интуитивно правдоподобна, но для того, чтобы было целесообразным ее использование в более сложных моделях, оснований обычно не хватает. Вместе с тем, если наблюдения проводятся ежеквартально или ежемесячно, могут оказаться более подходящими другие модели.

Если бы уравнение было правильной спецификацией для измерения величины случайного члена, то возможно было бы полностью устранить автокорреляцию, если бы знали величину ρ. Это будет продемонстрировано на примере уравнения регрессии, включающего только одну объясняющую переменную, однако при большем их числе действует тот же принцип.

Предположим, что истинная модель задается выражением:

,

так что наблюдения k и (k – 1) формируются как:   

,

Теперь вычтем из обеих частей уравнения умноженное на ρ соотношение и получим:

.

Обозначим  , , и .

Тогда формулу можно переписать как

.

Вместе с тем из уравнения имеем . Таким образом, формула принимает вид:.

Если ρ известно, тогда можно вычислить величины , , и   (последняя одинакова для всех наблюдений) для наблюдений, включающих от 2 до n исходных данных. Если теперь оценить регрессию между , , и   (заметим, что в уравнение не должна включаться постоянная), то будут получены оценки α и β, не связанные с проблемой автокорреляции, поскольку, согласно предположению, значения е не зависят друг от друга.

Информация о работе Автокоррелированность случайной компоненты, ее обнаружение и устранение