Основные модели, используемые при анализе временных рядов

Автор работы: Пользователь скрыл имя, 07 Января 2015 в 16:42, курсовая работа

Описание работы

Почти в каждой области встречаются явления, которые интересно и важно изучать в их развитии и изменении во времени. В повседневной жизни могут представлять интерес, например, метеорологические условия, цены на тот или иной товар, те или иные характеристики состояния здоровья индивидуума и т. д. Все они изменяются во времени. С течением времени изменяются деловая активность, режим протекания того или иного производственного процесса, глубина сна человека, восприятие телевизионной программы.

Файлы: 1 файл

rehc.docx

— 98.21 Кб (Скачать файл)

Существует два наиболее распространённых метода определения автокорреляции остатков. Первый метод - это построение графика зависимости остатков от времени и визуальное определение наличия или отсутствия автокорреляции. Второй метод - использование критерия Дарбина - Уотсона.

Дж. Дарбин и Г. Уотсон построили таблицы, дающие нижние и верхние пределы порогов значимости. Эти таблицы достаточны для большинства конкретных ситуаций. Рассмотрим логические основания критерия .

Выражение

(1.10.1)

представляет собой «отношение фон Неймана», применённое к остаткам оценки. Этот критерий имеет эффективность аналогичную таковой для критерия r1, ᴨȇрвого коэффициента автокорреляции остатков. Из предыдущей главы известно, что этот критерий будет особенно мощным, если ошибки следуют авторегрессинному процессу ᴨȇрвого порядка. Итак, он, по-видимому, хорошо приспособлен для экономических моделей.

Значение d в выборке зависит одновременно от последовательности zt и от значений t( для t = 1,2, . . . ,N). Однако Дарбин и Уотсон показали, что для заданных значений t значение d обязательно заключено между двумя границами d U и d L , не зависящими от значений, принимаемых zt , и являющимися функциями лишь чисел N , именно d L d d U.

Для некотоҏыҳ значений последовательности zt границы d U и d L могут достигаться. Интервал [d L ,d U ] является, следовательно, наименьшим из возможных, если не принимать во внимание точные значения zt.

Границы d U и d L представляют случайные величины, распределение котоҏыҳ можно определить с помощью точных гипотез относительно распределения t.

Для практического использования таблицы полученное значение d* следует сравнить с d1 и d2.

а) Если d* < d1, то вероятность столь малого значения наверняка меньше . Гипотеза независимости отбрасывается.

б) Если d* > d2, то вероятность столь малого значения наверняка больше . Гипотеза независимости не отбрасывается.

в) Если d 1 d* d 2 , то приведённые таблицы оставляют вопрос открытым. Возможно, что гипотезу независимости при уровне значимости следует отбросить. Однако этого нельзя узнать без изучения закона распределения вероятностей d для последовательности ᴨȇременныхzt . Практически в этом случае часто довольствуются указанием на то , что значение d* попадает в область неопределённости критерия.

В настоящее время принято приводить значение d* вместе с регрессиями для временных рядов и указывать на расположение этого значения относительно d1 и d 2 .

Есть несколько существенных ограничений на применение критерия Дарбина - Уотсона.

Во-ᴨȇрвых, он неприменим к моделям, включающим в качестве независимых ᴨȇременных лаговые значения результативного признака, то есть к моделям авторегрессии. Для тестирования на автокорреляцию остатков моделей авторегрессии используется критерий h Дарбина.

Во-вторых, методика расчёта и использования критерия Дарбина - Уотсона направлена только на выявление автокорреляции остатков ᴨȇрвого порядка. При проверке остатков на автокорреляцию более высоких порядков следует применять другие методы.

В-третьих, критерий Дарбина - Уотсона даёт достоверные результаты только для больших выборок.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Глава 2. Практическое задание.

 

Корреляционный анализ.

 

Уравнение парной регрессии.

Использование графического метода.

Этот метод применяют для наглядного изображения формы связи между изучаемыми экономическими показателями. Для этого в прямоугольной системе координат строят график, по оси ординат откладывают индивидуальные значения результативного признака Y, а по оси абсцисс - индивидуальные значения факторного признака X.

Совокупность точек результативного и факторного признаков называется полем корреляции.

На основании поля корреляции можно выдвинуть гипотезу (для генеральной совокупности) о том, что связь между всеми возможными значениями X и Y носит линейный характер.

Линейное уравнение регрессии имеет вид y = bx + a + ε

Здесь ε - случайная ошибка (отклонение, возмущение).

Причины существования случайной ошибки:

1. Невключение в регрессионную  модель значимых объясняющих  переменных;

2. Агрегирование переменных. Например, функция суммарного потребления  – это попытка общего выражения  совокупности решений отдельных  индивидов о расходах. Это лишь  аппроксимация отдельных соотношений, которые имеют разные параметры.

3. Неправильное описание  структуры модели;

4. Неправильная функциональная  спецификация;

5. Ошибки измерения.

Так как отклонения εi  для каждого конкретного наблюдения i – случайны и их значения в выборке неизвестны, то:

1) по наблюдениям xi и yi можно получить только оценки параметров α и β

2) Оценками параметров  α и β регрессионной модели  являются соответственно величины  а и b, которые носят случайный  характер, т.к. соответствуют случайной  выборке;

Тогда оценочное уравнение регрессии (построенное по выборочным данным) будет иметь вид y = bx + a + ε, где ei – наблюдаемые значения (оценки) ошибок εi, а и b соответственно оценки параметров α и β регрессионной модели, которые следует найти.

Для оценки параметров α и β - используют МНК (метод наименьших квадратов). Метод наименьших квадратов дает наилучшие (состоятельные, эффективные и несмещенные) оценки параметров уравнения регрессии.

Но только в том случае, если выполняются определенные предпосылки относительно случайного члена (ε) и независимой переменной (x).

Формально критерий МНК можно записать так:

S = ∑(yi - y*i)2 → min

Система нормальных уравнений.

a•n + b∑x = ∑y

a∑x + b∑x2 = ∑y•x

Для наших данных система уравнений имеет вид

30a + 3237 b = 254

3237 a + 442461 b  = -4804

Из первого уравнения выражаем а и подставим во второе уравнение:

Получаем эмпирические коэффициенты регрессии: b = -0.3456, a = 45.7622

Уравнение регрессии (эмпирическое уравнение регрессии):

y = -0.3456 x + 45.7622

Эмпирические коэффициенты регрессии a и b являются лишь оценками теоретических коэффициентов βi, а само уравнение отражает лишь общую тенденцию в поведении рассматриваемых переменных.

Для расчета параметров регрессии построим расчетную таблицу (табл. 1)

 

 

x

y

x2

y2

x • y

139

1

19321

1

139

117

23

13689

529

2691

151

-6

22801

36

-906

181

-21

32761

441

-3801

70

28

4900

784

1960

99

15

9801

225

1485

22

23

484

529

506

81

18

6561

324

1458

120

7

14400

49

840

115

7

13225

49

805

161

11

25921

121

1771

171

-26

29241

676

-4446

209

-106

43681

11236

-22154

168

-4

28224

16

-672

140

0

19600

0

0

10

31

100

961

310

140

0

19600

0

0

69

29

4761

841

2001

-16

35

256

1225

-560

87

26

7569

676

2262

162

-2

26244

4

-324

161

11

25921

121

1771

120

22

14400

484

2640

70

29

4900

841

2030

120

6

14400

36

720

90

17

8100

289

1530

10

32

100

1024

320

30

24

900

576

720

90

25

8100

625

2250

150

-1

22500

1

-150

3237

254

442461

22720

-4804


 

 

 

1. Параметры уравнения  регрессии.

Выборочные средние.

x = ∑xi;n =  3237;30 = 107.9

y = ∑yi;n =  254;30 = 8.47

xy = ∑xiyi;n =  -4804;30 = -160.13

Выборочные дисперсии:

S2x = ∑x2i;n - x2 =  442461;30 - 107.92 = 3106.29

S2y = ∑y2i;n - y2 =  22720;30 - 8.472 = 685.65

Среднеквадратическое отклонение

Sx = S2x =  3106.29 = 55.73

Sy = S2y =  685.65 = 26.18

1.1. Коэффициент корреляции 

Ковариация.

covxy = x • y - x • y = -160.13 - 107.9 • 8.47 = -1073.69

Рассчитываем показатель тесноты связи. Таким показателем является выборочный линейный коэффициент корреляции, который рассчитывается по формуле:

rxy = x • y -x • y ;Sx • Sy = -160.13 - 107.9 • 8.47;55.73 • 26.18 = -0.74

Линейный коэффициент корреляции принимает значения от –1 до +1.

Связи между признаками могут быть слабыми и сильными (тесными). Их критерии оцениваются по шкале Чеддока:

0.1 <rxy< 0.3: слабая;

0.3 <rxy< 0.5: умеренная;

0.5 <rxy< 0.7: заметная;

0.7 <rxy< 0.9: высокая;

0.9 <rxy< 1: весьма высокая;

В нашем примере связь между признаком Y фактором X  высокая и обратная.

Кроме того, коэффициент линейной парной корреляции может быть определен через коэффициент регрессии b:

rxy = bSx;Sy

1.2. Уравнение регрессии (оценка  уравнения регрессии).

yx = rxy x - x;Sx Sy  + y = -0.74 x - 107.9;55.73 26.18 + 8.47 = -0.35x  + 45.76

Линейное уравнение регрессии имеет вид y = -0.35 x  + 45.76

Коэффициентам уравнения линейной регрессии можно придать экономический смысл.

Коэффициент регрессии b = -0.35 показывает среднее изменение результативного показателя (в единицах измерения у) с повышением или понижением величины фактора х на единицу его измерения. В данном примере с увеличением на 1 единицу y понижается в среднем на -0.35.

Коэффициент a = 45.76 формально показывает прогнозируемый уровень у, но только в том случае, если х=0 находится близко с выборочными значениями.

Но если х=0 находится далеко от выборочных значений х, то буквальная интерпретация может привести к неверным результатам, и даже если линия регрессии довольно точно описывает значения наблюдаемой выборки, нет гарантий, что также будет при экстраполяции влево или вправо.

Подставив в уравнение регрессии соответствующие значения х, можно определить выровненные (предсказанные) значения результативного показателя y(x) для каждого наблюдения.

Связь междуу и х определяет знак коэффициента регрессии b (если > 0 – прямая связь, иначе - обратная). В нашем примере связь обратная.

1.3. Коэффициент эластичности.

Коэффициенты регрессии (в примере b) нежелательно использовать для непосредственной оценки влияния факторов на результативный признак в том случае, если существует различие единиц измерения результативного показателя у и факторного признака х.

Для этих целей вычисляются коэффициенты эластичности и бета - коэффициенты.

Средний коэффициент эластичности E показывает, на сколько процентов в среднем по совокупности изменится результат уот своей средней величины при изменении фактора x на 1% от своего среднего значения.

Коэффициент эластичности находится по формуле:

E = ∂y;∂x x;y = bx;y

E = -0.35107.9;8.47 = -4.4

В нашем примере коэффициент эластичности больше 1. Следовательно, при изменении Х на 1%, Y изменится более чем на 1%. Другими словами - Х существенно влияет на Y.

Бета – коэффициент

Бета – коэффициент показывает, на какую часть величины своего среднего квадратичного отклонения изменится в среднем значение результативного признака при изменении факторного признака на величину его среднеквадратического отклонения при фиксированном на постоянном уровне значении остальных независимых переменных:

βj = bjSx;Sy = -0.3555.73;26.18 = -0.74

Т.е. увеличение x на величину среднеквадратического отклонения Sx приведет к уменьшению среднего значения Y на 0.74 среднеквадратичного отклонения Sy.

1.4. Ошибка аппроксимации.

Оценим качество уравнения регрессии с помощью ошибки абсолютной аппроксимации. Средняя ошибка аппроксимации - среднее отклонение расчетных значений от фактических:

A = ∑|yi - yx| : yi;n100%

Ошибка аппроксимации в пределах 5%-7% свидетельствует о хорошем подборе уравнения регрессии к исходным данным.

A = 13.68;30 100% = 45.59%

Поскольку ошибка больше 7%, то данное уравнение не желательно использовать в качестве регрессии.

1.5. Эмпирическое корреляционное  отношение.

Эмпирическое корреляционное отношение вычисляется для всех форм связи и служит дляизмерение тесноты зависимости. Изменяется в пределах [0;1].

η = ∑y - yx2; ∑yi - y2

η = 11133.57;20569.47 = 0.74

где

y - yx2 = 20569.47 - 9435.9 = 11133.57

Индекс корреляции.

Для линейной регрессии индекс корреляции равен коэффициенту корреляции rxy = -0.74.

Полученная величина свидетельствует о том, что фактор x существенно влияет на y

Для любой формы зависимости теснота связи определяется с помощью множественного коэффициента корреляции:

R = 1 - ∑yi - yx2; ∑yi - y2

Данный коэффициент является универсальным, так как отражает тесноту связи и точность модели, а также может использоваться при любой форме связи переменных. При построении однофакторной корреляционной модели коэффициент множественной корреляции равен коэффициенту парной корреляции rxy.

В отличие от линейного коэффициента корреляции он характеризует тесноту нелинейной связи и не характеризует ее направление. Изменяется в пределах [0;1].

Теоретическое корреляционное отношение для линейной связи равно коэффициенту корреляции rxy.

1.6. Коэффициент детерминации.

Квадрат (множественного) коэффициента корреляции называется коэффициентом детерминации, который показывает долю вариации результативного признака, объясненную вариацией факторного признака.

Информация о работе Основные модели, используемые при анализе временных рядов