Модель простой регрессии

Автор работы: Пользователь скрыл имя, 12 Марта 2016 в 11:51, контрольная работа

Описание работы

Математические модели широко используются в экономике, в финансах, в общественных науках. Обычно модели строятся и верифицируются на основе имеющихся наблюдений изучаемого показателя и, так называемых, объясняющих факторов. Язык экономики все больше становится математическим, а саму экономику все чаще упоминают как одну из наиболее математизированных наук. В течение последних десятилетий математические и, в частности, статистические методы в экономике стремительно развиваются. Свидетельством признания эконометрики является присуждение за наиболее выдающиеся работы в этой области Нобелевских премий по экономике: Р.Фришу и Я. Тинбергу (1969) за разработку математических методов анализа экономических процессов, Л. Клейну (1980) за создание эконометрических моделей и их применение к анализу экономических колебаний и экономической политике, Т. Хаавельмо (1989) за работы в области вероятностных основ эконометрики и анализ одновременных экономических структур, Дж. Хекману и Д. Макфаддену (2000) за развитие методов анализа селективных выборок и моделей дискретного выбора.

Файлы: 1 файл

Kursovaya_Model_prostoy_regressii_116529.doc

— 1.05 Мб (Скачать файл)

χтабл2(15;0.05) = 24.99579

 

Проверим переменные на мультиколлинеарность по второму виду статистических критериев (критерий Фишера).

Определяем обратную матрицу D = R-1:

 

 

1.4

0.32

-0.57

0.12

0.37

0.28

0.38

0.32

1.26

-0.59

0.18

-0.0505

0.0819

-0.12

-0.57

-0.59

1.58

-0.49

0.11

-0.00659

-0.0676

0.12

0.18

-0.49

1.27

0.0963

-0.22

-0.14

0.37

-0.0505

0.11

0.0963

1.62

0.85

0.28

0.28

0.0819

-0.00659

-0.22

0.85

1.53

0.18

0.38

-0.12

-0.0676

-0.14

0.28

0.18

1.18


 

 

Вычисляем F-критерии Фишера:

 

где dkk - диагональные элементы матрицы.

Рассчитанные значения критериев сравниваются с табличными при v1=n-m и v2=m-1 степенях свободы и уровне значимости α. Если Fk > FТабл, то k-я переменная мультиколлинеарна с другими.

v1=86-6 = 80; v2=6-1 = 5. FТабл(80;5) = 4.4

 

Поскольку F1 > Fтабл, то переменная y мультиколлинеарна с другими.

 

Поскольку F2 ≤ Fтабл, то переменная x1  немультиколлинеарна с другими.

 

Поскольку F3 > Fтабл, то переменная x2  мультиколлинеарна с другими.

 

Поскольку F4 ≤ Fтабл, то переменная x3  немультиколлинеарна с другими.

 

Поскольку F5 > Fтабл, то переменная x4  мультиколлинеарна с другими.

 

Поскольку F6 > Fтабл, то переменная x5  мультиколлинеарна с другими.

 

Поскольку F7 ≤ Fтабл, то переменная x6  немультиколлинеарна с другими.

 

Проверим переменные на мультиколлинеарность по третьему виду статистических критериев (критерий Стьюдента). Для этого найдем частные коэффициенты корреляции.

Частные коэффициенты корреляции.

Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и xi) при условии, что влияние на них остальных факторов (xj) устранено.

На основании частных коэффициентов можно сделать вывод об обоснованности включения переменных в регрессионную модель. Если значение коэффициента мало или он незначим, то это означает, что связь между данным фактором и результативной переменной либо очень слаба, либо вовсе отсутствует, поэтому фактор можно исключить из модели.

Можно сделать вывод, что при построении регрессионного уравнения следует отобрать факторы x2 , x6  .

 

Модель регрессии в стандартном масштабе.

Модель регрессии в стандартном масштабе предполагает, что все значения исследуемых признаков переводятся в стандарты (стандартизованные значения) по формулам:

 

где хji - значение переменной хji в i-ом наблюдении.

 

Таким образом, начало отсчета каждой стандартизованной переменной совмещается с ее средним значением, а в качестве единицы изменения принимается ее среднее квадратическое отклонение S.

Если связь между переменными в естественном масштабе линейная, то изменение начала отсчета и единицы измерения этого свойства не нарушат, так что и стандартизованные переменные будут связаны линейным соотношением:

ty = ∑βjtxj

Для оценки β-коэффциентов применим МНК. При этом система нормальных уравнений будет иметь вид:

rx1y=β1+rx1x2•β2 + ... + rx1xm•βm

rx2y=rx2x1•β1 + β2 + ... + rx2xm•βm

...

rxmy=rxmx1•β1 + rxmx2•β2 + ... + βm

Для наших данных (берем из матрицы парных коэффициентов корреляции):

-0.136 = β1 + 0.329β2 + 0.00271β3 + 0.0489β4 -0.0724β5 + 0.161β6

0.32 = 0.329β1 + β2 + 0.351β3 -0.209β4 + 0.087β5 + 0.0643β6

0.0325 = 0.00271β1 + 0.351β2 + β3 -0.255β4 + 0.264β5 + 0.149β6

-0.191 = 0.0489β1 -0.209β2 -0.255β3 + β4 -0.544β5 -0.134β6

-0.034 = -0.0724β1 + 0.087β2 + 0.264β3 -0.544β4 + β5 + 0.0194β6

-0.264 = 0.161β1 + 0.0643β2 + 0.149β3 -0.134β4 + 0.0194β5 + β6

Данную систему линейных уравнений решаем методом Гаусса: β1 = -0.227; β2 = 0.404; β3 = -0.0823; β4 = -0.262; β5 = -0.201; β6 = -0.272; 

Стандартизированная форма уравнения регрессии имеет вид:

y0 = -0.227x1 + 0.404x2 -0.0823x3 -0.262x4 -0.201x5 -0.272x6 

Найденные из данной системы β–коэффициенты позволяют определить значения коэффициентов в регрессии в естественном масштабе по формулам:

 

 

3. Анализ параметров уравнения регрессии.

Перейдем к статистическому анализу полученного уравнения регрессии: проверке значимости уравнения и его коэффициентов, исследованию абсолютных и относительных ошибок аппроксимации

Для несмещенной оценки дисперсии проделаем следующие вычисления:

Несмещенная ошибка ε = Y - Y(x) = Y - X*s (абсолютная ошибка аппроксимации)

 

 

Y

Y(x)

ε = Y - Y(x)

ε2

(Y-Yср)2

|ε : Y|

820

1155.44

-335.44

112522.19

34091.76

0.41

2310

1399.96

910.04

828169.83

1703965.94

0.39

1550

1211.43

338.57

114632.45

297418.04

0.22

1530

1186.4

343.6

118063.12

276003.62

0.22

1600

1157.2

442.8

196073.44

354454.08

0.28

870

1218.01

-348.01

121111.13

18127.8

0.4

870

1374.78

-504.78

254804.7

18127.8

0.58

1440

1259.94

180.06

32420.46

189538.73

0.13

1100

1374.78

-274.78

75505.06

9093.62

0.25

730

859.99

-129.99

16898.14

75426.87

0.18

1020

1034.32

-14.32

204.98

235.94

0.014

800

1154.42

-354.42

125612.42

41877.34

0.44

800

1158.59

-358.59

128585.41

41877.34

0.45

750

1158.59

-408.59

166944.22

64841.29

0.54

850

1604.15

-754.15

568743.99

23913.39

0.89

1350

1150.4

199.6

39840.33

119273.85

0.15

1350

1369.26

-19.26

371.01

119273.85

0.0143

1350

1382.15

-32.15

1033.4

119273.85

0.0238

2460

1315.56

1144.44

1309741.25

2118074.08

0.47

1000

1079.33

-79.33

6293.47

21.53

0.0793

830

734.85

95.15

9053.93

30498.97

0.11

820

734.85

85.15

7250.89

34091.76

0.1

820

923.6

-103.6

10732.52

34091.76

0.13

930

734.85

195.15

38084.36

5571.06

0.21

820

922.21

-102.21

10446.47

34091.76

0.12

1100

1208.65

-108.65

11803.97

9093.62

0.0988

870

886.41

-16.41

269.35

18127.8

0.0189

800

1077.94

-277.94

77251.5

41877.34

0.35

980

1080.72

-100.72

10144.78

607.11

0.1

870

1162.39

-292.39

85493.49

18127.8

0.34

870

870.22

-0.22

0.0466

18127.8

0.000248

800

1054.95

-254.95

64997.95

41877.34

0.32

790

1054.95

-264.95

70196.88

46070.13

0.34

700

800.12

-100.12

10024.46

92805.25

0.14

740

645.78

94.22

8877.68

70034.08

0.13

820

1054.95

-234.95

55200.07

34091.76

0.29

830

1054.95

-224.95

50601.13

30498.97

0.27

870

1057.73

-187.73

35241.32

18127.8

0.22

850

1054.95

-204.95

42003.25

23913.39

0.24

790

1054.95

-264.95

70196.88

46070.13

0.34

990

1056.34

-66.34

4400.58

214.32

0.067

820

866.2

-46.2

2134.16

34091.76

0.0563

980

1036.45

-56.45

3186.84

607.11

0.0576

980

1249.84

-269.84

72812.48

607.11

0.28

1200

979.81

220.19

48483.78

38165.71

0.18

1130

1222.42

-92.42

8541.89

15715.25

0.0818

1070

1122.56

-52.56

2762.31

4271.99

0.0491

3960

1527.26

2432.74

5918205.83

8734155.48

0.61

860

1015.54

-155.54

24193.46

20920.6

0.18

1100

1035.06

64.94

4216.92

9093.62

0.059

1250

882.01

367.99

135418.2

60201.76

0.29

910

1100.79

-190.79

36398.93

8956.64

0.21

850

1054.95

-204.95

42003.25

23913.39

0.24

900

1054.95

-154.95

24008.56

10949.43

0.17

1400

1101.55

298.45

89073.89

156309.9

0.21

950

635.23

314.77

99082.93

2985.48

0.33

960

825.37

134.63

18126.45

1992.69

0.14

1600

1072.15

527.85

278627.96

354454.08

0.33

1300

1095.79

204.21

41702.99

87237.8

0.16

1150

477.36

672.64

452448.88

21129.66

0.58

980

1253.91

-273.91

75024.89

607.11

0.28

1000

1154.73

-154.73

23940.82

21.53

0.15

820

927.09

-107.09

11468.17

34091.76

0.13

800

970.3

-170.3

29001.63

41877.34

0.21

1250

1427.72

-177.72

31584.34

60201.76

0.14

1120

1045.29

74.71

5582.31

13308.04

0.0667

660

616.2

43.8

1918.48

118776.41

0.0664

680

587

93

8648.82

105390.83

0.14

790

896.71

-106.71

11387.69

46070.13

0.14

800

834.08

-34.08

1161.78

41877.34

0.0426

920

703.28

216.72

46967.67

7163.85

0.24

630

635.67

-5.67

32.14

140354.78

0.009

800

805.15

-5.15

26.53

41877.34

0.00644

720

852.58

-132.58

17577.38

81019.66

0.18

900

914.28

-14.28

203.89

10949.43

0.0159

970

1316.59

-346.59

120121.36

1199.9

0.36

780

955.11

-175.11

30663.67

50462.92

0.22

850

571.56

278.44

77528.04

23913.39

0.33

79

237

-158

24965.43

856808.55

2

1200

848.41

351.59

123615.5

38165.71

0.29

610

863.66

-253.66

64343.18

155740.36

0.42

670

952.54

-282.54

79831.63

111983.62

0.42

630

991.26

-361.26

130507.72

140354.78

0.57

700

641.13

58.87

3465.9

92805.25

0.0841

710

620.22

89.78

8060.72

86812.46

0.13

520

591.17

-71.17

5065.25

234875.48

0.14

 

 

 

 

0

13123967.15

18395389.83

21.06


Средняя ошибка аппроксимации

 

Оценка дисперсии равна:

se2 = (Y - X*Y(X))T(Y - X*Y(X)) = 13123967.15

Несмещенная оценка дисперсии равна:

 

Оценка среднеквадратичного отклонения (стандартная ошибка для оценки Y):

 

Найдем оценку ковариационной матрицы вектора k = S • (XTX)-1

 313.71

0.12

-5.03

-4.57

-45.98

-20.88

-14.81

0.12

0.000991

-0.00431

0.00518

-0.0171

0.00227

-0.0155

-5.03

-0.00431

0.14

-0.17

0.37

0.15

0.0747

-4.57

0.00518

-0.17

1.81

0.35

-1.29

-0.54

-45.98

-0.0171

0.37

0.35

29.96

15.2

2.16

-20.88

0.00227

0.15

-1.29

15.2

28.78

1.19

-14.81

-0.0155

0.0747

-0.54

2.16

1.19

7.58


 

 

Дисперсии параметров модели определяются соотношением S2i = Kii, т.е. это элементы, лежащие на главной диагонали

Показатели тесноты связи факторов с результатом.

Если факторные признаки различны по своей сущности и (или) имеют различные единицы измерения, то коэффициенты регрессии bj при разных факторах являются несопоставимыми. Поэтому уравнение регрессии дополняют соизмеримыми показателями тесноты связи фактора с результатом, позволяющими ранжировать факторы по силе влияния на результат.

К таким показателям тесноты связи относят: частные коэффициенты эластичности, β–коэффициенты, частные коэффициенты корреляции.

Частные коэффициенты эластичности.

С целью расширения возможностей содержательного анализа модели регрессии используются частные коэффициенты эластичности, которые определяются по формуле:

 

Частный коэффициент эластичности показывает, насколько процентов в среднем изменяется признак-результат у с увеличением признака-фактора хj на 1% от своего среднего уровня при фиксированном положении других факторов модели.

 

Частный коэффициент эластичности |E1| < 1. Следовательно, его влияние на результативный признак Y незначительно.

 

Частные коэффициент эластичности |E2| > 1. Следовательно, он существенно влияет на результативный признак Y.

 

Частный коэффициент эластичности |E3| < 1. Следовательно, его влияние на результативный признак Y незначительно.

 

Частный коэффициент эластичности |E4| < 1. Следовательно, его влияние на результативный признак Y незначительно.

 

Частный коэффициент эластичности |E5| < 1. Следовательно, его влияние на результативный признак Y незначительно.

 

Частный коэффициент эластичности |E6| < 1. Следовательно, его влияние на результативный признак Y незначительно.

Стандартизированные частные коэффициенты регрессии.

Стандартизированные частные коэффициенты регрессии - β-коэффициенты (βj) показывают, на какую часть своего среднего квадратического отклонения S(у) изменится признак-результат y с изменением соответствующего фактора хj на величину своего среднего квадратического отклонения (Sхj) при неизменном влиянии прочих факторов (входящих в уравнение).

По максимальному βj можно судить, какой фактор сильнее влияет на результат Y.

По коэффициентам эластичности и β-коэффициентам могут быть сделаны противоположные выводы. Причины этого: а) вариация одного фактора очень велика; б) разнонаправленное воздействие факторов на результат.

Коэффициент βj может также интерпретироваться как показатель прямого (непосредственного) влияния j-ого фактора (xj) на результат (y). Во множественной регрессии j-ый фактор оказывает не только прямое, но и косвенное (опосредованное) влияние на результат (т.е. влияние через другие факторы модели).

Косвенное влияние измеряется величиной: ∑βirxj,xi, где m - число факторов в модели. Полное влияние j-ого фактора на результат равное сумме прямого и косвенного влияний измеряет коэффициент линейной парной корреляции данного фактора и результата - rxj,y.

Информация о работе Модель простой регрессии