Автор работы: Пользователь скрыл имя, 12 Марта 2016 в 11:51, контрольная работа
Математические модели широко используются в экономике, в финансах, в общественных науках. Обычно модели строятся и верифицируются на основе имеющихся наблюдений изучаемого показателя и, так называемых, объясняющих факторов. Язык экономики все больше становится математическим, а саму экономику все чаще упоминают как одну из наиболее математизированных наук. В течение последних десятилетий математические и, в частности, статистические методы в экономике стремительно развиваются. Свидетельством признания эконометрики является присуждение за наиболее выдающиеся работы в этой области Нобелевских премий по экономике: Р.Фришу и Я. Тинбергу (1969) за разработку математических методов анализа экономических процессов, Л. Клейну (1980) за создание эконометрических моделей и их применение к анализу экономических колебаний и экономической политике, Т. Хаавельмо (1989) за работы в области вероятностных основ эконометрики и анализ одновременных экономических структур, Дж. Хекману и Д. Макфаддену (2000) за развитие методов анализа селективных выборок и моделей дискретного выбора.
χтабл2(15;0.05) = 24.99579
Проверим переменные на мультиколлинеарность по второму виду статистических критериев (критерий Фишера).
Определяем обратную матрицу D = R-1:
1.4 |
0.32 |
-0.57 |
0.12 |
0.37 |
0.28 |
0.38 |
0.32 |
1.26 |
-0.59 |
0.18 |
-0.0505 |
0.0819 |
-0.12 |
-0.57 |
-0.59 |
1.58 |
-0.49 |
0.11 |
-0.00659 |
-0.0676 |
0.12 |
0.18 |
-0.49 |
1.27 |
0.0963 |
-0.22 |
-0.14 |
0.37 |
-0.0505 |
0.11 |
0.0963 |
1.62 |
0.85 |
0.28 |
0.28 |
0.0819 |
-0.00659 |
-0.22 |
0.85 |
1.53 |
0.18 |
0.38 |
-0.12 |
-0.0676 |
-0.14 |
0.28 |
0.18 |
1.18 |
Вычисляем F-критерии Фишера:
где dkk - диагональные элементы матрицы.
Рассчитанные значения критериев сравниваются с табличными при v1=n-m и v2=m-1 степенях свободы и уровне значимости α. Если Fk > FТабл, то k-я переменная мультиколлинеарна с другими.
v1=86-6 = 80; v2=6-1 = 5. FТабл(80;5) = 4.4
Поскольку F1 > Fтабл, то переменная y мультиколлинеарна с другими.
Поскольку F2 ≤ Fтабл, то переменная x1 немультиколлинеарна с другими.
Поскольку F3 > Fтабл, то переменная x2 мультиколлинеарна с другими.
Поскольку F4 ≤ Fтабл, то переменная x3 немультиколлинеарна с другими.
Поскольку F5 > Fтабл, то переменная x4 мультиколлинеарна с другими.
Поскольку F6 > Fтабл, то переменная x5 мультиколлинеарна с другими.
Поскольку F7 ≤ Fтабл, то переменная x6 немультиколлинеарна с другими.
Проверим переменные на мультиколлинеарность по третьему виду статистических критериев (критерий Стьюдента). Для этого найдем частные коэффициенты корреляции.
Частные коэффициенты корреляции.
Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и xi) при условии, что влияние на них остальных факторов (xj) устранено.
На основании частных коэффициентов можно сделать вывод об обоснованности включения переменных в регрессионную модель. Если значение коэффициента мало или он незначим, то это означает, что связь между данным фактором и результативной переменной либо очень слаба, либо вовсе отсутствует, поэтому фактор можно исключить из модели.
Можно сделать вывод, что при построении регрессионного уравнения следует отобрать факторы x2 , x6 .
Модель регрессии в стандартном масштабе.
Модель регрессии в стандартном масштабе предполагает, что все значения исследуемых признаков переводятся в стандарты (стандартизованные значения) по формулам:
где хji - значение переменной хji в i-ом наблюдении.
Таким образом, начало отсчета каждой стандартизованной переменной совмещается с ее средним значением, а в качестве единицы изменения принимается ее среднее квадратическое отклонение S.
Если связь между переменными в естественном масштабе линейная, то изменение начала отсчета и единицы измерения этого свойства не нарушат, так что и стандартизованные переменные будут связаны линейным соотношением:
ty = ∑βjtxj
Для оценки β-коэффциентов применим МНК. При этом система нормальных уравнений будет иметь вид:
rx1y=β1+rx1x2•β2 + ... + rx1xm•βm
rx2y=rx2x1•β1 + β2 + ... + rx2xm•βm
...
rxmy=rxmx1•β1 + rxmx2•β2 + ... + βm
Для наших данных (берем из матрицы парных коэффициентов корреляции):
-0.136 = β1 + 0.329β2 + 0.00271β3 + 0.0489β4 -0.0724β5 + 0.161β6
0.32 = 0.329β1 + β2 + 0.351β3 -0.209β4 + 0.087β5 + 0.0643β6
0.0325 = 0.00271β1 + 0.351β2 + β3 -0.255β4 + 0.264β5 + 0.149β6
-0.191 = 0.0489β1 -0.209β2 -0.255β3 + β4 -0.544β5 -0.134β6
-0.034 = -0.0724β1 + 0.087β2 + 0.264β3 -0.544β4 + β5 + 0.0194β6
-0.264 = 0.161β1 + 0.0643β2 + 0.149β3 -0.134β4 + 0.0194β5 + β6
Данную систему линейных уравнений решаем методом Гаусса: β1 = -0.227; β2 = 0.404; β3 = -0.0823; β4 = -0.262; β5 = -0.201; β6 = -0.272;
Стандартизированная форма уравнения регрессии имеет вид:
y0 = -0.227x1 + 0.404x2 -0.0823x3 -0.262x4 -0.201x5 -0.272x6
Найденные из данной системы β–коэффициенты позволяют определить значения коэффициентов в регрессии в естественном масштабе по формулам:
3. Анализ параметров уравнения регрессии.
Перейдем к статистическому анализу полученного уравнения регрессии: проверке значимости уравнения и его коэффициентов, исследованию абсолютных и относительных ошибок аппроксимации
Для несмещенной оценки дисперсии проделаем следующие вычисления:
Несмещенная ошибка ε = Y - Y(x) = Y - X*s (абсолютная ошибка аппроксимации)
Y |
Y(x) |
ε = Y - Y(x) |
ε2 |
(Y-Yср)2 |
|ε : Y| |
820 |
1155.44 |
-335.44 |
112522.19 |
34091.76 |
0.41 |
2310 |
1399.96 |
910.04 |
828169.83 |
1703965.94 |
0.39 |
1550 |
1211.43 |
338.57 |
114632.45 |
297418.04 |
0.22 |
1530 |
1186.4 |
343.6 |
118063.12 |
276003.62 |
0.22 |
1600 |
1157.2 |
442.8 |
196073.44 |
354454.08 |
0.28 |
870 |
1218.01 |
-348.01 |
121111.13 |
18127.8 |
0.4 |
870 |
1374.78 |
-504.78 |
254804.7 |
18127.8 |
0.58 |
1440 |
1259.94 |
180.06 |
32420.46 |
189538.73 |
0.13 |
1100 |
1374.78 |
-274.78 |
75505.06 |
9093.62 |
0.25 |
730 |
859.99 |
-129.99 |
16898.14 |
75426.87 |
0.18 |
1020 |
1034.32 |
-14.32 |
204.98 |
235.94 |
0.014 |
800 |
1154.42 |
-354.42 |
125612.42 |
41877.34 |
0.44 |
800 |
1158.59 |
-358.59 |
128585.41 |
41877.34 |
0.45 |
750 |
1158.59 |
-408.59 |
166944.22 |
64841.29 |
0.54 |
850 |
1604.15 |
-754.15 |
568743.99 |
23913.39 |
0.89 |
1350 |
1150.4 |
199.6 |
39840.33 |
119273.85 |
0.15 |
1350 |
1369.26 |
-19.26 |
371.01 |
119273.85 |
0.0143 |
1350 |
1382.15 |
-32.15 |
1033.4 |
119273.85 |
0.0238 |
2460 |
1315.56 |
1144.44 |
1309741.25 |
2118074.08 |
0.47 |
1000 |
1079.33 |
-79.33 |
6293.47 |
21.53 |
0.0793 |
830 |
734.85 |
95.15 |
9053.93 |
30498.97 |
0.11 |
820 |
734.85 |
85.15 |
7250.89 |
34091.76 |
0.1 |
820 |
923.6 |
-103.6 |
10732.52 |
34091.76 |
0.13 |
930 |
734.85 |
195.15 |
38084.36 |
5571.06 |
0.21 |
820 |
922.21 |
-102.21 |
10446.47 |
34091.76 |
0.12 |
1100 |
1208.65 |
-108.65 |
11803.97 |
9093.62 |
0.0988 |
870 |
886.41 |
-16.41 |
269.35 |
18127.8 |
0.0189 |
800 |
1077.94 |
-277.94 |
77251.5 |
41877.34 |
0.35 |
980 |
1080.72 |
-100.72 |
10144.78 |
607.11 |
0.1 |
870 |
1162.39 |
-292.39 |
85493.49 |
18127.8 |
0.34 |
870 |
870.22 |
-0.22 |
0.0466 |
18127.8 |
0.000248 |
800 |
1054.95 |
-254.95 |
64997.95 |
41877.34 |
0.32 |
790 |
1054.95 |
-264.95 |
70196.88 |
46070.13 |
0.34 |
700 |
800.12 |
-100.12 |
10024.46 |
92805.25 |
0.14 |
740 |
645.78 |
94.22 |
8877.68 |
70034.08 |
0.13 |
820 |
1054.95 |
-234.95 |
55200.07 |
34091.76 |
0.29 |
830 |
1054.95 |
-224.95 |
50601.13 |
30498.97 |
0.27 |
870 |
1057.73 |
-187.73 |
35241.32 |
18127.8 |
0.22 |
850 |
1054.95 |
-204.95 |
42003.25 |
23913.39 |
0.24 |
790 |
1054.95 |
-264.95 |
70196.88 |
46070.13 |
0.34 |
990 |
1056.34 |
-66.34 |
4400.58 |
214.32 |
0.067 |
820 |
866.2 |
-46.2 |
2134.16 |
34091.76 |
0.0563 |
980 |
1036.45 |
-56.45 |
3186.84 |
607.11 |
0.0576 |
980 |
1249.84 |
-269.84 |
72812.48 |
607.11 |
0.28 |
1200 |
979.81 |
220.19 |
48483.78 |
38165.71 |
0.18 |
1130 |
1222.42 |
-92.42 |
8541.89 |
15715.25 |
0.0818 |
1070 |
1122.56 |
-52.56 |
2762.31 |
4271.99 |
0.0491 |
3960 |
1527.26 |
2432.74 |
5918205.83 |
8734155.48 |
0.61 |
860 |
1015.54 |
-155.54 |
24193.46 |
20920.6 |
0.18 |
1100 |
1035.06 |
64.94 |
4216.92 |
9093.62 |
0.059 |
1250 |
882.01 |
367.99 |
135418.2 |
60201.76 |
0.29 |
910 |
1100.79 |
-190.79 |
36398.93 |
8956.64 |
0.21 |
850 |
1054.95 |
-204.95 |
42003.25 |
23913.39 |
0.24 |
900 |
1054.95 |
-154.95 |
24008.56 |
10949.43 |
0.17 |
1400 |
1101.55 |
298.45 |
89073.89 |
156309.9 |
0.21 |
950 |
635.23 |
314.77 |
99082.93 |
2985.48 |
0.33 |
960 |
825.37 |
134.63 |
18126.45 |
1992.69 |
0.14 |
1600 |
1072.15 |
527.85 |
278627.96 |
354454.08 |
0.33 |
1300 |
1095.79 |
204.21 |
41702.99 |
87237.8 |
0.16 |
1150 |
477.36 |
672.64 |
452448.88 |
21129.66 |
0.58 |
980 |
1253.91 |
-273.91 |
75024.89 |
607.11 |
0.28 |
1000 |
1154.73 |
-154.73 |
23940.82 |
21.53 |
0.15 |
820 |
927.09 |
-107.09 |
11468.17 |
34091.76 |
0.13 |
800 |
970.3 |
-170.3 |
29001.63 |
41877.34 |
0.21 |
1250 |
1427.72 |
-177.72 |
31584.34 |
60201.76 |
0.14 |
1120 |
1045.29 |
74.71 |
5582.31 |
13308.04 |
0.0667 |
660 |
616.2 |
43.8 |
1918.48 |
118776.41 |
0.0664 |
680 |
587 |
93 |
8648.82 |
105390.83 |
0.14 |
790 |
896.71 |
-106.71 |
11387.69 |
46070.13 |
0.14 |
800 |
834.08 |
-34.08 |
1161.78 |
41877.34 |
0.0426 |
920 |
703.28 |
216.72 |
46967.67 |
7163.85 |
0.24 |
630 |
635.67 |
-5.67 |
32.14 |
140354.78 |
0.009 |
800 |
805.15 |
-5.15 |
26.53 |
41877.34 |
0.00644 |
720 |
852.58 |
-132.58 |
17577.38 |
81019.66 |
0.18 |
900 |
914.28 |
-14.28 |
203.89 |
10949.43 |
0.0159 |
970 |
1316.59 |
-346.59 |
120121.36 |
1199.9 |
0.36 |
780 |
955.11 |
-175.11 |
30663.67 |
50462.92 |
0.22 |
850 |
571.56 |
278.44 |
77528.04 |
23913.39 |
0.33 |
79 |
237 |
-158 |
24965.43 |
856808.55 |
2 |
1200 |
848.41 |
351.59 |
123615.5 |
38165.71 |
0.29 |
610 |
863.66 |
-253.66 |
64343.18 |
155740.36 |
0.42 |
670 |
952.54 |
-282.54 |
79831.63 |
111983.62 |
0.42 |
630 |
991.26 |
-361.26 |
130507.72 |
140354.78 |
0.57 |
700 |
641.13 |
58.87 |
3465.9 |
92805.25 |
0.0841 |
710 |
620.22 |
89.78 |
8060.72 |
86812.46 |
0.13 |
520 |
591.17 |
-71.17 |
5065.25 |
234875.48 |
0.14 |
|
|
0 |
13123967.15 |
18395389.83 |
21.06 |
Средняя ошибка аппроксимации
Оценка дисперсии равна:
se2 = (Y - X*Y(X))T(Y - X*Y(X)) = 13123967.15
Несмещенная оценка дисперсии равна:
Оценка среднеквадратичного отклонения (стандартная ошибка для оценки Y):
Найдем оценку ковариационной матрицы вектора k = S • (XTX)-1
313.71 |
0.12 |
-5.03 |
-4.57 |
-45.98 |
-20.88 |
-14.81 |
0.12 |
0.000991 |
-0.00431 |
0.00518 |
-0.0171 |
0.00227 |
-0.0155 |
-5.03 |
-0.00431 |
0.14 |
-0.17 |
0.37 |
0.15 |
0.0747 |
-4.57 |
0.00518 |
-0.17 |
1.81 |
0.35 |
-1.29 |
-0.54 |
-45.98 |
-0.0171 |
0.37 |
0.35 |
29.96 |
15.2 |
2.16 |
-20.88 |
0.00227 |
0.15 |
-1.29 |
15.2 |
28.78 |
1.19 |
-14.81 |
-0.0155 |
0.0747 |
-0.54 |
2.16 |
1.19 |
7.58 |
Дисперсии параметров модели определяются соотношением S2i = Kii, т.е. это элементы, лежащие на главной диагонали
Показатели тесноты связи факторов с результатом.
Если факторные признаки различны по своей сущности и (или) имеют различные единицы измерения, то коэффициенты регрессии bj при разных факторах являются несопоставимыми. Поэтому уравнение регрессии дополняют соизмеримыми показателями тесноты связи фактора с результатом, позволяющими ранжировать факторы по силе влияния на результат.
К таким показателям тесноты связи относят: частные коэффициенты эластичности, β–коэффициенты, частные коэффициенты корреляции.
Частные коэффициенты эластичности.
С целью расширения возможностей содержательного анализа модели регрессии используются частные коэффициенты эластичности, которые определяются по формуле:
Частный коэффициент эластичности показывает, насколько процентов в среднем изменяется признак-результат у с увеличением признака-фактора хj на 1% от своего среднего уровня при фиксированном положении других факторов модели.
Частный коэффициент эластичности |E1| < 1. Следовательно, его влияние на результативный признак Y незначительно.
Частные коэффициент эластичности |E2| > 1. Следовательно, он существенно влияет на результативный признак Y.
Частный коэффициент эластичности |E3| < 1. Следовательно, его влияние на результативный признак Y незначительно.
Частный коэффициент эластичности |E4| < 1. Следовательно, его влияние на результативный признак Y незначительно.
Частный коэффициент эластичности |E5| < 1. Следовательно, его влияние на результативный признак Y незначительно.
Частный коэффициент эластичности |E6| < 1. Следовательно, его влияние на результативный признак Y незначительно.
Стандартизированные частные коэффициенты регрессии.
Стандартизированные частные коэффициенты регрессии - β-коэффициенты (βj) показывают, на какую часть своего среднего квадратического отклонения S(у) изменится признак-результат y с изменением соответствующего фактора хj на величину своего среднего квадратического отклонения (Sхj) при неизменном влиянии прочих факторов (входящих в уравнение).
По максимальному βj можно судить, какой фактор сильнее влияет на результат Y.
По коэффициентам эластичности и β-коэффициентам могут быть сделаны противоположные выводы. Причины этого: а) вариация одного фактора очень велика; б) разнонаправленное воздействие факторов на результат.
Коэффициент βj может также интерпретироваться как показатель прямого (непосредственного) влияния j-ого фактора (xj) на результат (y). Во множественной регрессии j-ый фактор оказывает не только прямое, но и косвенное (опосредованное) влияние на результат (т.е. влияние через другие факторы модели).
Косвенное влияние измеряется величиной: ∑βirxj,xi, где m - число факторов в модели. Полное влияние j-ого фактора на результат равное сумме прямого и косвенного влияний измеряет коэффициент линейной парной корреляции данного фактора и результата - rxj,y.