Модель простой регрессии

Автор работы: Пользователь скрыл имя, 12 Марта 2016 в 11:51, контрольная работа

Описание работы

Математические модели широко используются в экономике, в финансах, в общественных науках. Обычно модели строятся и верифицируются на основе имеющихся наблюдений изучаемого показателя и, так называемых, объясняющих факторов. Язык экономики все больше становится математическим, а саму экономику все чаще упоминают как одну из наиболее математизированных наук. В течение последних десятилетий математические и, в частности, статистические методы в экономике стремительно развиваются. Свидетельством признания эконометрики является присуждение за наиболее выдающиеся работы в этой области Нобелевских премий по экономике: Р.Фришу и Я. Тинбергу (1969) за разработку математических методов анализа экономических процессов, Л. Клейну (1980) за создание эконометрических моделей и их применение к анализу экономических колебаний и экономической политике, Т. Хаавельмо (1989) за работы в области вероятностных основ эконометрики и анализ одновременных экономических структур, Дж. Хекману и Д. Макфаддену (2000) за развитие методов анализа селективных выборок и моделей дискретного выбора.

Файлы: 1 файл

Kursovaya_Model_prostoy_regressii_116529.doc

— 1.05 Мб (Скачать файл)

Найдем парные коэффициенты корреляции.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Признаки x и y

∑xi

 

∑yi

 

∑xiyi

 

Для y и x1

6192

72

86399

1004.64

5812150

67583.14

Для y и x2

3751

43.616

86399

1004.64

3854104

44815.163

Для y и x3

625

7.267

86399

1004.64

630254

7328.535

Для y и x4

51

0.593

86399

1004.64

47509

552.43

Для y и x5

36

0.419

86399

1004.64

35500

412.791

Для y и x6

168

1.953

86399

1004.64

160167

1862.407

Для x1  и x2

3751

43.616

6192

72

284459

3307.663

Для x1  и x3

625

7.267

6192

72

45032

523.628

Для x1  и x4

51

0.593

6192

72

3828

44.512

Для x1  и x5

36

0.419

6192

72

2360

27.442

Для x1  и x6

168

1.953

6192

72

12952

150.605

Для x2  и x3

625

7.267

3751

43.616

27630

321.279

Для x2  и x4

51

0.593

3751

43.616

2165

25.174

Для x2  и x5

36

0.419

3751

43.616

1595

18.547

Для x2  и x6

168

1.953

3751

43.616

7358

85.558

Для x3  и x4

51

0.593

625

7.267

351

4.081

Для x3  и x5

36

0.419

625

7.267

282

3.279

Для x3  и x6

168

1.953

625

7.267

1240

14.419

Для x4  и x5

36

0.419

51

0.593

10

0.116

Для x4  и x6

168

1.953

51

0.593

95

1.105

Для x5  и x6

168

1.953

36

0.419

71

0.826


 

Признаки x и y

       

Для y и x1

5703.372

213899.882

75.521

462.493

Для y и x2

45.213

213899.882

6.724

462.493

Для y и x3

3.312

213899.882

1.82

462.493

Для y и x4

0.241

213899.882

0.491

462.493

Для y и x5

0.243

213899.882

0.493

462.493

Для y и x6

0.672

213899.882

0.82

462.493

Для x1  и x2

45.213

5703.372

6.724

75.521

Для x1  и x3

3.312

5703.372

1.82

75.521

Для x1  и x4

0.241

5703.372

0.491

75.521

Для x1  и x5

0.243

5703.372

0.493

75.521

Для x1  и x6

0.672

5703.372

0.82

75.521

Для x2  и x3

3.312

45.213

1.82

6.724

Для x2  и x4

0.241

45.213

0.491

6.724

Для x2  и x5

0.243

45.213

0.493

6.724

Для x2  и x6

0.672

45.213

0.82

6.724

Для x3  и x4

0.241

3.312

0.491

1.82

Для x3  и x5

0.243

3.312

0.493

1.82

Для x3  и x6

0.672

3.312

0.82

1.82

Для x4  и x5

0.243

0.241

0.493

0.491

Для x4  и x6

0.672

0.241

0.82

0.491

Для x5  и x6

0.672

0.243

0.82

0.493


Матрица парных коэффициентов корреляции R:

 

-

y

x1

x2

x3

x4

x5

x6

y

1

-0.136

0.32

0.0325

-0.191

-0.034

-0.264

x1

-0.136

1

0.329

0.00271

0.0489

-0.0724

0.161

x2

0.32

0.329

1

0.351

-0.209

0.087

0.0643

x3

0.0325

0.00271

0.351

1

-0.255

0.264

0.149

x4

-0.191

0.0489

-0.209

-0.255

1

-0.544

-0.134

x5

-0.034

-0.0724

0.087

0.264

-0.544

1

0.0194

x6

-0.264

0.161

0.0643

0.149

-0.134

0.0194

1


Коллинеарность – зависимость между факторами. В качестве критерия мультиколлинеарности может быть принято соблюдение следующих неравенств:

r(xjy) > r(xkxj) ; r(xky) > r(xkxj).

Если одно из неравенств не соблюдается, то исключается тот параметр xk или xj, связь которого с результативным показателем Y оказывается наименее тесной.

Для отбора наиболее значимых факторов xi учитываются следующие условия:

- связь между результативным  признаком и факторным должна  быть выше межфакторной связи;

- связь между факторами  должна быть не более 0.7. Если в матрице есть межфакторный коэффициент корреляции rxjxi > 0.7, то в данной модели множественной регрессии существует мультиколлинеарность.;

- при высокой межфакторной  связи признака отбираются факторы  с меньшим коэффициентом корреляции  между ними.

Если факторные переменные связаны строгой функциональной  зависимостью, то говорят о полной мультиколлинеарности. В этом случае среди столбцов матрицы факторных переменных Х имеются линейно зависимые столбцы, и, по свойству определителей матрицы, det(XTX = 0).

Вид мультиколлинеарности, при котором факторные переменные связаны некоторой стохастической зависимостью, называется частичной. Если между факторными переменными имеется высокая степень корреляции, то матрица (XTX) близка к вырожденной, т. е. det(XTX ≧ 0) (чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии).

В нашем случае все парные коэффициенты корреляции |r|<0.7, что говорит об отсутствии мультиколлинеарности факторов.

Анализ первой строки этой матрицы позволяет произвести отбор факторных признаков, которые могут быть включены в модель множественной корреляционной зависимости. Факторные признаки, у которых |ryxi| < 0.5 исключают из модели. Можно дать следующую качественную интерпретацию возможных значений коэффициента корреляции (по шкале Чеддока): если |r|>0.3 – связь практически отсутствует; 0.3 ≤ |r| ≤ 0.7 - связь средняя; 0.7 ≤ |r| ≤ 0.9 – связь сильная; |r| > 0.9  – связь весьма сильная.

Проверим значимость полученных парных коэффициентов корреляции с помощью t-критерия Стьюдента. Коэффициенты, для которых значения t-статистики по модулю больше найденного критического значения, считаются значимыми.

Рассчитаем наблюдаемые значения t-статистики для ryx1 по формуле:

 

где m = 1 - количество факторов в уравнении регрессии.

 

По таблице Стьюдента находим Tтабл

tкрит(n-m-1;α/2) = (84;0.025) = 1.984

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Рассчитаем наблюдаемые значения t-статистики для ryx2 по формуле:

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Рассчитаем наблюдаемые значения t-статистики для ryx3 по формуле:

 

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Рассчитаем наблюдаемые значения t-статистики для ryx4 по формуле:

 

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Рассчитаем наблюдаемые значения t-статистики для ryx5 по формуле:

 

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Рассчитаем наблюдаемые значения t-статистики для ryx6 по формуле:

 

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Таким образом, связь между (y и xx2 ), (y и xx6 ) является существенной, т.е. цена квартир зависит от жилой площади и расположения в центре или на окраине.

Наибольшее влияние на результативный признак оказывает фактор x2 (r = 0.32), значит, при построении модели он войдет в регрессионное уравнение первым.

Тестирование и устранение мультиколлинеарности.

Наиболее полным алгоритмом исследования мультиколлинеарности является алгоритм Фаррара-Глобера. С его помощью тестируют три вида мультиколлинеарности:

1. Всех факторов (χ2 - хи-квадрат).

2. Каждого фактора с  остальными (критерий Фишера).

3. Каждой пары факторов (критерий Стьюдента).

 

Проверим переменные на мультиколлинеарность методом Фаррара-Глоубера по первому виду статистических критериев (критерий "хи-квадрат").

Формула для расчета значения статистики Фаррара-Глоубера:

χ2 = -[n-1-(2m+5)/6]ln(det[R])

где m = 6 - количество факторов, n = 86 - количество наблюдений, det[R] - определитель матрицы парных коэффициентов корреляции R.

Сравниваем его с табличным значением при v = m/2(m-1) = 15 степенях свободы и уровне значимости α. Если χ2 > χтабл2, то в векторе факторов есть присутствует мультиколлинеарность.

Информация о работе Модель простой регрессии