Автор работы: Пользователь скрыл имя, 02 Апреля 2015 в 19:12, курс лекций
Предмет, цель и задачи эконометрики.
Эконометрика — наука, изуч колич и кач экономич взаимосвязи с помощью математических и статистических методов имоделей. Современное определение предмета эконометрики было выработано в уставе Эконометрического общества, которое главными целями назвало исп-е статистики и математики для развития экономической теории
- определение
- Тест Вайта:
Имеет асимптотическое распределение с количеством степеней свободы, равным количеству регрессоров в уравнении за вычетом константы.
Схема проведения теста:
- определение
- Тест Голдфелда-Кванта:
(имеет распределение Фишера)
Уравнение при
модель примет вид:
Уравнение регрессии примет вид: , а исходные данные будут иметь вид:
Соответственно получим следующую систему нормальных уравнений:
Пусть y – издержки производства,
x1 – объем продукции,
x2 – основные производственные фонды,
x3– численность работников, тогда уравнение
модель издержек производства с объемными факторами.
Предположим, что пропорциональна квадрату численности работников x3,
- затраты на одного работника,
- производительность труда
- фондовооруженность труда.
Коэффициенты регрессии меняют экономическое содержание:
- Последствия автокорреляции
1. - оценка будет несмещенная
(это хорошо!);
- оценка может быть несостоятельна;
- неэффективная оценка.
2. - смещенная оценка.
Проверка гипотез о значимости отдельных коэффициентов и модели в целом – некорректна.
Тестируется гипотеза
Схема проведения теста:
- Тест Дарбина-Уотсона.
Тестируется гипотеза
Схема проведения теста:
- Тест Дарбина
Тестируется гипотеза
Если верна нулевая гипотеза H0, то статистика h имеет асимптотическое стандартное нормальное распределение:
Схема проведения теста:
где - дисперсия коэффициента γ,
- Методы устранения
Одним
из наиболее распространенных способов
регулирования временного ряда является
построение аналитической функции, характеризующей
зависимость уровней ряда от времени или
тренда. Этот способ называется аналитическим
выравниванием временного ряда. Существует
3 основные метода аналитического выравнивания(выделение
тренда):1)МНК2)метод скользящей средней3)метод
экспоненциального сглаживания. После
выделения тренда и проведения его анализов
необходимо соединить составляющую процесса.
Наибольшие трудности в использовании
аппарата множественной регрессии возникают
при наличии мультиколлинеарности факторов,
когда более чем два фактора связаны между
собой линейной зависимостью, т.е. имеет
место совокупное воздействие факторов
друг на друга. Наличие мультиколлинеарности
факторов может означать, что некоторые
факторы будут всегда действовать в унисон.
!Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий:
- затрудняется интерпретация
- оценки параметров ненадежны,
обнаруживают большие
Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами.
Чем det|R| ближе к нулю, тем сильнее мультиколлинеарность
факторов и ненадежнее результаты множественной
регрессии.
!Существует несколько признаков,
по которым может быть установлено наличие
мультиколлинеарности.
1. Совокупный
коэффициент множественной
2. Парная
корреляция между
3. Высокие частные коэффициенты
корреляции (в случае большего
количества малозначимых
!Методы устранения мультиколлинеарности.
Рассмотрим основные методы.
1. Исключение переменной(ых) из модели. Простейшим методом устранения мультиколлинеарности является исключение из модели одной или ряда коррелированных переменных.
Однако в этой ситуации возможны ошибки спецификации. Например, при исследовании спроса на некоторое благо в качестве объясняющих переменных можно использовать цену данного блага и цены заменителей данного блага, которые зачастую коррелируют друг с другом.
Исключив из модели цены заменителей, скорее всего, будет допущена ошибка спецификации. Вследствие этого можно получить смещенные оценки и сделать необоснованные выводы. Поэтому в прикладных эконометрических моделях желательно не исключать объясняющие переменные до тех пор, пока коллинеарность не станет серьезной проблемой.
2. Получение дополнительных
Иногда для уменьшения мультиколлинеарности достаточно увеличить объем выборки. Увеличение количества данных сокращает дисперсии коэффициентов регрессии и, тем самым, увеличивает их статистическую значимость.
Однако получение новой выборки или расширение старой не всегда возможно или связано с серьезными издержками.
3. Изменение спецификации модели. В ряде случаев проблема мультиколлинеарности может быть решена путем изменения спецификации модели: либо изменяется форма модели, либо добавляются объясняющие переменные, не учтенные в первоначальной модели, но существенно влияющие на зависимую переменную.
Если данный метод имеет основания, то его использование уменьшает сумму квадратов отклонений, тем самым, сокращая стандартную ошибку регрессии. Это приводит к уменьшению стандартных ошибок коэффициентов.
4. Использование предварительной информации о некоторых параметрах. Иногда при построении модели множественной регрессии можно воспользоваться предварительной информацией, в частности известными значениями некоторых коэффициентов регрессии. Вполне вероятно, что значения коэффициентов, рассчитанные для каких-либо предварительных (обычно более простых) моделей либо для аналогичной модели по ранее полученной выборке, могут быть использованы для разрабатываемой в данный момент модели.
Ограниченность использования данного метода обусловлена тем, что, во-первых, получение предварительной информации зачастую затруднительно, а, во-вторых, вероятность того, что выделенный коэффициент регрессии будет одним и тем же для различных моделей, невысока.
Преобразование переменных. В ряде случаев минимизировать либо вообще устранить проблему мультиколлинеарности можно с помощью преобразования переменных.
Например, пусть эмпирическое уравнение регрессии имеет следующий вид:
При этом х1 и х2 – это коррелированные переменные.
В этой ситуации можно попытаться определять следующие регрессионные зависимости относительных величин:
Вполне вероятно, что в этих моделях проблема мультиколлинеарности будет отсутствовать. Возможны и другие преобразования, близкие по своей сути к описанным выше. Например, если в уравнении рассматриваются взаимосвязи номинальных экономических показателей, то для снижения мультиколлинеарности можно попытаться перейти к реальным показателям и т.п.
Различают два класса нелинейных регрессионных моделей:
- модели, нелинейные относительно фактора, но линейные по параметрам;
-
модели нелинейные по
Модели, нелинейные относительно факторов, но линейные по параметрам. Введением новых переменных такую модель можно свести к линейной, для оценки параметров которой используется обычный метод наименьших квадратов.
Рассмотрим примеры линеаризующих преобразований:
1) Полиномиальная модель: .
Соответствующая линейная модель:
, где .
2) Гиперболическая модель: .
Соответствующая линейная модель: , где .
3) Логарифмическая модель: .
Соответствующая линейная модель: , где .
Следует отметить и недостаток такой замены переменных, связанный с тем, что вектор оценок получается не из условия минимизации суммы квадратов отклонений для исходных переменных, а из условия минимизации суммы квадратов отклонений для преобразованных переменных, что не одно и то же.
Полиномами второго порядка описывается зависимость урожайности от количества внесенных удобрений. Гиперболическая модель может быть использована для характеристики связей между нормой безработицы и процентом прироста заработной платы (кривая Филлипса). Логарифмическая модель может быть использована для описания доли расходов на товары длительного пользования (кривая Энгеля) в зависимости от общих сумм расходов.
Модели нелинейные по параметрам. Среди таких моделей выделяют нелинейные модели внутренне линейные и нелинейные модели, внутренне нелинейные. Модели внутренне линейные можно привести к линейному виду с помощью соответствующих преобразований.
Примеры внутренне линейных моделей и их линеаризация:
1)
Мультипликативная степенная
Линеаризующее преобразование:
или
где
2) Экспоненциальная модель: .
Линеаризующее преобразование: .
3) Обратная регрессионная модель: .
Линеаризующее преобразование: .
К моделям, полученным после проведения линеаризующих преобразований можно применять обычные методы исследования линейной регрессии. Но поскольку в них присутствуют не фактические значения изучаемого показателя, то оценки параметров получаются несколько смещенными. При анализе линеаризуемых функций регрессии, следует особенно тщательно проверять выполнение предпосылок метода наименьших квадратов.