Шпоры по эконометрике
| Категория реферата: Рефераты по экономико-математическому моделированию
| Теги реферата: экзамены, доклад
| Добавил(а) на сайт: Ярмухаметов.
1 2 3 4 | Следующая страница реферата
Шпоры по эконометрике.
№ 1. СПЕЦИФИКАЦИЯ МОДЕЛИ
Простая регрессия представляет собой регрессию между двумя переменными —у и
х, т.е. модель вида [pic], где у — результативный признак; х - признак-
фактор.
Множественная регрессия представляет собой регрессию результативного
признака с двумя и большим числом факторов, т. е. модель вида [pic]
Спецификация модели - формулировка вида модели, исходя из соответствующей
теории связи между переменными. В уравнении регрессии корреляционная по
сути связь признаков представляется в виде функциональной связи, выраженной
соответствующей математической функцией. [pic] где yj — фактическое
значение результативного признака;
yxj -теоретическое значение результативного признака.
[pic] — случайная величина, характеризующая отклонения реального значения
результативного признака от теоретического.
Случайная величина ? называется также возмущением. Она включает влияние не
учтенных в модели факторов, случайных ошибок и особенностей измерения.
От правильно выбранной спецификации модели зависит величина случайных
ошибок: они тем меньше, чем в большей мере теоретические значения
результативного признака [pic] подходят к фактическим данным у.
К ошибкам спецификации относятся неправильный выбор той или иной
математической функции для[pic], и недоучет в уравнении регрессии какого-
либо существенного фактора, т. е. использование парной регрессии вместо
множественной.
Ошибки выборки - исследователь чаще всего имеет дело с выборочными данными
при установлении закономерной связи между признаками.
Ошибки измерения практически сводят на нет все усилия по количественной
оценке связи между признаками. Основное внимание в эконометрических
исследованиях уделяется ошибкам спецификации модели.
В парной регрессии выбор вида математической функции [pic] может быть
осуществлен тремя методами: графическим, аналитическим и экспериментальным.
Графический метод основан на поле корреляции. Аналитический метод основан
на изучении материальной природы связи исследуемых признаков.
Экспериментальный метод осуществляется путем сравнения величины остаточной
дисперсии Dост, рассчитанной при разных моделях. Если фактические значения
результативного признака совпадают с теоретическими у =[pic], то Docm =0.
Если имеют место отклонения фактических данных от теоретических (у — [pic])
то [pic].
Чем меньше величина остаточной дисперсии, тем лучше уравнение регрессии
подходит к исходным данным. Число наблюдений должно в 6 — 7 раз превышать
число рассчитываемых параметров при переменной х.
№ 2 ЛИНЕЙНАЯ РЕГРЕССИЯ И КОРРЕЛЯЦИЯ: СМЫСЛ И ОЦЕНКА ПАРАМЕТРОВ.
Линейная регрессия сводится к нахождению уравнения вида [pic] или [pic].
Уравнение вида [pic] позволяет по заданным значениям фактора x иметь
теоретические значения результативного признака, подставляя в него
фактические значения фактора х.
Построение линейной регрессии сводится к оценке ее параметров а и в.
Оценки параметров линейной регрессии могут быть найдены разными методами.
1.[pic]
2.[pic]
Параметр b называется коэффициентом регрессии. Его величина показывает
среднее изменение результата с изменением фактора на одну единицу.
Формально а — значение у при х = 0. Если признак-фактор
не имеет и не может иметь нулевого значения, то вышеуказанная
трактовка свободного члена, а не имеет смысла. Параметр, а может
не иметь экономического содержания. Попытки экономически
интерпретировать параметр, а могут привести к абсурду, особенно при а < 0.
Интерпретировать можно лишь знак при параметре а. Если а > 0, то
относительное изменение результата происходит медленнее, чем изменение
фактора.
Уравнение регрессии всегда дополняется показателем тесноты связи. При
использовании линейной регрессии в качестве такого показателя выступает
линейный коэффициент корреляции rxy. Существуют разные модификации формулы
линейного коэффициента корреляции.
[pic]
Линейный коэффициент корреляции находится и границах: -1?.rxy ? 1. При этом
чем ближе r к 0 тем слабее корреляция и наоборот чем ближе r к 1 или -1, тем сильнее корреляция, т.е. зависимость х и у близка к линейной. Если r в
точности =1или -1 все точки лежат на одной прямой. Если коэф. регрессии b>0
то 0 ?.rxy ? 1 и наоборот при b Fтабл Н0 отклоняется.
Если же величина окажется меньше табличной Fфакт ‹, Fтабл , то вероятность
нулевой гипотезы выше заданного уровня и она не может быть отклонена без
серьезного риска сделать неправильный вывод о наличии связи. В этом случае
уравнение регрессии считается статистически незначимым. Но не
отклоняется.
Стандартная ошибка коэффициента регрессии
[pic]
Для оценки существенности коэффициента регрессии его величина сравнивается
с его стандартной ошибкой, т. е. определяется фактическое значение t-
критерия Стьюдентa: [pic]которое
затем сравнивается с табличным значением при определенном уровне значимости
[pic] и числе степеней свободы (n- 2).
Стандартная ошибка параметра а:
[pic] [pic]
Значимость линейного коэффициента корреляции проверяется на основе величины
ошибки коэффициента корреляции тr:
[pic] [pic]
Общая дисперсия признака х: [pic]
Коэф. регрессии [pic] Его величина показывает ср. изменение результата с
изменением фактора на 1 ед.
Ошибка аппроксимации: [pic]
№ 5. ИНТЕРВАЛЫ ПРОГНОЗА ПО ЛИНЕЙНОМУ УРАВНЕНИЮ
РЕГРЕССИИ
Оценка стат. значимости параметров регрессии проводится с помощью t –
статистики Стьюдента и путем расчета доверительного интервала для каждого
из показателей. Выдвигается гипотеза Н0 о статистически значимом отличие
показателей от 0 a = b = r = 0. Рассчитываются стандартные ошибки
параметров a,b, r и фактич. знач. t – критерия Стьюдента.
[pic]
[pic]
[pic]
[pic] [pic] [pic]
Определяется стат. значимость параметров.
ta ›Tтабл - a стат. значим
tb ›Tтабл - b стат. значим
Находятся границы доверительных интервалов.
[pic] [pic] [pic]Анализ верхней и нижней
границ доверительных интервалов приводит к выводу о том, что параметры a и
b находясь в указанных границах не принимают нулевых значений, т.е. не
явл.. стат. незначимыми и существенно отличается от 0.
№ 6. НЕЛИНЕЙНАЯ РЕГРЕССИЯ. ВИДЫ МОДЕЛЕЙ
Если между экономическими явлениями существуют нелинейные соотношения, то
они выражаются с помощью соответствующих нелинейных функций: например, равносторонней гиперболы [pic], параболы второй степени [pic]и д.р.
Различают два класса нелинейных регрессий:
• регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам;
• регрессии, нелинейные по оцениваемым параметрам.
Примером нелинейной регрессии по включаемым в нее объясняющим переменным
могут служить следующие функции:
1. полиномы разных степеней
2. равносторонняя гипербола
К нелинейным регрессиям по оцениваемым параметрам относятся функции:
3. степенная
4. показательная
5. экспоненциальная
№ 7. СМЫСЛ КОЭФФИЦИЕНТА РЕГРЕССИИ.
[pic]
Параметр b называется коэффициентом регрессии. Его величина показывает
среднее изменение результата с изменением фактора на одну единицу. Оценку
коэффициента регрессии можно получить не обращаясь к методу наименьших
квадратов. Альтернативную оценку параметра b можно найти исходя из
содержания данного коэффициента: изменение результата [pic] сопоставляют с изменением фактора [pic]
Общая сумма квадратов отклонений индивидуальных значений результативного
признака у от среднего значения [pic] вызвана влиянием множества причин.
Условно разделим всю совокупность причин на две группы: изучаемый фактор х
и прочие факторы.
Если фактор не оказывает влияния на результат, то линия регрессии на
графике параллельна оси ох и [pic].Тогда вся дисперсия результативного
признака обусловлена воздействием прочих факторов и общая сумма квадратов
отклонений совпадет с остаточной. Если же прочие факторы не влияют на
результат, то у связан с х функционально и остаточная сумма квадратов
равна нулю. В этом случае сумма квадратов отклонений, объясненная
регрессией, совпадает с общей суммой квадратов.
Поскольку не все точки поля корреляции лежат на линии регрессии, то
всегда имеет место их разброс как обусловленный влиянием фактора х, т. е.
регрессией у по х, так и вызванный действием прочих причин (необъясненная
вариация). Пригодность линии регрессии для прогноза зависит от того, какая
часть общей вариации признака у приходится на объясненную вариацию
Очевидно, что если сумма квадратов отклонений, обусловленная регрессией, будет больше остаточной суммы квадратов, то уравнение регрессии
статистически значимо и фактор х оказывает существенное воздействие на
результат у
Любая сумма квадратов отклонений связана с числом степеней свободы , т. е.
с числом свободы независимого варьирования признака. Число степеней свободы
связано с числом единиц совокупности n ис числом определяемых по ней
констант. Применительно к исследуемой проблеме число степеней свободы
должно показать, сколько независимых отклонений из п возможных требуется
для образования данной суммы квадратов.
№8. ПРИМЕНЕНИЕ МНК К МОДЕЛЯМ НЕЛИНЕЙНЫМ ОТНОСИТЕЛЬНО ВКЛЮЧАЕМЫХ ПЕРЕМЕННЫХ
И ОЦЕНИВАЕМЫХ ПАРАМЕТРОВ.
Нелинейная регрессия по включенным переменным не таит каких-либо сложностей в оценке ее параметров. Она определяется, как и в линейной регрессии, методом наименьших квадратов (МНК), ибо эти функции линейны по параметрам. Так, в параболе второй степени y=a0+a1x+a2x2+? заменяя переменные x=x1,x2=x2, получим двухфакторное уравнение линейной регрессии: у=а0+а1х1+а2х2+ ?
Парабола второй степени целесообразна к применению, если для
определенного интервала значений фактора меняется характер связи
рассматриваемых признаков: прямая связь меняется на обратную или обратная
на прямую. В этом случае определяется значение фактора, при котором
достигается максимальное (или минимальное), значение результативного
признака: приравниваем к нулю первую производную параболы второй степени:
[pic], т.е. b+2cx=0 и x=-b/2c
Применение МНК для оценки параметров параболы второй степени приводит к
следующей системе нормальных уравнений:
[pic][pic] Решение ее возможно методом определителей:
[pic] [pic] [pic]
В моделях, нелинейных по оцениваемым параметрам, но приводимых к линейному
виду, МНК применяется к преобразованным уравнениям. Если в линейной модели
и моделях, нелинейных по переменным, при оценке параметров исходят из
критерия [pic]min, то в моделях, нелинейных по оцениваемым параметрам, требование МНК применяется не к исходным данным результативного признака, а
к их преобразованным величинам, т. е.ln y, 1/y. Так, в степенной функции
[pic] МНК применяется к преобразованному уравнению lny = ln? + ? ln x ln ?.
Это значит, что оценка параметров основывается на минимизации суммы
квадратов отклонений в логарифмах.[pic] Соответственно если в линейных
моделях [pic] то в моделях, нелинейных по оцениваемым параметрам, [pic].
Вследствие этого оценка параметров оказываются несколько смещенной.
№9. КОЭФФИЦИЕНТЫ ЭЛАСТИЧНОСТИ ПО РАЗНЫМ ВИДАМ РЕГРЕССИОННЫХ МОДЕЛЕЙ.
1. Линейная y = a + bx + [pic], y' = b, Э = [pic].
2. Парабола 2 порядка y = a +bx + c[pic] +[pic], y' = b + 2cx, Э = [pic].
3. Гипербола y = a+b/x +[pic], y'=-b/[pic], Э = [pic].
4. Показательная y=a[pic], y' = ln [pic], Э = x ln b.
Рекомендуем скачать другие рефераты по теме: сочинение почему, функция реферат.
Категории:
1 2 3 4 | Следующая страница реферата