Trabajo de Econometría con Gretl o STATA
Un modelo econométrico es un modelo matemático formado por un conjunto de ecuaciones, concebidas para proporcionar una explicación cuantitativa del comportamiento de las variables dependientes de respuesta, normalmente de índole económica. El término de perturbación aleatoria (equivalente a residuo o error, diferencia entre los observado y el ideal ajustado, en un ajuste de regresión estadístico), está íntimamente relacionado con la parte estocástica o aleatoria de este tipo de fenómenos, lo que nos permitirá extraer conclusiones, esto es, hacer inferencia, sobre la población, a partir de las observaciones de una muestra determinada.
Índice del Artículo
Y*= β0 + β1*X1 + β2*X2 +…+ βn*Xn + ui
Y: variable dependiente, de respuesta, explicada o endógena
Xi: variable/s independiente/s, explicativa o exógena
ui: perturbación aleatoria inherente a cualquier suceso estocástico
Un cierto grado de multicolinealidad (relación lineal) entre las exógenas es muy común. Dependiendo de si la relación lineal entre las exógenas es más o menos estrecha, los efectos sobre las estimaciones serán más o menos perjudiciales. La cuestión no es si existe multicolinealidad, o no, sino su grado.
Detección de errores de especificación. Contraste de Reset-Ramsey
Ho: No hay errores de especificación en la regresión estimada
Ha: Hay errores de especificación en la regresión estimada
Si el p-valor asociado al estadístico de contraste de Reset es menor de 0,05: Se rechaza la Hipótesis Nula (Ho), el contraste de errores de especificación es estadísticamente significativo. Si por el contrario, resulta mayor que 0,05, nos indica que no se puede rechazar la hipótesis nula de una correcta especificación, siempre trabajndo con un nivel de confianza del 95%. Una posible solución es reformular las variables en logaritmos.
Supuestos previos de partida del Modelo Econométrico
NO Multicolinealidad
Multicolinealidad de grado, es la que aparece cuando existen correlaciones lineales significativas entre las diferentes variables explicativas, esto es, de alguna manera los regresores aportan información redundante, lo que se puede definir como colinealidad, lo que impide obtener un modelo potable con el método de los MCO. Suele ser más normal detectarla en series temporales porque en estas normalmente aparecen componentes comunes (tendencia, estacionalidad, etc). Se suele considerar que existe multicolinealidad si algún FIV (VIF, Factor de Varianza Inflada) es mayor que 10, o está fuera del intervalo [1,10].
NO Heterocedasticidad
O lo que es lo mismo, Homocedasticidad de las perturbaciones aleatorias, esto es, que se distribuyan de una manera parecida en torno al 0 en la gráfica de perturbaciones, o lo que es lo mismo, con variabilidad constante. Las consecuencias que provocan son aumento de la SCE, no se pueden optimizar los estimadores por el método de MCO, y no se hace buena inferencia estadística.
La Heterocedasticidad puede ser debida a la presencia de outliers (valores atípicos, que se corrigen con el diagrama de caja), el no tener en cuenta en el modelo por omisión de variables independientes relevantes, errores de medida, incorrecciones en la perturbación aleatoria, etc. Para detectarla, se puede utilizar el contraste de White:
Ho: Existe Homoscedasticidad
Ha: Heteroscedasticidad
Como el p-valor asociado al estadístico es mayor que 0,05, no se puede rechazar la homocedasticidad, el contraste de White no es estadísitcamente significativo, se cumple el supuesto previo de partida para el MRLG.
En el caso de cumplirse el supuesto de Normalidad en las perturbaciones, esto es, el test de Normalidad (Jarque-Bera de Asimetría y Kurtosis) en los residuos resulta no significativo (p-valor mayor que 0.05), se procede a realizar el contraste de heterocedasticidad de Breusch-Pagan, el más indicado bajo el cumplimiento de este supuesto de partida de la regresión, el cual no resulta significativo si el p-valor es >0.05, por lo que no se rechazaría la hipótesis de homocedasticidad en las perturbaciones, se cumple el condicionante de no heterocedasticidad del modelo. Una manera de corregir este problema, sería aplicando logaritmo neperiano (ln) a las variables.
NO Autocorrelación
Consecuencias de la autocorrelación: Las varianzas de las perturbaciones y, por consiguiente, las de los estimadores, están sesgadas, luego las predicciones no son correctas, y no se pueden extrapolar los resultados muestrales a la población. Se puede detectar a través del contraste de independencia de los errores de Durbin-Watson (entre 1 y 3), o a través del correlograma.
Ho: No existe autocorrelación (Independencia de los Errores)
Ha: Autocorrelación.