Regresión Múltiple Jerárquica con SPSS

Regresión Múltiple Jerárquica con SPSS

Regresión Múltiple Jerárquica con SPSS

Regresión Múltiple Jerárquica con SPSS paso a paso

 

  1. Depuración de datos y detección de valores atípicos de la variable dependiente de respuesta, a través del Diagrama de Caja.
  2. Análisis Descriptivo.
  3. Análisis de Correlaciones. (Pearson o Spearman según se detecte normalidad o no).
  4. Comprobación de los supuestos de partida del modelo de regresión mútiple.
  5. Bondad del ajuste con el R2 ajustado y % de variabilidad explicada por el modelo asociada.
  6. Significatividad de los factores (variables explicativas independientes) de cara a la predicción del modelo ajustado de la variable explicada del estudio.
  7. Modelo de regresión múltiple (GLM).

 

1. Detectar valores atípicos (outliers) con Box-Plot

Diagrama de Caja y Bigotes previo al análisis estadístico

Diagrama de Caja y Bigotes de depuración de datos, la mayor parte de las veces imprescindible, de manera previa al análisis estadístico, con variable dependiente de respuesta continua (escala en SPSS). Los casos/filas marcados con un número y un circulito, fuera del bigote inferior y del superior, son considerados outliers, susceptibles de ser eliminados del análisis.

 

2. Análisis Descriptivo

 

Estadísticos Descriptivos de las variables en juego

 

3. Análisis de Correlaciones (Pearson o Spearman)

 

Ejemplo: No se cumple el supuesto de normalidad para ninguna de las variables en juego en el estudio (p-valor asociado al contraste de normalidad de Kolmogorov-Smirnov- Lilliefors menor que 0.05, por lo tanto, estadísticamente significativo, para un tamaño muestral mayor de 30-50),  por lo que se procede desde un punto de vista no paramétrico (se rechaza la Ho), a la hora de realizar un análisis de correlaciones entre las variables, con el coeficiente de correlación Rho de Spearman, equivalente al coeficiente de correlación lineal de Pearson en el caso de violarse el supuesto de normalidad.

 

Correlaciones bivariadas previas al modelo GLM

 

Correlaciones Bivariadas de Pearson previas al GLM

En función del grado de correlación con la variable dependiente de respuesta, la primera variable explicativa o factor a entrar a formar parte del modelo de regresión jerárquica, será aquella que presente un mayor coeficiente de correlación con la variable explicada.

 

4. Supuestos de partida del modelo

Supuesto de independencia de los errores con Durbin-Watson entre 1 y 3

Supuesto de independencia de los errores con estadístico de Durbin-Watson con valor entre 1 y 3 (1,597 en ejemplo). El modelo de regresión múltiple explica el 87,7% de la variabilidad de la variable dependiente o de respuesta, por lo que considera un buen modelo predictivo (se mira el R2 ajustado).

 

FIV de no multicolinealidad

 

Supuesto de no multicolinealidad con todos los VIF (Factor de Varianza Inflada) de las variables explicativas con valores entre 1 y 10, por lo que se cumple el supuesto.

 

5. Modelo de regresión múltiple jerárquico (GLM)

 

Regresión múltiple jerárquica con SPSS

 

El análisis estadístico propuesto en este caso, es un GLM, con supuestos de partida comola independencia de los errores (Durbin-Watson entre 1 y 3 y no multicolinealidad, VIF entre 1 y 10). Análisis de correlaciones no paramétrico mediante coeficiente de correlación de Spearman, pues no se cumple hipótesis  de Normalidad, y finalmente, regresión múltiple jerárquica (las variables explicativas van entrando en el modelo en función de su grado de correlación con la variable de respuesta), para detectar la significatividad de los factores, de cara al modelo de predicción de la variable dependiente. El R cuadrado ajustado expone la % de variabilidad explicada por el modelo GLM y la bondad del ajuste planteado:

 

Significatividad de las variables independientes

 

Resultan estadísticamente significativas, de cara a predecir el modelo, aquellas variables independientes cuyo p-valor asociado sea menor que 0,05. Los coeficientes de regresión Betas exponen, valores en cada caso, lo que aumenta (valor negativo, disminuye) la variable dependiente, cuando la independiente se incrementa en una unidad, permaneciendo el resto de las variables constantes. El término independiente (constante) no se suele interpretar en cuanto a si es significativo o no ,aunque si entra (normalmente) a formar parte de la fórmula de la ecuación del modelo.

 

La ecuación del modelo de regresión múltiple es de la forma:

Ecuación del GLM

ui: si se trata de un modelo econométrico (perturbación aleatoria)

ei: si se trata de un modelo estadístico de regresión múltiple (error o residuo aleatorio)