tutorial SPSS 29

tutorial SPSS 29

Tutorial avanzdo de SPSS en su versión 29

 

Tutorial SPSS 29

 

Tratamiento de valores atípicos (outliers)

Una posible manera de no tener en cuenta los valores atípicos con el paquete estadístico SPSS 29, ya que pueden desvirtuar el resultado de los posteriores análisis y contrastes estadísticos, es seleccionado aquellos casos de la muestra que cumplan la condición de no ser atípicos, variable que definimos de tipo dicotómico.

 

Box Plot con SPSS 29

Seleccionar casos si no son outlier en SPSS 29

 

Gráfico de Barras ordenado

Representación gráfica y porcentual haciendo doble clic para obtener el editor de gráficos, ordenando las categorías de forma descendente o ascendente, según convenga.

Gráfico de barras ordenado en SPSS

 

Histogramas conjuntos

generador de gráficos

Gráfico de barras agrupadas en SPSS

Intervalo de Confianza para proporciones (%)

Intervalo de confianza de % en SPSS 29

 

Test de Hipótesis (cuadro resumen)

Test de Hipótesis

T de Student muestras independientes

Contraste de hipótesis de comparativa de medias de variable de escala respecto a 2 grupos independientes, siempre bajo el cumplimiento del supuesto de normalidad y del de homogeneidad de varianzas u homocedasticidad.

Con la opción del botón ‘Pegar’ se puede acceder a la <<Ventana de Sintaxis>> del T-test de comparativa de medias de muestras independientes en Spss 29.

Ventana de Sintaxis del T.test en Spss 29

 

T-Test unilateral

T-Test unilateral con SPSS 29

Se aprecian diferencias estadísticamente significativas tanto en el test de homocedasticidad, como en la prueba de Welch de un factor (test unilateral).

 

Prueba de Welch

Prueba de Welch ante problemas en el cumplimiento del supuesto de homogeneidad de varianzas para comparar las medias, una vez no se viola el supuesto de normalidad en la variable de respuesta para cada uno de los 2 grupos independientes.

U de Mann-Whitney

Comparativa de medianas o rangos promedio de 2 muestras independientes cuando se viola el supuesto normalidad en la variable de respuesta respecto a los 2 grupos que genera el factor dictómico.

 

Anova de un Factor

ANOVA de un factor, con corrección de Welch, ante el fracaso del cumplimiento de homocedasticidad, con prueba POST-HOC de comparaciones múltiples de Games-Howell, la prueba de comparativa de medias más conveniente en el caso de heterocedasticidad.

ANOVA de un factor con prueba POST-HOC de comparaciones múltiples de Games-Howell

No se aprecian diferencias estadísticamente significativas en media tan solo en el cruce de los grupos 2 y 3 (p-valor=0.82).

 

Kruskal-Wallis con pruebas de comparaciones múltiples de Bonferroni

 

Test de comparativa de medianas o rangos promedio de más de 2 grupos en SPSS 29 (modo de proceder no paramétrico), ante el fracaso del cumplimiento del supuesto de Normalidad en la variable de respuesta.

H de Kruskal-Wallis en SPSS 29

Test de comparativa de medianas o rangos promedio de más de 2 grupos en SPSS 29

 

Regresión Lineal Simple y Múltiple

La regresión múltiple es una técnica estadística que se utiliza para examinar la relación entre una variable dependiente y dos o más variables independientes.

Abrir el conjunto de datos en SPSS:

Abre SPSS y carga el conjunto de datos en el que deseas realizar el análisis. Seleccionar las variables:

Ve a «Datos» en la barra de menú y selecciona «Seleccionar casos» si solo deseas analizar un subconjunto de casos. Si deseas usar todas las observaciones, puedes omitir este paso.
Ejecutar el análisis de regresión:

Ve a «Análisis» en la barra de menú y selecciona «Regresión» y luego «Lineal«.
Configurar la regresión:

En la ventana de «Regresión Lineal«, selecciona la variable dependiente y agrégala al campo «Variable dependiente«.
Selecciona las variables independientes y agrégalas al campo «Variables independientes«.

Opciones adicionales:

Puedes ajustar varias opciones, como la inclusión de estadísticas adicionales y gráficos. Puedes hacer clic en el botón «Estadísticas» para seleccionar estadísticas adicionales como los residuos estandarizados y estandarizados, entre otros.
Revisar los resultados:

Haz clic en «OK» para ejecutar el análisis. SPSS 29 mostrará los resultados en una nueva ventana. Presta especial atención a la tabla de coeficientes y estadísticas de significancia.
Interpretar los resultados:

Examina la tabla de coeficientes para ver las estimaciones de los coeficientes de regresión. También, observa los valores de significancia (p-value) para determinar si las variables independientes son significativas predictores de la variable dependiente.

La interpretación de los resultados de la regresión múltiple implica considerar varios aspectos, como la significancia de los coeficientes, la multicolinealidad, la bondad de ajuste del modelo, y otros diagnósticos, como la independencia de los errores.

Dependiendo de la naturaleza de tus datos y tus objetivos de investigación, es posible que desees explorar opciones adicionales en SPSS 29, como la regresión múltiple de tipo jerárquico.

regresión lineal simple en SPSS 29

regresión múltiple en SPSS 29

Regresión Spss 29

 

Análisis Factorial

El análisis factorial en SPSS es una técnica estadística que se utiliza para explorar la estructura subyacente de un conjunto de variables observadas. Este análisis puede ayudar a identificar patrones y relaciones entre las variables. Aquí hay una guía básica para realizar un análisis factorial en SPSS.

Abrir el conjunto de datos en SPSS:

Abre SPSS y carga el conjunto de datos en el que deseas realizar el análisis factorial.
Ejecutar el análisis factorial:

Ve a «Análisis» en la barra de menú, selecciona «Reducción de datos» y luego «Factor».
Seleccionar las variables:

Selecciona las variables que deseas incluir en el análisis y agrégalas al cuadro de «Variables».
Configurar el análisis:

En la ventana «Análisis factorial», puedes ajustar varias opciones. Asegurarse de revisar la opción «Matriz de correlación entre variables» si deseas obtener un análisis factorial basado en análisis de correlaciones.

Configurar la rotación (opcional):

La rotación de factores es útil para simplificar la interpretación de los resultados. Puedes seleccionar el método de rotación (normalmente ortogonal Varimax) y configurar otras opciones relacionadas con la rotación en la pestaña correspondiente.

Revisar los resultados:

Haz clic en «OK» para ejecutar el análisis. SPSS mostrará los resultados en una nueva ventana. Presta especial atención a las cargas factoriales, la varianza explicada por los factores retenidos y otros estadísticos.

Interpretar los resultados:

Examina las cargas factoriales para cada variable en cada factor. Las cargas factoriales indican la fuerza y la dirección de la relación entre las variables y los factores. Valores más altos sugieren una relación más fuerte.

Determinar el número de factores:

Analiza el gráfico de sedimentación, que muestra la varianza explicada por cada factor. El punto en el que la curva se aplana (donde hace codo), puede indicar el número óptimo de factores.

Rotar factores, a través de la rotación Varimax, si se considera necesario, si se aprecian dudas entorno a sobre qué factor apuntan las cargas factoriales, es decir, si la interpretación de los factores no es clara, se puede probar este método de rotación ortogonal para simplificar la estructura de los factores.

Para la reducción de variables a unos pocos factores, se suele tener en cuenta  como norma el Criterio de Kaiser de retener aquellas componentes cuyo autovalor sea mayor que 1. Una segunda opción sería la de conservar a partir de la proporción de variabilidad explicada por el factor o factores.

 

 

Test de Friedman

Siempre a partir del no cumplimiento del supuesto de partida de normalidad, se procede a comparar la medición de la variable de respuesta de escala, en más de 2 muestras relacionadas, desde un punto de vista no paramétrico con un test de homogeneidad de medianas o rangos promedio con el paquete estadístico SPSS en su versión 29 (2024).

Test de Friedman con pruebas de comparaciones múltiples Post-Hoc en SPSS 29