Tutorial SPSS 29
Índice del Artículo
Tratamiento de valores atípicos (outliers)
Una posible manera de no tener en cuenta los valores atípicos con el paquete estadístico SPSS 29, ya que pueden desvirtuar el resultado de los posteriores análisis y contrastes estadísticos, es seleccionado aquellos casos de la muestra que cumplan la condición de no ser atípicos, variable que definimos de tipo dicotómico.
Gráfico de Barras ordenado
Representación gráfica y porcentual haciendo doble clic para obtener el editor de gráficos, ordenando las categorías de forma descendente o ascendente, según convenga.
Histogramas conjuntos
Intervalo de Confianza para proporciones (%)
Test de Hipótesis (cuadro resumen)
T de Student muestras independientes
Contraste de hipótesis de comparativa de medias de variable de escala respecto a 2 grupos independientes, siempre bajo el cumplimiento del supuesto de normalidad y del de homogeneidad de varianzas u homocedasticidad.
Con la opción del botón ‘Pegar’ se puede acceder a la <<Ventana de Sintaxis>> del T-test de comparativa de medias de muestras independientes en Spss 29.
T-Test unilateral
Se aprecian diferencias estadísticamente significativas tanto en el test de homocedasticidad, como en la prueba de Welch de un factor (test unilateral).
Prueba de Welch
Prueba de Welch ante problemas en el cumplimiento del supuesto de homogeneidad de varianzas para comparar las medias, una vez no se viola el supuesto de normalidad en la variable de respuesta para cada uno de los 2 grupos independientes.
U de Mann-Whitney
Comparativa de medianas o rangos promedio de 2 muestras independientes cuando se viola el supuesto normalidad en la variable de respuesta respecto a los 2 grupos que genera el factor dictómico.
Anova de un Factor
ANOVA de un factor, con corrección de Welch, ante el fracaso del cumplimiento de homocedasticidad, con prueba POST-HOC de comparaciones múltiples de Games-Howell, la prueba de comparativa de medias más conveniente en el caso de heterocedasticidad.
No se aprecian diferencias estadísticamente significativas en media tan solo en el cruce de los grupos 2 y 3 (p-valor=0.82).
Kruskal-Wallis con pruebas de comparaciones múltiples de Bonferroni
Test de comparativa de medianas o rangos promedio de más de 2 grupos en SPSS 29 (modo de proceder no paramétrico), ante el fracaso del cumplimiento del supuesto de Normalidad en la variable de respuesta.
Regresión Lineal Simple y Múltiple
La regresión múltiple es una técnica estadística que se utiliza para examinar la relación entre una variable dependiente y dos o más variables independientes.
Abrir el conjunto de datos en SPSS:
Abre SPSS y carga el conjunto de datos en el que deseas realizar el análisis. Seleccionar las variables:
Ve a «Datos» en la barra de menú y selecciona «Seleccionar casos» si solo deseas analizar un subconjunto de casos. Si deseas usar todas las observaciones, puedes omitir este paso.
Ejecutar el análisis de regresión:
Ve a «Análisis» en la barra de menú y selecciona «Regresión» y luego «Lineal«.
Configurar la regresión:
En la ventana de «Regresión Lineal«, selecciona la variable dependiente y agrégala al campo «Variable dependiente«.
Selecciona las variables independientes y agrégalas al campo «Variables independientes«.
Opciones adicionales:
Puedes ajustar varias opciones, como la inclusión de estadísticas adicionales y gráficos. Puedes hacer clic en el botón «Estadísticas» para seleccionar estadísticas adicionales como los residuos estandarizados y estandarizados, entre otros.
Revisar los resultados:
Haz clic en «OK» para ejecutar el análisis. SPSS 29 mostrará los resultados en una nueva ventana. Presta especial atención a la tabla de coeficientes y estadísticas de significancia.
Interpretar los resultados:
Examina la tabla de coeficientes para ver las estimaciones de los coeficientes de regresión. También, observa los valores de significancia (p-value) para determinar si las variables independientes son significativas predictores de la variable dependiente.
La interpretación de los resultados de la regresión múltiple implica considerar varios aspectos, como la significancia de los coeficientes, la multicolinealidad, la bondad de ajuste del modelo, y otros diagnósticos, como la independencia de los errores.
Dependiendo de la naturaleza de tus datos y tus objetivos de investigación, es posible que desees explorar opciones adicionales en SPSS 29, como la regresión múltiple de tipo jerárquico.
Análisis Factorial
El análisis factorial en SPSS es una técnica estadística que se utiliza para explorar la estructura subyacente de un conjunto de variables observadas. Este análisis puede ayudar a identificar patrones y relaciones entre las variables. Aquí hay una guía básica para realizar un análisis factorial en SPSS.
Abrir el conjunto de datos en SPSS:
Abre SPSS y carga el conjunto de datos en el que deseas realizar el análisis factorial.
Ejecutar el análisis factorial:
Ve a «Análisis» en la barra de menú, selecciona «Reducción de datos» y luego «Factor».
Seleccionar las variables:
Selecciona las variables que deseas incluir en el análisis y agrégalas al cuadro de «Variables».
Configurar el análisis:
En la ventana «Análisis factorial», puedes ajustar varias opciones. Asegurarse de revisar la opción «Matriz de correlación entre variables» si deseas obtener un análisis factorial basado en análisis de correlaciones.
Configurar la rotación (opcional):
La rotación de factores es útil para simplificar la interpretación de los resultados. Puedes seleccionar el método de rotación (normalmente ortogonal Varimax) y configurar otras opciones relacionadas con la rotación en la pestaña correspondiente.
Revisar los resultados:
Haz clic en «OK» para ejecutar el análisis. SPSS mostrará los resultados en una nueva ventana. Presta especial atención a las cargas factoriales, la varianza explicada por los factores retenidos y otros estadísticos.
Interpretar los resultados:
Examina las cargas factoriales para cada variable en cada factor. Las cargas factoriales indican la fuerza y la dirección de la relación entre las variables y los factores. Valores más altos sugieren una relación más fuerte.
Determinar el número de factores:
Analiza el gráfico de sedimentación, que muestra la varianza explicada por cada factor. El punto en el que la curva se aplana (donde hace codo), puede indicar el número óptimo de factores.
Rotar factores, a través de la rotación Varimax, si se considera necesario, si se aprecian dudas entorno a sobre qué factor apuntan las cargas factoriales, es decir, si la interpretación de los factores no es clara, se puede probar este método de rotación ortogonal para simplificar la estructura de los factores.
Para la reducción de variables a unos pocos factores, se suele tener en cuenta como norma el Criterio de Kaiser de retener aquellas componentes cuyo autovalor sea mayor que 1. Una segunda opción sería la de conservar a partir de la proporción de variabilidad explicada por el factor o factores.
Test de Friedman
Siempre a partir del no cumplimiento del supuesto de partida de normalidad, se procede a comparar la medición de la variable de respuesta de escala, en más de 2 muestras relacionadas, desde un punto de vista no paramétrico con un test de homogeneidad de medianas o rangos promedio con el paquete estadístico SPSS en su versión 29 (2024).