TFM con SPSS
La estadística tiene múltiples aplicaciones en investigación. Desde algoritmos para hacer la predicción del tiempo, a analizar los resultados y las campañas de Marketing Digital y Social Media, estudios para mejorar la calidad de vida de las personas y/0 para paliar enfermedades e investigar nuevos medicamentos. Incluso el Big Data, tan en boga en la actualidad o el propio algoritmo de Google, se basa en parámetros que estudia la Estadística. Muy utilizados en Marketing, el Análisis de Conglomerados (Clusters) y el Análisis Discriminante, para discernir comportamientos de consumidores y similaridades.
Trabajos de Consultoría y/o Asesoría de la parte estadística de los TFM (Trabajos de Fin de Master) con el paquete estadístico SPSS, presencial u online. Apoyo también con el SPSS con los TFG (Trabajos de Fin de Grado universitarios) y con las Tesis Doctorales. Titulación en Estadística por la Universidad Complutense de Madrid. Más de 15 años de experiencia con alumnos/as de la UMA, UGR, UNIR, UNED, Universidades privadas, etc.
Después del correspondiente Análisis Descriptivo de las variables de interés, el posterior estudio de las correlaciones entre las propias variables y del desarrollo de los gráficos que nos pongan en situación, comenzamos a discernir cual es el análisis más adecuado en función de lo que se desea inferir de la muestra a la población, o de las propias características de las variables en estudio, y de la muestra o muestras en sí.
Índice del Artículo
Prueba de Normalidad
Test para comprobar si los datos se distribuyen de manera Normal. Procedemos a realizar el contraste de Shapiro-Wilk si se trata de una muestra menor que 50 y Kolmogorov-Smirnov-Lilliefors si es mayor de 50. Un p-valor asociado al estadístico del contraste (en ambos Test) mayor que 0,05 indica que se cumple el supuesto de Normalidad, siempre con un 95% de confianza. Se procede a realizar un contraste paramétrico, como es la T de Student para igualdad de 2 medias poblacionales, siempre en el caso de que se cumpla el supuesto. Si el contraste de Normalidad resulta significativo (p-valor menor de 0,05), se procede con un contraste no paramétrico como es la U de Mann-Whitney, en este caso de igualdad de medianas.
Análisis Factorial
Se trata de reducir un elevado número de variables a unos pocos factores o dimensiones, conservando aquellos componentes cuyo/s autovalor/es sea/n mayor que 1 y que expliquen pos sí mismos, el suficiente % de variabilidad. Se puede utilizar para confirmar la validez de una escala de preguntas tipo Likert (por ejemplo un cuestionario o encuesta generado a través de Google Survey). Una vez confirmada la fiabilidad de esta batería de items, con el alfa de Cronbach (normalmente mayor que 0,7 o 0,8). Un coeficiente KMO lo suficientemente elevado, justifica la conveniencia de este tipo de análisis estadístico. Un ejemplo tipo para entender la complejidad de la rotación ortogonal Varimax, sería el de reducir las notas de muchas asignaturas a sólo 2 factores a conservar, en función puntuaciones factoriales elevadas respecto a cada factor, según se trate de notas de Ciencias o de Letras.
ANOVA
Una vez comprobados los supuestos de partida del Análisis de la Varianza (ANOVA), esto es, prueba de Normalidad de Kolmogorov-Smirnov-Lilliefors (existe la posibilidad de violar este supuesto en el caso de muestras lo suficientemente grandes), prueba de Homocedasticidad e Independencia de las 3 o más muestras, se contrasta la igualdad de las medias poblacionales de la variable dependiente continua en los grupos que conforma la variable independiente o Factor. En el caso de resultar el contraste significativo, se realizan las pruebas Post Hoc para corroborar que par de medias son, desde el punto de vista estadístico, significativamente diferentes, como son Bonferroni (la más conservadora), Tukey, LSD, etc:
En el caso de no cumplirse los supuestos, pasamos a realizar un contraste No paramétrico como es el Test de Kruskal-Wallis, donde lo que se comparan son las 3 o más Medianas, y en el caso de resultar significativo, se comprueban las diferencias 2 a 2, mediante el Test de la U de Mann-Whitney.
ANOVA CON 2 FACTORES
Siempre trabajando a partir del cumplimiento de los supuestos de partida de Normalidad, Homogeneidad de varianzas e independencia de las muestras, se pueden contrastar si 2 factores, de manera individual, influyen en el comportamiento de la variable dependiente, medida en escala continua, e incluso si influye, esto es, estadísticamente significativa, la interacción de ambas variables independientes o explicativas. En el caso de existir tales diferencias, la prueba Post Hoc conveniente, nos indica entre qué par de medias en concreto, se presentan tales diferencias, siempre trabajando con el nivel de confianza fijado por el investigador, normalmente 95%, o incluso 99%.
MANOVA
Estudio para contrastar si la interacción 2 o más variables dependientes, influyen en 2 o más factores, por separado, o por la propia interacción de los factores. Siempre bajo el cumplimiento de partida de los supuestos de Normalidad Multivariada y Homogeneidad de las Matrices de Covarianzas (Prueba de la Matriz de Box).
Regresión Múltiple
Regresión Múltiple Jerárquica, una vez queda comprobada la Independencia de los residuos con el estadístico de Durbin-Watson (valores entre 1 y 3), y siempre que las variable independientes no presenten multicolinealidad (redundancia entre ellas), se procede a realizar un ajuste de la variable dependiente continua a partir de las independientes. Las variables explicativas (numericas o no) comienzar a formar parte del modelo a partir de su grado de correlación con la variable dependiente, y siempre que el p-valor asociado sea menor de 0,05. La bondad del ajuste de mide a partir del coeficiente de determinación ajustado. El FIV (factor de varianza inflada) siempre tiene que ser mayor de 1.
Regresión Logística Binaria
Regresión Logística Binaria para determinar la probabilidad de ocurrencia de una variable dependiente dicotómica (enfermo/no enfermo, por ejemplo, en Bioestadística, fármaco palia una enfermedad o no) en función de variables independientes numéricas, o nominales dicotomizadas o reconvertidas en variables dummy, para la dicotomización de las mismas. La conveniencia o no de realizar este ajuste, lo marca el que la probabilidad asociada a prueba de Hosmer-Lemeshow sea mayor que el alfa que fija el investigador, normalmente de 0,05. El conjunto de tales covariables son capaces de explicar una proporción (%) de la variabilidad de la variable respuesta, según la R CUADRADO DE NAGELKERKE.