ANOVA con 2 Factores
El Análisis de Varianza (siglas del inglés ANOVA, o del castellano ADEVA) es análisis estadístico basado en una descomposición de la variabilidad total, de cara a detectar diferencias en media poblacional de la variable dependiente continua, respecto a los niveles o tratamientos de cada factor o variable explicativa de tipo categórico, así como respecto a la interacción de ambos factores en estudio. Siempre se parte del cumplimiento de los supuestos de partida de este Test Paramétrico, como es normalidad de los datos o errores, residuos homocedásticos e independencia de las observaciones. Se detectan y eliminan los outliers en el proceso de depuración de la base de datos, previamente a la ejecución de cualquier prueba estadística.
Ecuación del modelo matemático del ANOVA
Yij = μ + αi + βj + εij
μ es la media poblacional, un parámetro desconocido a inferir que representa un efecto común
αi es el efecto asignable al Factor A que recibe la unidad
βj es el efecto asignable al Factor B que recibe la unidad
εij es el efecto donde se confunden las variaciones aleatorias con los posibles efectos de una interacción entre los 2 factores.
Los porcentajes (%) de la variabilidad total de la variable dependiente de respuesta, que resulta explicada por cada factor, o que es debida al azar se obtienen a partir del cociente entre la suma de cuadrados correspondiente (SCA, SCB y SCAB) y la suma de cuadrados total (SCT).
En la Tabla Anova de 2 FACTORES con las fuentes de variación, se juntan/funden (suman) las suma de cuadrados de la interacción y del error en una sola suma de cuadrados (SCE), en el caso de no resultar la interacción estadísticamente significativa.
Tabla ANOVA
Ho : μoperador1= μoperador2 = μoperador3 = μoperador4
H1 : algún par de medias difieren
Ho : μTURNO1= μTURNO2 = μTURNO3
H1 : algún par de medias difieren
Ho : No existe interacción (Hipótesis nula siempre de negación)
H1 : Existe interacción entre ambos factores
Los efectos principales de cada factor por separado son estadísticamente significativos, no así la interacción, por lo que se realiza una nueva Tabla ANOVA, fusionando las sumas de cuadrados del error y la interacción de los 2 factores: SCAB+SCE (14,156+93,183):
Pruebas de efectos inter-sujetos | |||||
Variable dependiente: DUREZA | |||||
Origen | Tipo III de suma de cuadrados | gl | Media cuadrática | F | Sig. |
OPERADOR | 163,504 | 2 | 81,752 | 81,752/6,074 | <0,05 |
PINTURA | 234,767 | 3 | 78,256 | 78,256/6,074 | <0,05 |
Error | 95,183+14,156=109,339 | 12+6=18 | 109,339/18=6,074 |
Los 2 factores siguen presentando diferencias significativas, los valores experimentales de los estadísticos de contraste superan a los respectivos niveles críticos de la tabla F de Fisher-Snedecor, se rechaza la igualdad de efectos para cada uno de los factores, luego se proceden a realizar los contrastes múltiples simultáneos a posteriori.
Al igual que con ANOVA de un solo factor, si tenemos un efecto principal significativo de un factor de más de 2 categorías, no nos aporta nada acerca de qué categoría es diferente de otra. Para averiguarlo, se deben hacer análisis adicionales. Y lo mismo ocurre con la interacción. En segundo lugar, hay un problema de interpretación muy peculiar cuando se obtiene un efecto de interacción interacción significativo, pero no hay ningún efecto principal significativo. Esto ocurre a veces. Esta es una situación difícil de interpretar y se tiende a generar un equívoco. Como norma general, no se debe dar mucha importancia a los efectos principales cuando haya una interacción significativa. La razón es que, aunque las pruebas de los efectos principales son perfectamente válidas desde el punto de vista estadístico, cuando hay un efecto de interacción significativo, los efectos principales raramente ponen a prueba hipótesis de interés demasiado relevante.
Test POST HOC
Con las pruebas Post Hoc de comparaciones múltiples se detectan las diferencias entre pares de medias de los niveles de la variable dependiente, mejoran a la T de Student como prueba de comparativa de 2 medias poblacionales en cuanto a que reducen el error de tipo I, esto es, la probabilidad de rechazar la hipótesis nula cuando es cierta.
Ho: μi = μj
H1: μi <> μj
Resultan estadísticamente significativas las diferencias en media de la variable de respuesta Yij ‘dureza’, en aquellos cruces de tratamientos (turnos para este ejemplo) donde el p-valor asociado (Sig.) al estadístico de Scheffé (tiene en cuenta todas las posibles comparaciones) o Bonferroni (la prueba más más conservadora), sea menor que 0,05, trabajando con un 95% de confianza, nivel fijado normalmente para una investigación.