Cálculo ANOVA con 2 Factores

Cálculo ANOVA con 2 Factores

 

ANOVA con 2 Factores

 

Cálculo manual de ANOVA de 2 factores

 

El Análisis de Varianza (siglas del inglés ANOVA, o del castellano ADEVA) es análisis estadístico basado en una descomposición de la variabilidad total, de cara a detectar diferencias en media poblacional de la variable dependiente continua, respecto a los niveles o tratamientos de cada factor o variable explicativa de tipo categórico, así como respecto a la interacción de ambos factores en estudio. Siempre se parte del cumplimiento de los supuestos de partida de este Test Paramétrico, como es normalidad de los datos o errores, residuos homocedásticos e independencia de las observaciones. Se detectan y eliminan los outliers en el proceso de depuración de la base de datos, previamente a la ejecución de cualquier prueba estadística.

 

Ecuación del modelo matemático del ANOVA

Yij = μ + αi + βj + εij

μ es la media poblacional, un parámetro desconocido a inferir que representa un efecto común
αi es el efecto asignable al Factor A que recibe la unidad
βj es el efecto asignable al Factor B que recibe la unidad
εij es el efecto donde se confunden las variaciones aleatorias con los posibles efectos de una             interacción entre los 2 factores.

 

Variables en SPSS para ANOVA de 2 factores

 

Comandos de menu SPSS del ANOVA con 2 FACTORES

 

Los porcentajes (%) de la variabilidad total de la variable dependiente de respuesta, que resulta explicada por cada factor, o que es debida al azar se obtienen a partir del cociente entre la suma de cuadrados correspondiente (SCA, SCB y SCAB) y la suma de cuadrados total (SCT).

Tabla Anova de 2 FACTORES con fuentes de variación

En la Tabla Anova de 2 FACTORES con las fuentes de variación, se juntan/funden (suman) las suma de cuadrados de la interacción y del error en una sola suma de cuadrados (SCE), en el caso de no resultar la interacción estadísticamente significativa.

 

Tabla ANOVA

 

Ho : μoperador1= μoperador2  = μoperador3 = μoperador4

H1 : algún par de medias difieren

 

Ho : μTURNO1= μTURNO2 = μTURNO3

H1 : algún par de medias difieren

 

Ho : No existe interacción (Hipótesis nula siempre de negación)

H1 : Existe interacción entre ambos factores

 

Tabla ANOVA con SPSS

Los efectos principales de cada factor por separado son estadísticamente significativos, no así la interacción, por lo que se realiza una nueva Tabla ANOVA, fusionando las sumas de cuadrados del error y la interacción de los 2 factores: SCAB+SCE (14,156+93,183):

 

Pruebas de efectos inter-sujetos
Variable dependiente:   DUREZA
OrigenTipo III de suma de cuadradosglMedia cuadráticaFSig.
OPERADOR163,504281,75281,752/6,074<0,05
PINTURA234,767378,25678,256/6,074<0,05
Error95,183+14,156=109,33912+6=18109,339/18=6,074

 

Los 2 factores siguen presentando diferencias significativas, los valores experimentales de los estadísticos de contraste superan a los respectivos niveles críticos de la tabla F de Fisher-Snedecor, se rechaza la igualdad de efectos para cada  uno de los factores, luego se proceden a realizar los contrastes múltiples simultáneos a posteriori.

Al igual que con ANOVA de un solo factor, si tenemos un efecto principal significativo de un factor de más de 2 categorías, no nos aporta nada acerca de qué categoría es diferente de otra. Para averiguarlo, se deben hacer análisis adicionales. Y lo mismo ocurre con la interacción. En segundo lugar, hay un problema de interpretación muy peculiar cuando se obtiene un efecto de interacción interacción significativo, pero no hay ningún efecto principal significativo. Esto ocurre a veces. Esta es una situación difícil de interpretar y se tiende a generar un equívoco. Como norma general, no se debe dar mucha importancia a los efectos principales cuando haya una interacción significativa. La razón es que, aunque las pruebas de los efectos principales son perfectamente válidas desde el punto de vista estadístico, cuando hay un efecto de interacción significativo, los efectos principales raramente ponen a prueba hipótesis de interés demasiado relevante.

 

Test POST HOC

Con las pruebas Post Hoc de comparaciones múltiples se detectan las diferencias entre pares de medias de los niveles de la variable dependiente, mejoran a la T de Student como prueba de comparativa de 2 medias poblacionales en cuanto a que reducen el error de tipo I, esto es, la probabilidad de rechazar la hipótesis nula cuando es cierta.

Ho: μi = μj

H1: μi <> μj

Pruebas Post Hoc de comparaciones múltiples

Resultan estadísticamente significativas las diferencias en media de la variable de respuesta Yij ‘dureza’, en aquellos cruces de tratamientos (turnos para este ejemplo) donde el p-valor asociado (Sig.) al estadístico de Scheffé (tiene en cuenta todas las posibles comparaciones) o Bonferroni (la prueba más más conservadora), sea menor que 0,05, trabajando con un 95% de confianza, nivel fijado normalmente para una investigación.

 

estamatica@gmail.com