ANÁLISIS DE LA VARIANZA

Texto completo

(1)

T

1

T

2

T

r

x

11

x

21

… x

r1

!

!

"

!

x

1n 1

x

2n2

… x

rnr

INTRODUCCIÓN AL

ANÁLISIS DE LA VARIANZA

José Luis Vicente Villardón Departamento de Estadística

(2)

ANALISIS DE LA VARIANZA

DISEÑO DE UNA VIA

Disponemos de r poblaciones, generalmente correspondientes a r tratamientos experimentales. Cada uno de los tratamientos Ti, (i=1, …, r) se supone que tiene distribución normal con media µi y varianza σ2, común a todos ellos, es decir se trata de poblaciones normales y homoscedásticas. De cada una de las poblaciones (o tratamientos), tomamos una muestra de tamaño ni.

Las observaciones obtenidas se pueden recoger en una tabla de la forma

T

1

T

2

T

r

x

11

x

21

… x

r1

!

!

"

!

x

1n 1

x

2n2

… x

rnr

es decir xij es la observación j del grupo experimental i.

Llamaos

x

1

,

…, x

r a las medias muestrales de los grupos y

x

a la media de todas las observaciones.

Cuando se trata de un experimento diseñado, es decir, cuando se trata de la aplicación de r tratamientos a un conjunto de unidades experimentales, estas deben seleccionarse para que sean homogéneas, de forma que no se introduzcan factores de variación distintos del que se desea controlar. La asignación de los tratamientos a cada una de las unidades debe hacerse al azar. Es lo que se conoce como diseño “completamente al azar”.

(3)

x

ij

=

µ

i

+

!

ij

x

ij

=

µ + (µ

i

"

µ) +!

ij

x

ij

=

µ +#

i

+

!

ij

donde

µ

i

=

µ

+

!

i es la cantidad que depende del tratamiento usado (descompuesta en una media global y un efecto del tratamiento) y

!

ij es la cantidad que depende solamente de la unidad experimental y que se identifica con el error experimental. La hipótesis de que los distintos tratamientos no producen ningún efecto (o la de que las medias de todas las poblaciones son iguales) se contrasta mediante el análisis de la varianza de una vía, comparando la variabilidad entre grupos con la variabilidad dentro de los grupos.

H

0

:

µ

1

=… = µ

r

=

µ

H

a

:

!i, j /

µ

i

"

µ

j

El análisis de la varianza se basa en la descomposición de la variabilidad total en dos partes, una parte debida a la variabilidad entre las distintas poblaciones o tratamientos (variabilidad entre grupos o variabilidad explicada por el diseño) y otra parte que puede considerarse como la variabilidad intrínseca de las observaciones (variabilidad dentro de los grupos o residual).

Q

= Q

E

+ Q

R

La variabilidad entre grupos

Q

E

= n

i

( x

i

! x )

2

i=1 r

"

mide la discrepancia entre los grupos y la media global, de forma que si no hay diferencias entre ellos (la hipótesis nula es cierta) obtendremos variabilidades pequeñas. Si, por el contrario, la

(4)

hipótesis nula es falsa, cabe esperar que la variabilidad entre grupos sea grande.

La variabilidad dentro de los grupos

Q

R

=

( x

ij

! x

i

)

2 j=1 ni

"

i=1 r

"

mide la variabilidad intrínseca de las observaciones, es decir, si el experimento está bien diseñado y no se incluyen factores de variación distintos al estudiado, debe ser error puramente aleatorio producido como resultado de la variabilidad biológica del material experimental.

El contraste del Análisis de la varianza se basa en la comparación de la variabilidad entre y la variabilidad dentro, rechazaremos la hipótesis nula siempre que la variabilidad “entre” sea grande, pero utilizando como patrón de comparación la variabilidad “dentro”. Es decir, aceptaremos un efecto de los tratamientos siempre que estos produzcan mayores diferencias en las unidades experimentales que las que habría sin la aplicación de los mismos.

Antes de proceder a la comparación hemos de dividir las sumas de cuadrados por sus correspondientes grados de libertad, relacionados con el número de observaciones con las que se realiza el cálculo.

De esta forma obtenemos los cuadrados medios o estimadores de las variabilidades.

La información completa se resume en la tabla siguiente. Es la que se conoce como tabla de ANOVA y resume toda la información necesaria para realizar el correspondiente contraste.

(5)

Fuente Suma de cuadrados g.l. Estimador Fexp Entre

Q

E

= n

i

( x

i

! x )

2 i=1 r

"

r-1

S

E2

=

Q

E

r

!1

F

exp =

S

E2

S

R2 Residua l

Q

R

=

( x

ij

! x

i

)

2 j=1 ni

"

i=1 r

"

n-r

S

R2

=

Q

R

n

! r

Total

Q

=

( x

ij

! x )

2 j=1 ni

"

i=1 r

"

n-1

El cociente entre la variabilidad “entre” y la variabilidad “dentro”, una vez que se han hecho comparables, sigue una distribución F de Snedecor con r-1 y n-r grados de libertad. La distribución nos sirve para buscar el valor a partir del cual el cociente es lo suficientemente grande como para declarar las diferencias entre grupos estadísticamente significativas.

Los estimadores de los efectos de los tratamientos se estiman a partir de

ˆ

!

i

= ˆ

µ

i

" ˆ

µ = x

i

" x

y la parte propia de cada observación (o residual)

ˆ

!

ij

= x

ij

" ˆ

µ "#

i

= x

ij

" x

i

Los residuales pueden servirnos para la validación de las hipótesis básicas.

Recuérdese que, en realidad, un análisis de la varianza de una vía es equivalente a un modelo de regresión en el que solo aparece una regresora cualitativa con r categorías (mediante las correspondientes variables ficticias). La validación de las hipótesis básicas puede

(6)

hacerse entonces de la misma manera que en un modelo re regresión, utilizando gráficos de residuales.

COMPARACIONES POR PAREJAS

Una vez determinada la significación de las diferencias procederemos a la comparación de los tratamientos por parejas, es decir, a contrastar la hipótesis

H

0

:

µ

i

=

µ

j

H

a

:

µ

i

!

µ

j

para cada pareja de medias.

El estadístico de contraste que utilizaremos es:

t

i, j

=

x

i

! x

j

S

R

1

n

i

+

1

n

j

" t

N!r

que sigue Una distribución t de Student con N-r grados de libertad. La realización directa de cada contraste para un nivel de significación α incrementa la probabilidad de cometer un error de tipo I para el contraste global de igualdad de todas las medias por lo que, en general, el nivel de significación de cada contraste particular tiene que ser corregido.

Si no importa el incremento en el riesgo tipo I puede realizarse directamente el contraste t de Student, asumiendo que probablemente encontraremos más diferencias de las que se encuentran realmente en los datos.

Se rechaza la hipótesis nula si el estadístico de contraste supera el valor crítico de la distribución t de Student al nivel α.

t

expi, j

=

x

i

! x

j

S

R

1

n

i

+

1

n

j

> t

N!r," o lo que es lo mismo,

(7)

x

i

! x

j

> t

N!r,"

S

R

1

n

i

+

1

n

j

es decir, cuando la diferencia de medias supera el valor

t

N!r,"

S

R

1

n

i

+

1

n

j

#

$

%

&

'

(

que se denomina “diferencia significativa

mínima” (lest significant difference). Por esta razón, a veces al test se

le conoce como LSD.

Si se está interesado en mantener el nivel de significación global por debajo del nivel predeterminado, es necesario corregir el nivel que se utilizará en cada contraste individual de forma que al aumentar el riesgo, permanezca por debajo del fijado.

La corrección consiste en utilizar para cada contraste un nivel α ‘, más pequeño que α y que resulta de dividir éste por una constante de penalización K.

!

'

=

!

K

Dependiendo de los valores que tomemos para K obtendremos distintos procedimientos de contraste.

TEST DE BONFERRONI

K es el número de comparaciones posibles por parejas.

K

=

r

2

!

"#

$

%&

=

r(r

'1)

2

El test de Bonferroni es el que más penaliza de forma que, el nivel de significación para el contraste global queda, en realidad, por debajo del fijado. Se trata entonces de un test conservador que detecta menos diferencias de las que hay realmente en los datos. TEST DE TUKEY

Cuando los tamaños de muestra son todos iguales es posible utilizar como penalización el propio número de grupos r.

(8)

LSD Tukey Bonferroni

(9)

ANALISIS DE DOS VIAS

En muchas situaciones prácticas la unidades experimentales no son homogéneas por lo que conviene agruparlas en distintos conjuntos de observaciones homogéneas. A tales conjuntos se les denomina bloques.

Los tratamientos se aplican dentro de cada bloque siguiendo las mismas técnicas de aleatorización expuestas previamente.

Se procurará que los tratamientos estén representados de la misma manera en todos los bloques.

Diseño en bloques al azar

Supongamos que se dispone de r tratamientos a comparar y que se dividen las observaciones en s bloques con r unidades experimentales cada uno.

Dentro de cada bloque se aplica una vez cada tratamiento utilizando un procedimiento de aleatorización.

Los datos resultantes serían los siguientes

Bloques

Tratamientos

T

1

… T

r

B

1

x

11

… x

1r

!

!

"

!

B

s

x

s1

… x

sr

El modelo matemático es ahora

x

ij

=

µ

ij

+

!

ij

x

ij

=

µ + "

i

+

#

j

+

!

ij

Donde

α

i

es el efecto debido al bloque,

β

j

es el efecto debido al tratamiento y

ε

ij

es el error experimental.

(10)

Obsérvese que solamente hemos sustraído del residual la parte correspondiente a los bloques.

-Análisis estadístico: Análisis de la varianza de dos vías.

Las hipótesis de que los distintos tratamientos y los bloques no producen ningún efecto se contrasta mediante el análisis de la varianza de dos vías, comparando la variabilidad entre bloques y la variabilidad entre tratamientos con la variabilidad dentro de los grupos.

Los resultados fundamentales se resumen en la tabla siguiente. Fuente Suma de cuadrados g.l. Estimador Fexp Entre Bloques

Q

B

= r(x

i

! x )

2 i=1 s

"

s-1

S

B2

=

Q

B

s

!1

F

B

=

S

B2

S

R2 Entre Tratam.

Q

T

=

s(x

• j

! x )

2 j=1 r

"

r-1

S

T2

=

Q

T

r

!1

F

T

=

S

T2

S

R2 Residual

Q

R

=

( x

ij

! x

i

! x

•j

+ x )

2 j=1 r

"

i=1 s

"

(r-1)(s-1)

S

R2

=

Q

R

(r!1)(s!1)

Total

Q

=

( x

ij

! x )

2 j=1 r

"

i=1 s

"

n-1

Los estimadores de los efectos de los bloques y tratamientos se estiman a partir de

(11)

ˆ

µ

= x

ˆ

!

i

= x

i

" x

ˆ

#

j

= x

•j

" x

y la parte propia de cada observación (o residual)

ˆ

!

ij

= x

ij

" x

i

" x

• j

+ x

Los residuales pueden servirnos para la validación de las hipótesis básicas de la misma manera que en el diseño de una vía.

(12)

IDEAS BASICAS SOBRE

EXPERIMENTOS FACTORIALES

-Definiciones generales y discusión

A cada uno de los tratamientos básicos le denominaremos factor y a cada una de sus posibles formas (o valores) la denominaremos nivel del factor.

Una combinación de un nivel de cada uno de los factores estudiados determina un tratamiento.

El experimento en el que todas las combinaciones de niveles de los factores son interesantes se denomina experimento factorial.

-Tipos de factores

-Factores cualitativos específicos.

Factores susceptibles de aplicación Factores de clasificación

-Factores cuantitativos

-Factores cualitativos ordenados. -Factores cualitativos muestreados.

(13)

Efectos principales e interacción en un experimento de dos factores.

Supongamos que tenemos un experimento de dos factores A y B con cuatro niveles cada uno, y supongamos, para simplificar que no existe variación no controlada.

Factor B

Factor A nivel 1 nivel 2 nivel 3 nivel 4 media

nivel 1 9 11 14 15 12.25

nivel 2 12 14 17 18 15.25

nivel 3 10 12 15 16 13.25

nivel 4 13 15 18 19 16.25

media 11 13 16 17

Tenemos varias formas de cacterizar esta tabla:

a)La diferencia entre las observaciones de dos niveles cualesquiera de A es la misma para todos los niveles de B.

b)La diferencia entre las observaciones de dos niveles cualesquiera de B es la misma para todos los niveles de A.

c) Los efectos de los dos factores son aditivos.

d) Los residuales al restar los efectos fila y columna son cero.

En este caso se dice que los factores no interactuan o que sus efectos son aditivos.

Si estas condiciones no se verifican decimos que hay una interacción entre A y B.

Se dice que hay interacción cuando las diferencias entre dos niveles cualesquiera de uno de los factores dependen de los niveles del otro factor.

Factor B

Factor A nivel 1 nivel 2 nivel 3 nivel 4 media

nivel 1 9 11 14 15 12.25

nivel 2 12 14 17 18 15.25

nivel 3 11 11 14 17 13.25

nivel 4 12 16 19 18 16.25

(14)

Efectos principales: Efectos de cada uno de los niveles de los factores por separado (promediando sobre el otro factor).

Interacción: Efectos producidos por la aplicación conjunta de los niveles de los dos factores.

Gráficos de interacción 0 2 4 6 8 10 12 14 16 18 20 n1 n2 n3 n4 Efectos aditivos 0 2 4 6 8 10 12 14 16 18 20 n1 n2 n3 n4 Efectos no aditivos

(15)

Experimento factorial con dos factores de variación y el mismo número de observaciones por casilla.

Se dispone de un conjunto de observaciones homogéneas y se asigna los tratamientos (combinación de niveles de los dos factores) aleatoriamente a las unidades.

Los datos resultantes serían los siguientes

Factor B

Factor A

A

1

A

r

B

1

x

111

!

x

11t

!

"

#

#

#

$

%

&

&

&

x

1r1

!

x

1rt

!

"

#

#

#

$

%

&

&

&

!

!

"

!

B

s

x

s11

!

x

s1t

!

"

#

#

#

$

%

&

&

&

x

rs1

!

x

rst

!

"

#

#

#

$

%

&

&

&

El modelo matemático es ahora

x

ijk

=

µ

ij

+

!

ijk

x

ijk

=

µ +"

i

+

#

j

+ (

"#)

ij

+

!

ijk

Donde αi es el efecto debido al bloque, βj es el efecto debido al tratamiento, (αβ)ij es el efecto conjunto (interacción) y εij es el error.

-Análisis estadístico: Análisis de la varianza de dos vías.

Las hipótesis de que los distintos factores no producen ningún efecto y de que no existe interacción se contrastan mediante el análisis de la varianza de dos vías con interacción, comparando la

(16)

variabilidad entre los niveles del factor A, la variabilidad entre los niveles del factor B, y la variabilidad debida a la interacción con la variabilidad dentro de los grupos o residual.

Fuente Suma de cuadrados g.l. Estimador Fexp Filas

Q

F

=

(x

i••

! x )

2 k=1 t

"

j=1 r

"

i=1 s

"

s-1

S

F2

=

Q

F

s

!1

S

F2

S

R2 Columnas

Q

C

=

(x

• j•

! x )

2 k=1 t

"

j=1 r

"

i=1 s

"

r-1

S

C2

=

Q

C

r

!1

S

C2

S

R2 Interacc.

Q

FC

=

(x

ij

! x

i••

! x

• j•

+ x )

2 i, j,k

"

(r-1)(s-1)

S

FC2

=

Q

FC

(r!1)(s!1)

S

FC2

S

R2 Resid.

Q

R

=

( x

ijk

! x

ij

)

2 k=1 t

"

j=1 r

"

i=1 s

"

rs(t-1)

S

R2

=

Q

R

rs(t

!1)

Total

Q

=

(x

ij

! x )

2 k=1 t

"

j=1 r

"

i=1 s

"

rst-1

Los estimadores de los efectos de los bloques y tratamientos se estiman a partir de

µ

= x

ˆ

!

i

= x

i••

" x

ˆ

#

j

= x

•j•

" x

ˆ

!

#

ˆ

ij

( )

= x

ij

" x

i••

" x

• j•

+ x

(17)

ˆ

!

ij

= x

ijk

" x

ij

Los residuales pueden servirnos para la validación de las hipótesis básicas de la misma manera que en el diseño de una vía.

(18)

EJEMPLO

Se está investigando cual es el efecto de tres tipos de abono sobre dos tipos de suelo. Se espera que el efecto de los distintos abonos se manifieste de forma diferente dependiendo del tipo de suelo. Para el presente estudio tomaremos dos tipos de suelo, ácido y alcalino y tres tipos de abono que denotaremos con A, B y C. Tenemos así dos factores (suelo y abono) con 2 y 3 niveles respectivamente, que resultan en 6 combinaciones. Tomaremos un diseño factorial con dos factores y tres réplicas en cada una de las combinaciones de los niveles de los dos factores. La respuesta es un índice de abundancia de una determinada especie tras la aplicación de los distintos abonos. Los resultados se muestran en la tabla siguiente.

A B C 8 10 8 Ácido 4 8 6 0 6 4 14 4 15 Alcalino 10 2 12 6 0 9 1 18,000 18,000 2,038 ,1789 2,038 ,248 2 48,000 24,000 2,717 ,1063 5,434 ,428 2 144,000 72,000 8,151 ,0058 16,302 ,905 12 106,000 8,833

DF Sum of Squares Mean Square F-Value P-Value Lambda Power SUELO

ABONO

SUELO * ABONO Residual

ANOVA Table for RESPUESTA

3 4,000 4,000 2,309 3 8,000 2,000 1,155 3 6,000 2,000 1,155 3 10,000 4,000 2,309 3 2,000 2,000 1,155 3 12,000 3,000 1,732 Count Mean Std. Dev. Std. Err. ACIDO, A ACIDO, B ACIDO, C ALCALINO, A ALCALINO, B ALCALINO, C

Means Table for RESPUESTA Effect: SUELO * ABONO

(19)

0 2 4 6 8 10 12 14 Cell Mean ACIDO ALCALINO Cell C B A Interaction Line Plot for RESPUESTA

Effect: SUELO * ABONO

2,000 3,739 ,2664 -2,000 3,739 ,2664 -4,000 3,739 ,0380 S Mean Diff. Crit. Diff P-Value A, B

A, C B, C

Fisher's PLSD for RESPUESTA Effect: ABONO

Significance Level: 5 %

2,000 4,769 ,2664 -2,000 4,769 ,2664 -4,000 4,769 ,0380 Mean Diff. Crit. Diff P-Value A, B

A, C B, C

Comparisons in this table are not significant unless the corresponding p-value is less than ,0167.

Bonferroni/Dunn for RESPUESTA Effect: ABONO

Significance Level: 5 %

2,000 4,574 -2,000 4,574 -4,000 4,574 Mean Diff. Crit. Diff A, B

A, C B, C

Tukey/Kramer for RESPUESTA Effect: ABONO

(20)

2 24,000 12,000 1,500 ,2963 3,000 ,207 6 48,000 8,000

DF Sum of Squares Mean Square F-Value P-Value Lambda Power ABONO

Residual

ANOVA Table for RESPUESTA Split By: SUELO

Cell: ACIDO

-4,000 7,087 -2,000 7,087 2,000 7,087 Mean Diff. Crit. Diff A, B

A, C B, C

Tukey/Kramer for RESPUESTA Effect: ABONO

Significance Level: 5 % Split By: SUELO Cell: ACIDO

2 168,000 84,000 8,690 ,0169 17,379 ,822 6 58,000 9,667

DF Sum of Squares Mean Square F-Value P-Value Lambda Power ABONO

Residual

ANOVA Table for RESPUESTA Split By: SUELO

Cell: ALCALINO

8,000 7,791 S -2,000 7,791 -10,000 7,791 S Mean Diff. Crit. Diff A, B

A, C B, C

Tukey/Kramer for RESPUESTA Effect: ABONO

Significance Level: 5 % Split By: SUELO Cell: ALCALINO

Figure

Actualización...

Referencias

Actualización...