Por lo general, se supone que la muestra es homogénea en el sentido de que los términos de error ϵyo en la ecuación yyo=β0 0+β1X1+β2X2+ ... +ϵyo satisface las siguientes condiciones:
- Todos tienen media cero: mi (ϵyo) = 0 para todos yo,
- No están correlacionados: C o v (ϵyo,ϵj) = 0 para i ≠ j,
- Todos tienen la misma varianza: C o v (ϵyo) =σ2 para todos yo.
Estas se conocen como las condiciones de Gauss-Markov y aseguran que el estimador ordinario de mínimos cuadrados funcione bien (imparcialidad, mejor estimador imparcial lineal ...).
Tenga en cuenta que estas condiciones pueden cumplirse incluso si tiene observaciones de diferentes grupos. A menudo, sin embargo, ese no es el caso. Si hay diferencias en la media entre los grupos, se violan las condiciones primera y segunda. Si hay correlaciones dentro de los grupos, se viola la segunda condición. Si los grupos difieren en varianza, se viola el tercero.
La violación de las condiciones de Gauss-Markov puede causar todo tipo de problemas. Para algunas de las consecuencias de la varianza no constante, consulte la página de Wikipedia sobre heterocedasticidad .
Las transformaciones pueden ser útiles cuando no se cumple la tercera condición, pero si los diferentes grupos causan problemas con las condiciones uno y dos, parece más razonable agregar una variable ficticia de grupo o usar ANCOVA.