El denominador del estimador de varianza (imparcial) es ya que hay observaciones y solo se está estimando un parámetro.
Por la misma razón, me pregunto por qué el denominador de covarianza no debería ser cuando se estiman dos parámetros.
El denominador del estimador de varianza (imparcial) es ya que hay observaciones y solo se está estimando un parámetro.
Por la misma razón, me pregunto por qué el denominador de covarianza no debería ser cuando se estiman dos parámetros.
Respuestas:
Las covarianzas son variaciones.
Ya que por la identidad de polarización
Los denominadores deben ser iguales.
fuente
Un caso especial debería darte una intuición; piensa en lo siguiente:
Está contento de que este último sea debido a Corrección de Bessel.∑ni=1(Xi−X¯¯¯¯¯)2n−1
Pero reemplazar por en por el primero da , entonces, ¿qué crees que podría llenar mejor el espacio en blanco?X ^ C o v ( X , Y ) ∑ n i = 1 ( XY X Cov^(X,Y) ∑ni=1(Xi−X¯¯¯¯¯)(Xi−X¯¯¯¯¯)mystery denominator
fuente
Una respuesta rápida y sucia ... Consideremos primero ; si tuviera observaciones con el valor esperado conocido , usaría para estimar la varianza.n E ( X ) = 0 1var(X) n E(X)=0 1n∑ni=1X2i
Al ser desconocido el valor esperado, puede transformar sus observaciones en observaciones con el valor esperado conocido tomando para . Obtendrá una fórmula con un en el denominador; sin embargo, los no son independientes y deberá tener esto en cuenta; al final encontrarás la fórmula habitual.n - 1 A i = X i -n n−1 i = 2 , … , n n - 1 A iAi=Xi−X1 i=2,…,n n−1 Ai
Ahora, para la covarianza, puede usar la misma idea: si el valor esperado de fuera , tendría un en la fórmula. Al restar a todos los demás valores observados, obtiene observaciones con el valor esperado conocido ... y un en la fórmula; una vez más, esto introduce cierta dependencia para tener en cuenta cuenta.( 0 , 0 ) 1(X,Y) (0,0) 1n n - 1 1(X1,Y1) n−1 1n−1
PD La manera limpia de hacerlo es elegir una base ortonormal de , es decir, vectores tal que n⟨(1,…,1)′⟩⊥ c 1 , … , c n - 1 ∈ R nn−1 c1,…,cn−1∈Rn
Luego puede definir variables y . Los son independientes, tienen un valor esperado y tienen la misma varianza / covarianza que las variables originales.A i = ∑ j c i j X j B i = ∑ j c i j Y j ( A i , B i ) ( 0 , 0 )n−1 Ai=∑jcijXj Bi=∑jcijYj (Ai,Bi) (0,0)
Todo el punto es que si quieres deshacerte de la expectativa desconocida, sueltas una (y solo una) observación. Esto funciona igual para ambos casos.
fuente
Aquí hay una prueba de que el estimador de covarianza muestral con variante p con denominador es un estimador imparcial de la matriz de covarianza:1n−1
.x′=(x1,...,xp)
Para mostrar:E(S)=n−1nΣ
Prueba:S=1n∑xix′i−x¯x¯′
Próximo:
(1)E(xix′i)=Σ+μμ′
(2)E(x¯x¯′)=1nΣ+μμ′
Por lo tanto:E(S)=Σ+μμ′−(1nΣ+μμ′)=n−1nΣ
Y entonces , con el denominador final1Su=nn−1S , es imparcial. Los elementos fuera de la diagonal deSuson sus covarianzas de muestra individuales.1n−1 Su
Observaciones adicionales:
Los n sorteos son independientes. Esto se usa en (2) para calcular la covarianza de la media muestral.
Los pasos (1) y (2) usan el hecho de queCov(x)=E[xx′]−μμ′
El paso (2) utiliza el hecho de queCov(x¯)=1nΣ
fuente
Supongo que una forma de desarrollar la intuición detrás del uso de 'n-1' y no 'n-2' es: para calcular la covarianza, no es necesario que quisemos decir X e Y, sino cualquiera de los dos, es decir
fuente
1) Inicio .df=2n
Como un ejemplo trillado, considere que
En otras palabras, sin pérdida de generalidad podemos escribir
fuente
Hold
?