Supongamos que tenemos muestras de dos variables aleatorias independientes de Bernoulli, y .
¿Cómo demostramos que ?
Suponga que .
distributions
sampling
bernoulli-distribution
Un anciano en el mar.
fuente
fuente
Respuestas:
Poner ,b=√a=θ1(1−θ1)√n1√ ,
A=(ˉX1-θ1)/a,
B=(ˉX2-θ2)/b. Tenemos
A→dN(0,1),B→dN(0,1). En términos de funciones características, significa
ϕA(t)≡Eeb = θ2( 1 - θ2)√norte2√ A = ( X¯1−θ1)/a B=(X¯2−θ2)/b A→dN(0,1), B→dN(0,1)
Queremos demostrar que
D:= a
Como y B son independientes, ϕ D ( t ) = ϕ A ( aA B
como deseamos que sea.
Esta prueba está incompleta. Aquí necesitamos algunas estimaciones para la convergencia uniforme de funciones características. Sin embargo, en el caso bajo consideración podemos hacer cálculos explícitos. Poner . ϕ X 1 , 1 ( t )p=θ1, m=n1
comot3m-3/2→0. Por lo tanto, para unatfija,
ϕD(t)=(1-a2t2
Note that similar calculations may be done for arbitrary (not necessarily Bernoulli) distributions with finite second moments, using the expansion of characteristic function in terms of the first two moments.
fuente
Proving your statement is equivalent to proving the (Levy-Lindenberg) Central Limit Theorem which states
If{Zi}ni=1 is a sequence of i.i.d random variable with finite mean E(Zi)=μ and finite variance V(Zi)=σ2 then
HereZ¯=∑iZi/n that is the sample variance.
Then it is easy to see that if we put
and
(There's a last passage, and you have to adjust this a bit for the general case wheren1≠n2 but I have to go now, will finish tomorrow or you can edit the question with the final passage as an exercise )
fuente