Básicamente, hay tres preguntas involucradas.
Sé que , pero ¿cómo lo pruebo?E(Xk)=(nk)⋅p(k2)
Utiliza la linealidad de la expectativa y alguna reescritura inteligente. En primer lugar, tenga en cuenta que
Ahora, al tomar la expectativa de , uno simplemente puede extraer la suma (debido a la linealidad) y obtener
Al extraer la suma, eliminamos todas las dependencias posibles entre subconjuntos de nodos. Por lo tanto, ¿cuál es la probabilidad de que sea una camarilla? Bueno, no importa en qué consiste , todas las probabilidades de borde son iguales. Por lo tanto,
Xk=∑T⊆V,|T|=k1[T is clique].
XkE(Xk)=∑T⊆V,|T|=kE(1[T is clique])=∑T⊆V,|T|=kPr[T is clique]
TTPr[T is clique]=p(k2), ya que todos los bordes en este subgrafo deben estar presentes. Y luego, el término interno de la suma ya no depende de , dejándonos con .
TE(Xk)=p(k2)∑T⊆V,|T|=k1=(nk)⋅p(k2)
Cómo mostrar eso para :n→∞E(Xlog2n)≥1
No estoy completamente seguro de si esto es correcto. Aplicando un límite en el coeficiente binomial, obtenemos
E(Xlogn)=(nlogn)⋅p(logn2)≤⎛⎝nep(logn)4logn⎞⎠logn=(ne⋅n(logp)/4logn)logn.
(Tenga en cuenta que delimitado por .) Sin embargo, ahora uno podría elegir y obtener eso , lo que hace que todo el término vaya a para grande . ¿Quizás te estás perdiendo algunas suposiciones en ?
p−1+logn2plogn4p=0.001log20.001≈−9.960np