¿Podemos estimar el tamaño de un subconjunto X de un conjunto A, muestreando aleatoriamente subconjuntos de A?

8

Deje ser un conjunto finito y supongamos que queremos calcular el tamaño de un subconjunto .XAX

Motivación : si podemos generar elementos de uniforme al azar, entonces podemos estimar el tamaño de por muestreo aleatorio. Es decir, tomamos muestras aleatorias de , si de ellas pertenecen a , entonces . Desafortunadamente, por lo que hago, generalmentees masivo y(aunque masivo) es bastante pequeño con respecto a. Entonces, si intento realizar la estimación anterior, es probable que obtenga , que, aunque no es inútil, no es realmente tan satisfactorio.A A n A m X | X | / | A | m / n | A | El | X | El | A | m = 0xAAnAmX|X|/|A|m/n|A||X||A|m=0

Entonces, tengo una idea que espero acelere este proceso. En lugar de lanzar dardos en un tablero de dardos masivo, ¿por qué no arrojo pelotas? Es decir, en lugar de muestreo de elementos , nosotros, los subconjuntos de la muestra . Seguramente debería poder inferir algo sobre la densidad de en partir de este experimento.A X AxAAXA

Supongamos que está equipado con una métrica (tengo en cuenta la distancia de Hamming). Para cualquier sea sea ​​la bola cerrada de radio en centrada en . Como podemos muestrear elementos uniforme al azar, podemos muestrear bolas uniforme al azar.d ( x , y ) y A Y ( y ) = { x A : d ( x , y ) k } k A t x A k Y k ( t )Ad(x,y)yAY(y)={xA:d(x,y)k}kAtxAkYk(t)

Suponga que (a) cada pertenece exactamente al mismo número de bolas y (b) cada bola tiene el mismo tamaño .k k rxAkkr

Ahora supongamos que genero bolas uniformemente al azar y supongamos que. Parece que podemos estimarde manera similar, es decir .Y 1 , Y 2 , , Y n m = n i = 1 | Y iX | El | A | El | X | / | A | mkY1,Y2,,Ynm=i=1n|YiX||A||X|/|A|mrn

Entonces mis preguntas son:

¿Tengo razón en que podemos aproximarnos¿de esta manera? Si es así, dudo que sea el primero en pensar en esto, ¿hay algún nombre para este método?|X|

Realmente probé esto en algunos sets, y parece coincidir con lo que afirmo.

¿Hay algún inconveniente en este enfoque? (por ejemplo, ¿es menos preciso? ¿Necesito más muestras?)

Douglas S. Stones
fuente
Creo que cometiste un pequeño error en el segundo párrafo: . De lo contrario, lo que está haciendo es básicamente reinventar la integración de Monte Carlo, bueno, la versión del subconjunto que aún no he encontrado, pero no me sorprendería si ya está hecho. |X|/|A|m/n
Raskolnikov
Gracias, sí, fue un error (de hecho, hubo un error similar más adelante también).
Douglas S. Stones

Respuestas:

3

OK, intente leer la página de Wikipedia para la integración de Monte Carlo . Verás que mencionan una versión estratificada. Estratificación es el término técnico en estadística para lo que intenta: subdividir en subconjuntos (submuestras). Supongo que las referencias pueden ayudarte más.

Raskolnikov
fuente
3

Para cualquier subconjunto de , sea la probabilidad de que lo seleccione en su muestreo. Has descrito una variable aleatoriaA π ( Y )YAπ(Y)

f(Y)=|YX|.

El total de en la población de subconjuntos de esAfA

τ(X)=YA|YX|=2|A|1|X|.

De una muestra (con reemplazo) de subconjuntos de , digamos , el Estimador Hansen-Hurwitz obtiene una estimación imparcial de este total comoY 1 , Y 2 , ... , Y mAY1,Y2,,Ym

f^π=i=1m|YiX|π(Yi).

Dividiendo esto porpor lo tanto, estima. La varianza de esEl | X | / | A | f π2|A|1|A||X|/|A|f^π

Var(f^π)=1mYAπ(Y)(|YX|π(Y)2|A|1|X|)2.

Al dividir esto entre obtiene la varianza de muestreo de. Dados , y un procedimiento de muestreo propuesto (que especifica para todo ), elija un valor de (el tamaño de la muestra) para el cual la varianza de estimación se vuelve aceptablemente pequeña.| X | / /22(|A|1)|A|2A X π ( Y ) Y A m|X|/|A|AXπ(Y)YAm

whuber
fuente
genial, supongo que esta es la respuesta! No conocía a Hansen-Hurwitz ...
robin girard
2

Supongo que tu medida es finita. WLOG puede ser una probabilidad.

El primer procedimiento que menciona es la buena estimación empírica de probabilidad :

P^(YX)=|{xiX}|/n

(hay una estimación de montecarlo de un inetgral es una buena interpretación también). En la dimensión alta no funciona ya que es probable que esté vacío para la típica A. Como ha notado, necesita regularización. La sofisticada regularización que necesita está relacionada con la dimensión de su espacio.{xiX}

Una idea es agrandar o incluso darle un peso a que no está en acuerdo con su distancia a , esto es lo que yo llamaría estimación de probabilidad de kernel (por analogía con la estimación de densidad de kernel ):x i X XXxiXX

P^(YX)=1/(c(k)n)iK(d(xi,X)/k)

donde es un núcleo que se integra a (en su caso puede ser pero el núcleo gaussiano tiene buenas propiedades) y una constante de normalización bien elegida (es decir, tal that ).1 K ( x ) = 1 { x 1 } c ( k ) P ( Y A ) = 1K1K(x)=1{x1}c(k)P^(YA)=1

robin girard
fuente