Asintóticos latinos de muestreo de hipercubos

11

Estoy tratando de construir una prueba para un problema en el que estoy trabajando y una de las suposiciones que estoy haciendo es que el conjunto de puntos de los que estoy tomando muestras es denso en todo el espacio. Prácticamente, estoy usando el muestreo latino de hipercubos para obtener mis puntos en todo el espacio muestral. Lo que me gustaría saber es si las muestras de hipercubos latinos son densas en todo el espacio si dejas que el tamaño de tu muestra tienda a ? Si es así, una cita para este hecho sería muy apreciada.

kjetil b halvorsen
fuente
44
Sí, suponiendo una distribución continua, porque para cualquier ϵ>0 puede establecer el número de divisiones para que todos los intervalos por variable tengan un ancho <ϵ/2 . Por lo tanto, al menos un hiperintervalo (es decir, el volumen de muestra) está estrictamente contenido por un ancho ϵ hipercubo alrededor de cualquier punto que elija. (Comentario, no respuesta, ya que todo lo que sé sobre LHS proviene de Wikipedia desde hace diez minutos ...)
Creosota
Esto es cierto, pero no creo que pueda usarse fácilmente para mostrar la densidad de grandes muestras de hipercubos latinos. La razón de esto es que los puntos de muestra en LHS no son independientes: la existencia de un punto de muestra dentro de un hiperintervalo específico impide que aparezcan otros puntos de muestra en la misma fila / columna (o cualquiera que sea el término multidimensional para esto) .
S. Catterall reinstala a Monica el
@Creosote, ¿crees que podrías formalizar más tu respuesta?
@RustyStatistician, expanda su publicación de apertura para explicar, de manera formal como lo requiere su prueba, lo que quiere decir con "el conjunto de puntos de los que estoy tomando muestras es denso en todo el espacio". Gracias.
Creosota
Si tomo una muestra de hipercubo latino inicial donde es tan grande, consideramos que es infinito, ¿es densa esa muestra? n

Respuestas:

6

Respuesta corta: Sí, de manera probabilística. Es posible demostrar que, dada cualquier distancia , cualquier subconjunto finito { x 1 , ... , x m } del espacio muestral y cualquier 'tolerancia' prescrita δ > 0 , para tamaños de muestra adecuadamente grandes, podemos estar seguros de que la probabilidad de que haya un punto de muestra dentro de una distancia ϵ de x i es > 1 - δ para todo i = 1 , ... , m .ϵ>0{x1,,xm}δ>0ϵxi>1δi=1,,m

Respuesta larga: no conozco ninguna cita directamente relevante (pero ver más abajo). La mayor parte de la literatura sobre el muestreo latino de hipercubos (LHS) se relaciona con sus propiedades de reducción de varianza. El otro problema es, ¿qué significa decir que el tamaño de la muestra tiende a ? Para el muestreo aleatorio IID simple, una muestra de tamaño n se puede obtener de una muestra de tamaño n - 1 añadiendo una muestra independiente adicional. Para LHS, no creo que pueda hacer esto ya que la cantidad de muestras se especifica de antemano como parte del procedimiento. Así que parece que usted tendría que tomar una serie de independientes muestras LHS de tamaño 1 , 2 , 3 , . .nn1.1,2,3,...

1,2,3,...[0,1)2nXn=(Xn1,Xn2,...,Xnn)nnϵ>0x[0,1)dP(min1knXnkxϵ)0n

Si la muestra se obtiene tomando muestras independientes de la distribución ('muestreo aleatorio IID'), entonces donde es el volumen de la bola dimensional de radio . Entonces, ciertamente, el muestreo aleatorio de IID es asintóticamente denso.XnnU([0,1)d)

P(min1knXnkxϵ)=k=1nP(Xnkxϵ)(1vϵ2d)n0
vϵdϵ

Ahora considere el caso de que las muestras son obtenidas por LHS. El teorema 10.1 en estas notas establece que los miembros de la muestra están todos distribuidos como . Sin embargo, las permutaciones utilizadas en la definición de LHS (aunque independientes para diferentes dimensiones) inducen cierta dependencia entre los miembros de la muestra ( ), por lo que es menos obvio que la propiedad de densidad asintótica se mantiene.XnXnU([0,1)d)Xnk,kn

Arregle y . Defina . Queremos mostrar que . Para hacer esto, podemos hacer uso de la Proposición 10.3 en esas notas , que es una especie de Teorema del límite central para el muestreo latino de hipercubos. Defina por si está en la bola de radio alrededor de , contrario. Luego, la Proposición 10.3 nos dice que donde yϵ>0x[0,1)dPn=P(min1knXnkxϵ)Pn0f:[0,1]dRf(z)=1zϵxf(z)=0Yn:=n(μ^LHSμ)dN(0,Σ)μ=[0,1]df(z)dzμ^LHS=1ni=1nf(Xni) .

Toma . Eventualmente, para suficientemente grande , tendremos . Entonces eventualmente tendremos . Por lo tanto, , donde es el cdf normal estándar. Como era arbitrario, se deduce que según sea necesario.L>0nnμ<LPn=P(Yn=nμ)P(Yn<L)lim supPnlim supP(Yn<L)=Φ(LΣ)ΦLPn0

Esto demuestra la densidad asintótica (como se definió anteriormente) tanto para el muestreo aleatorio iid como para el LHS. Informalmente, esto significa que dado cualquier y cualquier en el espacio de muestreo, la probabilidad de que la muestra llegue a de se puede hacer tan cercana a 1 como desee eligiendo el tamaño de muestra lo suficientemente grande. Es fácil extender el concepto de densidad asintótica para aplicarlo a subconjuntos finitos del espacio muestral, aplicando lo que ya sabemos a cada punto en el subconjunto finito. Más formalmente, esto significa que podemos mostrar: para cualquier y cualquier subconjunto finito del espacio muestral,ϵxϵxϵ>0{x1,...,xm}min1jmP(min1knXnkxj<ϵ)1 (como ).n

S. Catterall reinstala a Mónica
fuente
Tengo dos preguntas: 1) Si solo tiene una muestra de tamaño donde es grande, ¿eso cambia el argumento? Y 2) las muestras de hipercubos latinos pueden estar en cualquier rango de valores (no necesariamente solo (0,1)), ¿eso también cambia la respuesta? nn
Además, ¿estaría dispuesto a explicar por qué para suficientemente grande , tendremos ? Supongo que eso significa que para grande , va a cero, porque en distribución es un ? nnμnμ^LHSN(0,Σ)
@RustyStatistician Todo se define en términos de muestras finitas, es decir, pero grande. Agregué algunas explicaciones adicionales al final para explicar lo que está sucediendo. Se pueden acomodar fácilmente otros rangos de valores ((0,1) no es especial), siempre que el volumen del espacio muestral sea finito. n<
S. Catterall reinstala a Mónica el
¿Puedes dar más detalles sobre tu respuesta corta?
@RustyStatistician La respuesta corta es un resumen informal de mi respuesta larga que, creo que estará de acuerdo, ¡ya es bastante elaborada! Entonces, como se sugirió anteriormente, sería bueno si pudiera reescribir su pregunta en términos más formales para que sepa si mi intento de respuesta está en el camino correcto (en términos de responder a su pregunta prevista) o no.
S. Catterall reinstala a Monica el
3

No estoy seguro de si esto es lo que quieres, pero aquí va.

Estás muestreando LHS puntos de , por ejemplo. Argumentaremos de manera muy informal que, para cualquier , el número esperado de cuboides vacíos (hiper) de tamaño en cada dimensión va a cero como .n[0,1)dϵ>0ϵn

Supongamos que para que si dividimos uniformemente en pequeños cuboides - digamos , microcuboides - de ancho entonces cada ancho- cuboide contiene al menos un microcuboide. Entonces, si podemos demostrar que la cantidad esperada de microcuboides sin muestrear es cero, en el límite como , entonces hemos terminado. (Tenga en cuenta que nuestros microcuboides están dispuestos en una cuadrícula regular, pero los -cuboides pueden estar en cualquier posición).m=2/ϵ[0,1)dmd1/mϵnϵ

La posibilidad de perder completamente un microcuboide dado con el primer punto de muestra es , independiente de , ya que el primer conjunto de coordenadas de muestra (primer punto de muestra) se puede elegir libremente. Dado que los primeros puntos de muestra han perdido ese microcuboide, los puntos de muestra subsiguientes tendrán más dificultades para omitir (en promedio), por lo que la probabilidad de que falten todos los puntos es menor que .1mdndn(1md)n

Hay microcuboides en , por lo que el número esperado que se pierde está limitado por - porque las expectativas se suman - lo cual es cero en el límite como .md[0,1)dmd(1md)nn


Actualizaciones ...

(1) Aquí hay una imagen que muestra cómo, para dado , puede elegir lo suficientemente grande como para que una cuadrícula de "microcuboides" (cuadrados en esta ilustración bidimensional) tenga al menos un microcuboide dentro cualquier región de tamaño . He mostrado dos regiones "aleatoriamente": y he coloreado de púrpura los dos microcuboides que contienen.ϵmm×m ϵ×ϵϵ×ϵ

ingrese la descripción de la imagen aquí

(2) Considere cualquier microcuboide particular. Tiene volumen , una fracción de todo el espacio. Por lo tanto, la primera muestra de LHS, que es la única elegida completamente libremente, la perderá con una probabilidad de . El único hecho importante es que este es un valor fijo (dejaremos , pero mantenemos constante) que es menor que .(1/m)dmd1mdnm1

(3) Ahora piense en el número de puntos de muestra . He ilustrado en la imagen. LHS funciona en una malla fina de estos súper diminutos "nanocuboides" de tamaño (si lo desea), no los más grandes microcuboides de tamaño, pero en realidad eso no es importante en la prueba. La prueba solo necesita la leve afirmación de que se hace gradualmente más difícil, en promedio, seguir perdiendo un microcuboide dado a medida que arroja más puntos. Entonces, era una probabilidad de para el primer punto LHS faltante, pero menor que para todos los faltantes: eso es cero en el límite comon>mn=6mn1×n1m1×m11md(1md)n nn .

(4) Todos estos épsilons están bien como prueba, pero no son excelentes para su intuición. Así que aquí hay un par de imágenes que ilustran y muestras puntos, con la mayor área rectangular vacío resaltado. (La cuadrícula es la cuadrícula de muestreo de LHS: los "nanocuboides" mencionados anteriormente). Debería ser "obvio" (en un sentido vago e intuitivo) que el área vacía más grande se reducirá a un tamaño arbitrariamente pequeño como el número de puntos de muestra .n=10n=50n

ingrese la descripción de la imagen aquí

Creosota
fuente
¿Este argumento es válido para algún intervalo general? En lugar de ? [0,1)
Sí, para cualquier dimensión finita. Debería estar más claro ahora que he arreglado la prueba.
Creosota
¿Es posible dar una imagen 1-d o incluso 2-d de esta prueba? Estoy bastante perdido en eso.
Hecho. Feliz de responder más preguntas si es necesario.
Creosota
¡Genial gracias! Eso definitivamente ayuda ahora con la intuición.