¿Cuál es este truco al agregar 1 aquí?

11

Estaba mirando esta página sobre la implementación de Monte Carlo de la prueba de Lillefors. No entiendo esta oración:

Hay un error aleatorio en este cálculo de la simulación. Sin embargo, debido al truco de sumar 1 al numerador y al denominador al calcular el valor P, puede usarse directamente sin tener en cuenta la aleatoriedad.

¿Qué quieren decir con el truco de sumar 1 al numerador y al denominador?

El código relevante está aquí:

n <- length(x)
nsim <- 4999
d.star <- double(nsim)
for (i in 1:nsim) {
    x.star <- rnorm(n)
    d.star[i] <- fred(x.star)
}
hist(d.star)
abline(v = d.hat, lty = 2)
## simulation-derived P-value
pval <- (sum(d.star > d.hat) + 1) / (nsim + 1)
Aksakal
fuente
¿Puedes agregar el contexto relevante aquí?
gung - Restablece a Monica
44
Parece el suavizado de Laplace para el estimador de Monte Carlo de las probabilidades, que lo reduce a 1/2; El efecto principal es probablemente evitar obtener un valor p de 0, como señaló @Tim (aunque no hay riesgo de dividir por 0 como dijo a menos que esté haciendo 0 simulaciones). Sin embargo, realmente no veo por qué esto le permite usarlo "sin tener en cuenta la aleatoriedad".
Dougal
2
¿Has escrito a Geyer directamente para preguntar qué significa la oración?
Alexis
@ Alexis, no, pero es una buena idea.
Aksakal
@Dougal, sí, se parece al suavizado de Laplace. No está claro por qué lo está aplicando aquí.
Aksakal

Respuestas:

6

La explicación en la página referenciada es

Según la hipótesis nula, la probabilidad es exactamente cuando se tienen en cuenta tanto la aleatoriedad en los datos como la aleatoriedad en la simulación.Pr(Pk/nsim)k/nsim

Para entender esto, debemos mirar el código, del cual las líneas clave (abreviadas considerablemente) son

fred <- function(x) {ks.test(...)$statistic}  # Apply a statistical test to an array
d.hat <- fred(x)                              # Apply the test to the data
d.star <- apply(matrix(rnorm(n*nsim), n, nsim),
                2, fred)                      # Apply the test to nsim simulated datasets
pval <- (sum(d.star > d.hat) + 1) / (nsim + 1)# Estimate a simulation p-value

El problema principal es que el código no coincide con la cita. ¿Cómo podemos reconciliarlos? Un intento comienza con la última mitad de la cita. Podríamos interpretar que el procedimiento comprende los siguientes pasos:

  1. Collect independiente e idénticamente distribuidos datos de acuerdo con una ley de probabilidad . Aplique un procedimiento de prueba (implementado en el código como ) para producir el número .X1,X2,,XnGtfredT0=t(X1,,Xn)

  2. Generar a través de ordenador conjuntos de datos comparables, cada una de tamaño , de acuerdo con una hipótesis nula con ley de probabilidad . Aplique a cada conjunto de datos para producir números .N=nsimnFtNT1,T2,,TN

  3. Calcule

    P=(i=1NI(Ti>T0)+1)/(N+1).

    (" " es la función del indicador implementada por la comparación de valores vectoriales en el código). Se entiende que el lado derecho es aleatorio en virtud de la aleatoriedad simultánea de (el estadístico de prueba real) y la aleatoriedad de ( las estadísticas de prueba simuladas). Id.star > d.hatT0Ti

Decir que los datos se ajustan a la hipótesis nula es afirmar que . Elija un tamaño de prueba , . Multiplicar ambos lados por y restar muestra que la probabilidad de que para cualquier número es la probabilidad de que no más de de exceda . Esto dice simplemente que encuentra dentro de la parte superior del conjunto ordenado de todas las estadísticas de prueba . Desde (por construcción)F=Gα0<α<1N+11Pαα(N+1)α1TiT0T0(N+1)αN+1T0es independiente de todo , cuando es una distribución continua, esta posibilidad será la fracción del total representada por la parte entera ; es decir, y será exactamente igual a la proporcionada es un número entero ; es decir, cuando .TiF(N+1)α

Pr(Pα)=(N+1)αN+1α
(N+1)αkα=k/(N+1)

Ciertamente, esta es una de las cosas que queremos que sea cierta para cualquier cantidad que merezca ser llamada "valor p": debe tener una distribución uniforme en . Siempre que sea ​​bastante grande, de modo que cualquier esté cerca de alguna fracción de la forma , esta tendrá un valor casi uniforme distribución. (Para conocer las condiciones adicionales requeridas de un valor p, lea el cuadro de diálogo que publiqué sobre el tema de los valores p ) .[0,1]N+1αk/(N+1)=k/(nsim+1)P

Evidentemente, la cita debe usar " " en lugar de " " donde aparezca.nsim+1nsim

whuber
fuente
5

Creo que aquí, 1 se agrega a ambos porque la estadística observada se incluye en la distribución de referencia; si este es el caso, se debe a la parte "al menos tan grande" de la definición del valor p.

No estoy seguro porque el texto parece decir algo diferente, pero por eso lo haría.

Glen_b -Reinstate a Monica
fuente
1
@whuber No veo cómo puedo estar de acuerdo. No todas las pruebas son pruebas de razón de probabilidad; cuando no son LRT, ¿qué relevancia puede tener interpretarlo en términos de razones de probabilidad?
Glen_b -Reinstale a Mónica el
1
@whuber Ciertamente puede hacer. Pero considere, por ejemplo, un Wilcoxon-Mann-Whitney (o, de hecho, las pruebas de permutación más ampliamente). Hay varias pruebas perfectamente razonables en uso amplio que no son ni una prueba de Lilliefors ni una prueba de razón de probabilidad. Cuando hay una alternativa clara contra la cual se desea poder, a menudo es posible construir una estadística de prueba significativa donde el orden en el espacio de muestra dado por la estadística de prueba tiene perfecto sentido y tiene propiedades razonables en una amplia gama de alternativas.
Glen_b -Reinstale a Mónica el
1
Ciertamente, cuando se llega a una estadística de prueba que corresponde (en el sentido de tomar valores más extremos, ya sean más grandes, más pequeños o ambos) en el tipo de alternativa en la que uno está interesado, uno es atractivo en "el tipo de alternativa en la que está interesado "- pero incluso si uno fuera a usar una prueba inadmisible (incluso una prueba inútil), el principio que describo en mi respuesta de incluir la muestra observada en los resultados simulados todavía se aplicaría. Una vez que tiene un pedido, incluso si no es el mejor, al calcular los valores de p, el caso observado aún pertenecería al recuento.
Glen_b -Reinstale a Mónica el
2
@whuber puede que no estemos tan separados ahora. Al elegir una estadística de prueba razonable, sin duda querríamos recurrir a algo . Pero una vez que tenemos una estadística de prueba (como debemos tener para el momento en que estamos simulando bajo el valor nulo), ya lo hemos hecho. Y una vez que lo hayamos hecho, la razón por la que incluiríamos el caso observado en nuestro cálculo del valor p se debe a lo que es un valor p.
Glen_b -Reinstate Monica
1
No creo que tengamos ninguna diferencia en absoluto. (Tenga en cuenta que mi propia respuesta deja en claro que incluir la muestra observada en el recuento es apropiado). Mi comentario no se dirigió a su respuesta a la pregunta (con la que estoy de acuerdo y voté), sino solo a la frase problemática "al menos tan grande." Veo esa frase malinterpretada en tantos lugares en este sitio (y en otros lugares) que quería llamar la atención de los lectores sobre lo que realmente debe significar.
whuber