Deseo saber qué literatura estadística es relevante para el siguiente problema, y tal vez incluso una idea sobre cómo resolverlo.
Imagine el siguiente problema:
Tenemos 4 posibles tratamientos para alguna enfermedad. Para verificar qué tratamiento es mejor, realizamos una prueba especial. En la prueba, comenzamos por no tener sujetos, luego, uno por uno, se ingresan más sujetos en la prueba. Cada paciente se asigna aleatoriamente a uno de los 4 tratamientos posibles. El resultado final de un tratamiento es "saludable" o "aún enfermo", y digamos que podemos conocer este resultado al instante. Esto significa que en cualquier punto dado, podemos crear una tabla de contingencia de dos por cuatro, que indique cuántos de nuestros sujetos cayeron en qué tratamiento / resultado final.
En cualquier momento podemos verificar la tabla de contingencia (por ejemplo, usando una prueba de chi cuadrado), para ver si hay un tratamiento estadísticamente diferente entre los 4 tratamientos posibles. Si uno de ellos es mejor que el resto, detenemos la prueba y la elegimos como el "ganador". Si se demuestra que algún ensayo es peor que los otros tres, lo retiraremos del ensayo y dejaremos de dárselo a futuros pacientes.
Sin embargo, el problema aquí es cómo ajusto el valor p por el hecho de que la prueba se puede realizar en cualquier punto dado, que existe una correlación entre las pruebas y también que la naturaleza adaptativa del proceso manipula el proceso (para ejemplo, si se encuentra que algún tratamiento es "malo")?
Respuestas:
Esta área de ensayos clínicos secuenciales ha sido explorada sustancialmente en la literatura. Algunos de los investigadores notables son Scott Emerson, Tom Flemming, David DeMets, Stephen Senn y Stuart Pocock, entre otros.
Es posible especificar una "regla de gasto alfa". El término tiene su origen en la naturaleza de las pruebas frecuentistas (no pesqueras) donde, cada acción que aumenta el riesgo de un hallazgo falso positivo necesariamente debe reducir el poder para mantener la prueba del tamaño correcto. Sin embargo, la mayoría de estas pruebas requieren que las "reglas de detención" se especifiquen previamente en función de los límites de información del estudio. (como recordatorio, más información significa mayor poder cuando el valor nulo es falso).
Parece que lo que le interesa es un proceso de monitoreo continuo en el que cada evento requiere una "revisión" de los datos. Que yo sepa, tal prueba no tiene poder. Se puede hacer con análisis bayesiano donde la parte posterior se actualiza continuamente en función del tiempo, y los factores de Bayes se usan para resumir la evidencia en lugar de los valores .p
Ver
[1] www.rctdesign.org/
fuente
Esto suena como una simulación en orden.
Entonces simulé su procedimiento de la siguiente manera: personas se agregan a la prueba una por una, asignadas aleatoriamente a uno de los grupos. El resultado del tratamiento para esta persona se elige al azar (es decir, estoy simulando una hipótesis nula de que todos los tratamientos tienen un efecto cero). Después de agregar a cada persona, realizo una prueba de chi cuadrado en la tabla de contingencia y verifico si . Si es así, entonces (y solo entonces) adicionalmente realizo pruebas de chi cuadrado en las tablas de contingencia reducidas para probar cada grupo contra otros tres grupos agrupados. Si una de estas cuatro pruebas adicionales resulta significativa (con el mismo4 4 × 2 p ≤ α 2 × 2 α N NN=1000 4 4×2 p≤α 2×2 α ), luego verifico si este tratamiento funciona mejor o peor que los otros tres juntos. Si es peor, dejo este tratamiento y continúo agregando personas. Si es mejor, detengo el juicio. Si se agregan todas las personas sin ningún tratamiento ganador, la prueba termina (tenga en cuenta que los resultados de mi análisis dependerán en gran medida de ).N N
Ahora podemos ejecutar esto muchas veces y descubrir en qué fracción de ejecuciones sale uno de los tratamientos como ganador: estos serían falsos positivos. Si lo ejecuto 1000 veces para nominal , obtengo 282 falsos positivos, es decir, tasa de error tipo II.0.28α=0.05 0.28
Podemos repetir todo este análisis para varios nominales y ver qué tasa de error real obtenemos: Entonces, si desea que la tasa de error real se mantenga en un nivel de , debe elegir el nominal de alrededor de , pero, por supuesto, es mejor ejecutar un simulación más larga para estimar esto con mayor precisión.α tasa de error 0.05 ∼ 0.28 0.01 ∼ 0.06 0.001 ∼ 0.008 0.05 α 0.008α
Mi código rápido y sucio en Matlab está debajo. Tenga en cuenta que este código tiene muerte cerebral y no está optimizado en absoluto; todo corre en bucles y horriblemente lento. Esto probablemente se puede acelerar mucho.
fuente