En mi investigación me he encontrado con el siguiente problema general: tengo dos distribuciones y sobre el mismo dominio, y una gran cantidad (pero finita) de muestras de esas distribuciones. Las muestras se distribuyen de forma independiente e idéntica a partir de una de estas dos distribuciones (aunque las distribuciones pueden estar relacionadas: por ejemplo, puede ser una mezcla de y alguna otra distribución). La hipótesis nula es que las muestras provienen de , la hipótesis alternativa es que muestras provienen de .
Estoy tratando de caracterizar el tipo I y tipo II errores en la prueba de la muestra, a sabiendas de las distribuciones y . En particular, estoy interesado en que delimita un error dado a la otra, además del conocimiento de y .
Hice una pregunta sobre matemáticas. SE con respecto a la relación de la distancia de variación total entre y con la prueba de hipótesis, y recibí una respuesta que acepté. Esa respuesta tiene sentido, pero todavía no he podido entender el significado más profundo detrás de la relación de la distancia de variación total y la prueba de hipótesis en relación con mi problema. Por lo tanto, decidí recurrir a este foro.
Mi primera pregunta es: ¿está la variación total ligada a la suma de las probabilidades de los errores de Tipo I y Tipo II independientemente del método de prueba de hipótesis que uno emplea? En esencia, siempre que haya una probabilidad distinta de cero de que la muestra pueda haber sido generada por cualquiera de las distribuciones, la probabilidad de al menos uno de los errores debe ser distinta de cero. Básicamente, no puede escapar a la posibilidad de que su probador de hipótesis cometa un error, sin importar cuánto procesamiento de señal realice. Y la variación total limita esa posibilidad exacta. ¿Es correcto mi entendimiento?
También hay otra relación entre los errores de Tipo I y II y las distribuciones de probabilidad subyacentes y Q : la divergencia KL . Por lo tanto, mi segunda pregunta es: ¿la unión de la divergencia KL solo es aplicable a un método de prueba de hipótesis específico (parece surgir mucho del método de relación de probabilidad logarítmica) o puede aplicarse en general a todos los métodos de prueba de hipótesis? Si es aplicable a todos los métodos de prueba de hipótesis, ¿por qué parece ser tan diferente del límite de variación total? ¿Se comporta de manera diferente?
Y mi pregunta subyacente es: ¿hay un conjunto de circunstancias prescritas en las que debería usar cualquiera de los límites, o es puramente una cuestión de conveniencia? ¿Cuándo se debe derivar el resultado usando una retención enlazada usando la otra?
Pido disculpas si estas preguntas son triviales. Soy un científico de la computación (así que esto me parece un problema elegante de comparación de patrones :).) Conozco la teoría de la información razonablemente bien, y también tengo experiencia en teoría de la probabilidad. Sin embargo, apenas estoy empezando a aprender todo este material de prueba de hipótesis. Si es necesario, haré todo lo posible para aclarar mis preguntas.
Responda a su primera pregunta: Sí, uno menos la distancia de variación total es un límite inferior en la suma de las tasas de error Tipo I + Tipo II. Este límite inferior se aplica sin importar el algoritmo de prueba de hipótesis que elija.
Justificación: La respuesta que obtuvo en Math.SE proporciona la prueba estándar de este hecho. Arreglar una prueba de hipótesis. Supongamos que denota el conjunto de resultados en los que esta prueba rechazará la hipótesis nula (dicho conjunto siempre debe existir). Luego, el cálculo en la respuesta Math.SE prueba el límite inferior.A
(Hablando estrictamente, esta línea de razonamiento asume que su prueba de hipótesis es un procedimiento determinista. Pero incluso si considera procedimientos aleatorios, es posible demostrar que el mismo límite todavía se aplica).
fuente