Sé de manera aproximada e informal lo que es un intervalo de confianza. Sin embargo, parece que no puedo entender un detalle bastante importante: según Wikipedia:
Un intervalo de confianza no predice que el valor verdadero del parámetro tiene una probabilidad particular de estar en el intervalo de confianza dados los datos realmente obtenidos.
También he visto puntos similares en varios lugares de este sitio. Una definición más correcta, también de Wikipedia, es:
Si los intervalos de confianza se construyen en muchos análisis de datos separados de experimentos repetidos (y posiblemente diferentes), la proporción de tales intervalos que contienen el valor verdadero del parámetro coincidirá aproximadamente con el nivel de confianza
Nuevamente, he visto puntos similares en varios lugares de este sitio. No lo entiendo Si, en experimentos repetidos, la fracción de intervalos de confianza calculados que contienen el parámetro verdadero es , entonces, ¿cómo puede la probabilidad de que esté en el intervalo de confianza calculado para el experimento real sea otra cosa que ? Estoy buscando lo siguiente en una respuesta:
Aclaración de la distinción entre las definiciones incorrectas y correctas anteriores.
Una definición formal y precisa de un intervalo de confianza que muestra claramente por qué la primera definición es incorrecta.
Un ejemplo concreto de un caso en el que la primera definición es espectacularmente incorrecta, incluso si el modelo subyacente es correcto.
fuente
mu
, y, B) la variabilidad de la replicación significa alrededormu
. La mayoría de la gente olvida A: ¡el CI original no se construye necesariamente alrededormu
!Respuestas:
Encontré este experimento mental útil al pensar en intervalos de confianza. También responde a su pregunta 3.
Deje e . Considere dos observaciones de tomando los valores e correspondientes a las observaciones y de , y deje y . Entonces es un intervalo de confianza del 50% para (ya que el intervalo incluye if o , cada uno de los cuales tiene probabilidad ).Y = X + a - 1X∼U(0,1) Y=X+a−12 Y y1 y2 x1 x2 X yl=min(y1,y2) yu=max(y1,y2) [yl,yu] a a x1<12<x2 x1>12>x2 14
Sin embargo, si entonces sabemos que la probabilidad de que el intervalo contenga es , no . La sutileza es que un intervalo de confianza para un parámetro significa que los puntos finales del intervalo (que son variables aleatorias) se encuentran a ambos lados del parámetro con probabilidad antes de calcular el intervalo , no que la probabilidad del parámetro mentir dentro del intervalo es después de haber calculado el intervalo .yu−yl>12 a 1 12 z% z% z%
fuente
Hay muchos problemas relacionados con los intervalos de confianza, pero centrémonos en las citas. El problema radica en posibles malas interpretaciones en lugar de ser una cuestión de corrección. Cuando las personas dicen que un "parámetro tiene una probabilidad particular de" algo, piensan que el parámetro es una variable aleatoria. Este no es el punto de vista de un procedimiento de intervalo de confianza (clásico), para el cual la variable aleatoria es el intervalo en sí mismo y el parámetro se determina, no al azar, pero desconocido. Es por eso que tales declaraciones son frecuentemente atacadas.
Matemáticamente, si permitimos que sea cualquier procedimiento que asigne datos a subconjuntos del espacio de parámetros y si (sin importar cuál sea el valor del parámetro ) la aserción define un evento , luego, por definición, tiene una probabilidad para cualquier valor posible de . Cuando es un procedimiento de intervalo de confianza con confianza entonces se supone que esta probabilidad tiene un valor mínimo (sobre todos los valores de los parámetros) det x=(xi) θ θ∈t(x) A(x) Prθ(A(x)) θ t 1−α 1−α . (Sujeto a este criterio, generalmente seleccionamos procedimientos que optimizan algunas propiedades adicionales, como producir intervalos de confianza cortos o simétricos, pero eso es un asunto separado). La Ley Débil de Números Grandes justifica la segunda cita. Sin embargo, eso no es una definición de intervalos de confianza: es simplemente una propiedad que tienen.
Creo que este análisis ha respondido a la pregunta 1, muestra que la premisa de la pregunta 2 es incorrecta y hace que la pregunta 3 sea discutible.
fuente
No diría que la definición de CI es incorrecta, pero son fáciles de interpretar mal, debido a que hay más de una definición de probabilidad. Los IC se basan en la siguiente definición de probabilidad (frecuente u ontológica)
(1) probabilidad de una proposición = proporción a largo plazo de veces que se observa que la proposición es verdadera, condicional en el proceso de generación de datos
Por lo tanto, para ser conceptualmente válido al usar un IC, debe aceptar esta definición de probabilidad. Si no lo hace, entonces su intervalo no es un CI, desde un punto de vista teórico.
Esta es la razón por la cual la definición utilizó la palabra proporción y NO la palabra probabilidad , para dejar en claro que se está utilizando la definición de probabilidad de "frecuencia a largo plazo".
La definición alternativa principal de probabilidad (epistemológica o probabilidad como una extensión de lógica deductiva o bayesiana) es
(2) probabilidad de una proposición = grado racional de creencia de que la proposición es verdadera, condicional en un estado de conocimiento
A menudo, las personas confunden intuitivamente ambas definiciones y usan cualquier interpretación que resulte atractiva para su intuición. Esto puede llevarlo a todo tipo de situaciones confusas (especialmente cuando pasa de un paradigma a otro).
Que los dos enfoques a menudo conducen al mismo resultado, significa que en algunos casos tenemos:
grado racional de creencia de que la proposición es verdadera, condicional en un estado de conocimiento = proporción a largo plazo de veces que se observa que la proposición es verdadera, condicional en el proceso de generación de datos
El punto es que no se mantiene universalmente , por lo que no podemos esperar que las dos definiciones diferentes siempre conduzcan a los mismos resultados. Entonces, a menos que realmente resuelva la solución bayesiana, y luego encuentre que es el mismo intervalo, no puede dar al intervalo dado por el CI la interpretación como una probabilidad de contener el valor verdadero. Y si lo hace, entonces el intervalo no es un intervalo de confianza, sino un intervalo creíble.
fuente
RA Fisher tenía un criterio para la utilidad de los intervalos de confianza: un IC no debería admitir "subconjuntos identificables" que impliquen un nivel de confianza diferente. En la mayoría de los contraejemplos (si no todos), tenemos casos en los que hay subconjuntos identificables que tienen diferentes probabilidades de cobertura.
En estos casos, puede usar intervalos de crédito bayesianos para especificar un sentido subjetivo de dónde está el parámetro, o puede formular un intervalo de probabilidad para reflejar la incertidumbre relativa en el parámetro, dados los datos.
Por ejemplo, un caso que parece relativamente libre de contradicciones es el intervalo de confianza normal de 2 lados para la media de la población. Suponiendo que el muestreo de una población normal con std. Dado, el IC del 95% admite que no hay subconjuntos identificables que proporcionarían más información sobre el parámetro. Esto se puede ver por el hecho de que la media de la muestra es una estadística suficiente en la función de probabilidad, es decir, la función de probabilidad es independiente de los valores de muestra individuales una vez que conocemos la media de la muestra.
La razón por la que tenemos alguna confianza subjetiva en el IC simétrico del 95% para la media normal se deriva menos de la probabilidad de cobertura establecida y más del hecho de que el IC simétrico del 95% para la media normal es el intervalo de "mayor probabilidad", es decir, todos Los valores de parámetros dentro del intervalo tienen una mayor probabilidad que cualquier valor de parámetro fuera del intervalo. Sin embargo, dado que la probabilidad no es una probabilidad (en el sentido de precisión a largo plazo), es más un criterio subjetivo (como lo es el uso bayesiano de previo y probabilidad). En resumen, hay infinitos intervalos para la media normal que tienen una probabilidad de cobertura del 95%, pero solo el IC simétrico tiene la plausibilidad intuitiva que esperamos de una estimación de intervalo.
Por lo tanto, el criterio de RA Fisher implica que la probabilidad de cobertura debería ser igual a la confianza subjetiva solo si no admite ninguno de estos subconjuntos identificables. Si hay subconjuntos, la probabilidad de cobertura estará condicionada a los valores verdaderos de los parámetros que describen el subconjunto. Para obtener un intervalo con el nivel intuitivo de confianza, necesitará condicionar el intervalo estiamte en las estadísticas auxiliares apropiadas que ayudan a identificar el subconjunto. O bien, podría recurrir a modelos de dispersión / mezcla, lo que naturalmente lleva a interpretar los parámetros como variables aleatorias (también conocidas como estadísticas bayesianas) o puede calcular el perfil / probabilidad condicional / marginal en el marco de probabilidad. De cualquier manera, has abandonado cualquier esperanza de tener una probabilidad objetivamente verificable de ser correcto,
Espero que esto ayude.
fuente
Desde una perspectiva teórica, las preguntas 2 y 3 se basan en la suposición incorrecta de que las definiciones son incorrectas. Por lo tanto, estoy de acuerdo con la respuesta de @ whuber a ese respecto, y la respuesta de @ whuber a la pregunta 1 no requiere ningún aporte adicional de mi parte.
Sin embargo, desde una perspectiva más práctica, un intervalo de confianza puede recibir su definición intuitiva (Probabilidad de contener el valor verdadero) cuando es numéricamente idéntico a un intervalo creíble bayesiano basado en la misma información (es decir, un previo no informativo).
Pero esto es algo desalentador para el duro anti-bayesiano, porque para verificar las condiciones para darle a su CI la interpretación que él / ella quiere darle, ¡deben encontrar la solución bayesiana, para lo cual la interpretación intuitiva es válida automáticamente!
El ejemplo más fácil es un intervalo de confianza para la media normal con una varianza conocida , y un intervalo creíble posterior .1−α x¯¯¯±σZα/2 1−α x¯¯¯±σZα/2
No estoy exactamente seguro de las condiciones, pero sé que lo siguiente es importante para la interpretación intuitiva de los IC:
1) existe una estadística de pivote, cuya distribución es independiente de los parámetros (¿existen pivotes exactos fuera de las distribuciones normales y chi-cuadrado?)
2) no hay parámetros molestos, (excepto en el caso de una estadística fundamental, que es una de las pocas formas exactas en que uno tiene que manejar los parámetros molestos al hacer CI)
3) existe una estadística suficiente para el parámetro de interés, y el intervalo de confianza utiliza la estadística suficiente
4) la distribución de muestreo de la estadística suficiente y la distribución posterior tienen algún tipo de simetría entre la estadística suficiente y el parámetro. En el caso normal de la distribución de muestreo, la simetría está en mientras que .(x¯¯¯|μ,σ)∼N(μ,σn√) (μ|x¯¯¯,σ)∼N(x¯¯¯,σn√)
Estas condiciones suelen ser difíciles de encontrar y, por lo general, es más rápido calcular el intervalo bayesiano y compararlo. Un ejercicio interesante también puede ser tratar de responder la pregunta "¿para qué anterior es mi IC también un intervalo creíble?" Puede descubrir algunas suposiciones ocultas acerca de su procedimiento de CI al observar esto antes.
fuente
Esto es algo que puede ser difícil de entender:
Un intervalo de confianza se relaciona con el procedimiento de muestreo. Si toma muchas muestras y calcula un intervalo de confianza del 95% para cada muestra, encontrará que el 95% de esos intervalos contienen la media de la población.
Esto es útil, por ejemplo, para los departamentos de calidad industrial. Esos tipos toman muchas muestras, y ahora tienen la confianza de que la mayoría de sus estimaciones estarán muy cerca de la realidad. Saben que el 95% de sus estimaciones son bastante buenas, pero no pueden decir eso sobre todas y cada una de las estimaciones específicas.
Compare esto con los dados rodantes: si lanzara 600 dados (justos), ¿cuántos 6 lanzaría? Su mejor conjetura es * 600 = 100.16
Sin embargo, si has lanzado UN dado, es inútil decir: "Hay una probabilidad de 1/6 o 16.6% de que ahora haya arrojado un 6". ¿Por qué? Porque el dado muestra un 6 o alguna otra figura. Has lanzado un 6, o no. Entonces la probabilidad es 1 o 0. La probabilidad no puede ser .16
Cuando se le preguntó antes del lanzamiento cuál sería la probabilidad de lanzar un 6 con UN dado, un Bayesiano respondería " " (basado en información previa: todos saben que un dado tiene 6 lados y una oportunidad igual de caer en cualquiera de ellos), pero un Frecuentista diría "No tengo idea" porque el frecuentismo se basa únicamente en los datos, no en los antecedentes o cualquier información externa.16
Del mismo modo, si solo tiene 1 muestra (por lo tanto, 1 intervalo de confianza), no tiene forma de decir qué tan probable es que la media de la población esté en ese intervalo. La media (o cualquier parámetro) está en ella o no. La probabilidad es 1 o 0.
Además, no es correcto que los valores dentro del intervalo de confianza sean más probables que aquellos fuera de eso. Hice una pequeña ilustración; todo se mide en ° C. Recuerde, el agua se congela a 0 ° C y hierve a 100 ° C.
El caso: en un lago frío, nos gustaría estimar la temperatura del agua que fluye debajo del hielo. Medimos la temperatura en 100 ubicaciones. Aquí están mis datos:
Las temperaturas dentro de este intervalo de confianza definitivamente NO son más probables que las de afuera. La temperatura promedio del agua que fluye en este lago NO PUEDE ser más fría que 0 ° C, de lo contrario no sería agua sino hielo. Una parte de este intervalo de confianza (es decir, la sección de -0.8 a 0) en realidad tiene un 0% de probabilidad de contener el parámetro verdadero.
En conclusión: los intervalos de confianza son un concepto frecuente y, por lo tanto, se basan en la idea de muestras repetidas. Si muchos investigadores tomarían muestras de este lago, y si todos esos investigadores calcularan los intervalos de confianza, entonces el 95% de esos intervalos contendrán el parámetro verdadero. Pero para un solo intervalo de confianza es imposible decir qué tan probable es que contenga el parámetro verdadero.
fuente
De acuerdo, me doy cuenta de que cuando calculas un intervalo de confianza del 95% para un parámetro usando métodos frecuentas clásicos, no significa que haya una probabilidad del 95% de que el parámetro se encuentre dentro de ese intervalo. Y sin embargo ... cuando aborda el problema desde una perspectiva bayesiana, y calcula un intervalo creíble del 95% para el parámetro, obtiene (suponiendo un previo no informativo) exactamente el mismo intervalo que obtiene utilizando el enfoque clásico. Entonces, si uso estadísticas clásicas para calcular el intervalo de confianza del 95% para (por ejemplo) la media de un conjunto de datos, entonces es cierto que existe una probabilidad del 95% de que el parámetro se encuentre en ese intervalo.
fuente
Usted está preguntando sobre el intervalo de confianza frecuente . La definición (tenga en cuenta que ninguna de sus 2 citas es una definición! Solo declaraciones, que ambas son correctas) es:
Entonces tiene un modelo (construido utilizando sus datos observados) y sus parámetros estimados. Luego, si generó algunos conjuntos de datos hipotéticos de acuerdo con este modelo y parámetros, los parámetros estimados caerían dentro del intervalo de confianza.
De hecho, este enfoque frecuente toma el modelo y los parámetros estimados como fijos, como se da, y trata sus datos como inciertos, como una muestra aleatoria de muchos otros datos posibles.
Esto es realmente difícil de interpretar y esto a menudo se usa como argumento para las estadísticas bayesianas ( lo que creo que a veces puede ser poco discutible . Las estadísticas bayesianas, por otro lado, toman sus datos como fijos y tratan los parámetros como inciertos. Los intervalos bayesianos creíbles son entonces realmente intuitivo, como era de esperar: los intervalos bayesianos creíbles son intervalos en los que con el 95% se encuentra el valor del parámetro real.
Pero en la práctica, muchas personas interpretan los intervalos de confianza frecuentistas de la misma manera que los intervalos bayesianos creíbles y muchos estadísticos no consideran que esto sea un gran problema, aunque todos lo saben, no es 100% correcto. También en la práctica, los intervalos frecuentas y bayesianos de confianza / credibilidad no diferirán mucho, cuando se usan antecedentes bayesianos no informativos .
fuente
Supongamos que estamos en una situación simple. Tiene un parámetro desconocido y un estimador de que tiene una imprecisión alrededor de 1 (informalmente). Piensa (informalmente) que debería estar en mayor frecuencia.θ T θ θ [T−1;T+1]
En un experimento real observas .T=12
Es natural hacer la pregunta "Dado lo que veo ( ), ¿cuál es la probabilidad ?". Matemáticamente: . Todos naturalmente hacen esta pregunta. La teoría del intervalo de confianza debería responder lógicamente a esta pregunta. Pero no lo hace.T=12 θ∈[11;13] P(θ∈[11;13]|T=12)
Las estadísticas bayesianas responden a esa pregunta. En estadística bayesiana, realmente puede calcular . Pero hay que asumir una anterior que es una distribución de antes de hacer el experimento y la observación de . Por ejemplo :P(θ∈[11;13]|T=12) θ T
Pero en las estadísticas frecuentas, no hay antecedentes y, por lo tanto, nada como no existe. En cambio, los estadísticos dicen algo como esto: "Sea lo que sea , la probabilidad de que sea ". Matemáticamente: "P(θ∈...|T∈...) θ θ∈[T−1;T+1] 0.95 ∀θ,P(θ∈[T−1;T+1]|θ)=0.95
Entonces :
La declaración bayesiana es más natural. Muy a menudo, la declaración frecuentista se malinterpreta espontáneamente como la declaración bayesiana (por cualquier cerebro humano normal que no haya practicado estadísticas durante años). Y, sinceramente, muchos libros de estadísticas no dejan ese punto muy claro.
¿Y prácticamente?
En muchas situaciones habituales, el hecho es que las probabilidades obtenidas por los enfoques frecuentista y bayesiano son muy cercanas. Así que confundir la declaración frecuentista para la Bayesiana tiene pocas consecuencias. Pero "filosóficamente" es muy diferente.
fuente