Aclaración sobre la interpretación de los intervalos de confianza?

47

Mi comprensión actual de la noción "intervalo de confianza con nivel de confianza 1α " es que si intentáramos calcular el intervalo de confianza muchas veces (cada vez con una muestra nueva), contendría el parámetro correcto 1α del tiempo.

Aunque me doy cuenta de que esto no es lo mismo que "probabilidad de que el parámetro verdadero se encuentre en este intervalo", hay algo que quiero aclarar.

[Actualización importante]

Antes de calcular un intervalo de confianza del 95%, hay una probabilidad del 95% de que el intervalo que calcule abarque el parámetro verdadero. Después de calcular el intervalo de confianza y obtener un intervalo particular [a,b] , ya no podemos decir esto. Ni siquiera podemos hacer algún tipo de argumento no frecuente de que estemos 95% seguros de que el verdadero parámetro estará en [a,b] ; porque si pudiéramos, contradeciría contraejemplos como este: ¿Qué es, precisamente, un intervalo de confianza?

No quiero hacer de esto un debate sobre la filosofía de la probabilidad; en cambio, estoy buscando una explicación matemática precisa de cómo y por qué ver el intervalo particular [a,b] cambia (o no cambia) la probabilidad del 95% que teníamos antes de ver ese intervalo. Si argumenta que "después de ver el intervalo, la noción de probabilidad ya no tiene sentido", entonces bien, trabajemos en una interpretación de probabilidad en la que tenga sentido.

Más precisamente:

Supongamos que programamos una computadora para calcular un intervalo de confianza del 95%. La computadora realiza algunos cálculos numéricos, calcula un intervalo y se niega a mostrarme el intervalo hasta que ingrese una contraseña. Antes de ingresar la contraseña y ver el intervalo (pero después de que la computadora ya lo haya calculado), ¿cuál es la probabilidad de que el intervalo contenga el parámetro verdadero? Es del 95%, y esta parte no está en debate : esta es la interpretación de la probabilidad que me interesa para esta pregunta en particular (me doy cuenta de que hay cuestiones filosóficas importantes que estoy suprimiendo, y esto es intencional).

Pero tan pronto como escriba la contraseña y haga que la computadora me muestre el intervalo que calculó, la probabilidad (de que el intervalo contenga el parámetro verdadero) podría cambiar. Cualquier afirmación de que esta probabilidad nunca cambia contradeciría el contraejemplo anterior. En este contraejemplo, la probabilidad podría cambiar del 50% al 100%, pero ...

  • ¿Hay algún ejemplo en el que la probabilidad cambie a algo diferente al 100% o 0% (EDITAR: y si es así, cuáles son)?

  • ¿Hay algún ejemplo en el que la probabilidad no cambie después de ver el intervalo particular (es decir, la probabilidad de que el parámetro verdadero se encuentre en [ a , b ] sigue siendo del 95%)?[a,b][a,b]

  • ¿Cómo (y por qué) cambia la probabilidad en general después de ver a la computadora escupir ?[a,b]

[Editar]

¡Gracias por todas las excelentes respuestas y útiles discusiones!

Elliott
fuente
1
Esto puede proporcionar algunos puntos interesantes: en.wikipedia.org/wiki/Credible_interval
nico
Sus suposiciones de que P (E | C) = 1 y P (E | C ') = 0 no están justificadas. ¿Por qué afirma que si el intervalo real no contiene el valor del parámetro verdadero, este último seguramente está fuera de él?
vidrioso
No estoy seguro de lo que quieres decir con "intervalo real" o "último". ¿Puedes por favor aclarar?
Elliott
@nico Gracias por el enlace. La intención de mi pregunta original era "mi argumento parece mostrar que un intervalo de confianza puede interpretarse como un intervalo bayesiano creíble, pero este no es el caso, entonces, ¿qué tiene de malo mi razonamiento". Pero debo admitir que no estoy contento con la noción "la probabilidad de que el intervalo contenga el parámetro verdadero [desconocido] es 0 o 1". Para mí, eso es como decir "la probabilidad de que la moneda caiga cara, después de haberla lanzado pero antes de mirarla, es 0 o 1"; No veo por qué no es 1/2.
Elliott
@Elliot: me viene a la mente el gato de Schrödinger :) No soy lo suficientemente experto como para darte una explicación adecuada, pero me encantaría ver una respuesta a esto. PD: ¡y no olvidemos que la moneda también puede caer en el borde!
nico

Respuestas:

28

Creo que el problema fundamental es que las estadísticas frecuentistas solo pueden asignar una probabilidad a algo que puede tener una frecuencia a largo plazo. Ya sea que el valor verdadero de un parámetro se encuentre en un intervalo particular o no, no tiene una frecuencia de ejecución larga, porque solo podemos realizar el experimento una vez, por lo que no puede asignarle una probabilidad frecuentista. El problema surge de la definición de una probabilidad. Si cambia la definición de una probabilidad a una bayesiana, entonces el problema desaparece instantáneamente ya que ya no está atado a la discusión de las frecuencias a largo plazo.

Vea mi (más bien tounge en la mejilla) respuesta a una pregunta relacionada aquí :

" Un Frecuentista es alguien que cree que las probabilidades representan frecuencias de largo plazo con las cuales ocurren los eventos; si es necesario, inventará una población ficticia de la cual su situación particular podría considerarse una muestra aleatoria para poder hablar de manera significativa sobre las frecuencias de largo plazo. Si si le hace una pregunta sobre una situación particular, no responderá directamente, sino que hará una declaración sobre esta población (posiblemente imaginaria) " .

En el caso de un intervalo de confianza, la pregunta que normalmente nos gustaría hacer (a menos que tengamos un problema en el control de calidad, por ejemplo) es "dada esta muestra de datos, devuelva el intervalo más pequeño que contenga el valor verdadero del parámetro con probabilidad X". Sin embargo, un frecuentista no puede hacer esto, ya que el experimento solo se realiza una vez y, por lo tanto, no hay frecuencias de largo recorrido que puedan usarse para asignar una probabilidad. Entonces, en cambio, el frecuentista tiene que inventar una población de experimentos (que no realizó) a partir de los cuales el experimento que realizó puede considerarse una muestra aleatoria. El frecuentista le da una respuesta indirecta sobre esa población ficticia de experimentos, en lugar de una respuesta directa a la pregunta que realmente quería hacer sobre un experimento en particular.

Esencialmente es un problema de lenguaje, la definición frecuentista de una población simplemente no permite la discusión de la probabilidad del verdadero valor de un parámetro que se encuentra en un intervalo particular. Eso no significa que las estadísticas frecuentas sean malas o que no sean útiles, pero es importante conocer las limitaciones.

En cuanto a la actualización principal

No estoy seguro de que podamos decir que "antes de calcular un intervalo de confianza del 95%, existe una probabilidad del 95% de que el intervalo que calcule abarque el parámetro verdadero". dentro de un marco frecuentista. Aquí hay una inferencia implícita de que la frecuencia a largo plazo con la que el valor verdadero del parámetro se encuentra en intervalos de confianza construidos por algún método particular es también la probabilidad de que el valor verdadero del parámetro se encuentre en el intervalo de confianza para la muestra particular de datos que vamos a utilizar. Esta es una inferencia perfectamente razonable, pero es una inferencia bayesiana, no frecuente, ya que la probabilidad de que el verdadero valor del parámetro se encuentre en el intervalo de confianza que construimos para una muestra particular de datos no tiene una frecuencia de ejecución larga, ya que solo tenemos una muestra de datos.

Sin embargo, podemos "hacer algún tipo de argumento no frecuentista de que estamos 95% seguros de que el verdadero parámetro estará en [a, b]", eso es exactamente lo que es un intervalo creíble bayesiano, y para muchos problemas el intervalo creíble bayesiano coincide exactamente con el intervalo de confianza frecuentista.

"No quiero que esto sea un debate sobre la filosofía de la probabilidad", lamentablemente esto es inevitable, la razón por la que no se puede asignar una probabilidad frecuenta a si el verdadero valor de la estadística reside en el intervalo de confianza es una consecuencia directa de la filosofía frecuentista de probabilidad. Los frecuentes solo pueden asignar probabilidades a cosas que pueden tener frecuencias de largo recorrido, ya que así es como los frecuentas definen la probabilidad en su filosofía. Eso no hace que la filosofía frecuentista sea incorrecta, pero es importante comprender los límites impuestos por la definición de probabilidad.

"Antes de ingresar la contraseña y ver el intervalo (pero después de que la computadora ya lo haya calculado), ¿cuál es la probabilidad de que el intervalo contenga el parámetro verdadero? Es 95%, y esta parte no está en debate:" Esto es incorrecto, o al menos al hacer tal declaración, usted se ha apartado del marco de las estadísticas frecuentistas y ha hecho una inferencia bayesiana que implica un grado de plausibilidad en la verdad de una declaración, en lugar de una frecuencia a largo plazo. Sin embargo, como he dicho antes, es una inferencia perfectamente razonable y natural.

Nada ha cambiado antes o después de ingresar la contraseña, porque a otro evento se le puede asignar una probabilidad frecuente. Las estadísticas frecuentes pueden ser bastante intuitivas, ya que a menudo queremos hacer preguntas sobre los grados de plausibilidad de las declaraciones con respecto a eventos particulares, pero esto está fuera del alcance de las estadísticas frecuentistas, y este es el origen de la mayoría de las interpretaciones erróneas de los procedimientos frecuentistas.

Dikran Marsupial
fuente
2
Sí, ese es el punto que estoy señalando, la segunda afirmación no es en realidad una afirmación sobre esta moneda en particular. Es una declaración sobre una población imaginaria de monedas que la mayoría de la gente interpreta incorrectamente como una declaración sobre nuestra moneda en particular. Sin embargo, al dar ese salto, estamos aplicando la intuición bayesiana sobre la probabilidad e ignorando qué es realmente un intervalo de confianza. No hay ningún problema en asignar una probabilidad al estado de la moneda, siempre que nos alejemos de una definición de probabilidad frecuente.
Dikran Marsupial
2
Para aclarar, decir que "imagina muchas instancias separadas del comienzo de los tiempos; esperarías que aproximadamente la mitad de ellas produzcan cabezas" es un razonamiento frecuentista perfectamente correcto. Sin embargo, pasar de allí a "por lo tanto, la probabilidad de que esta moneda en particular también sea 0.5" no se aplica como una probabilidad a algo que no tiene una frecuencia a largo plazo, ya que solo puede suceder una vez. Sin embargo, es un razonamiento bayesiano perfectamente sólido, ya que una probabilidad bayesiana es una declaración sobre la plausibilidad de una proposición (que puede basarse en una frecuencia a largo plazo dentro de una población).
Dikran Marsupial
1
Su respuesta a ambas preguntas sería en realidad una declaración sobre la proporción de una población imaginaria de monedas que aterrizaría cara. Pero es probable que esto no se haga explícito, ya que a las personas en general les gusta ser útiles (las respuestas indirectas no son generalmente tan útiles), y también las estadísticas frecuentistas son más bien contra-intuitivas y es probable que el frecuentador esquive este punto para evitar Confusión. Si se fija para hacer una declaración probabilística sobre un cambio particular, un buen frecuentista simplemente se negaría a responder: se encuentra fuera de los límites de las estadísticas frecuentistas.
Dikran Marsupial
1
Esencialmente, el frecuentista en realidad no respondería a su pregunta, haría una declaración sobre una población de lanzamientos de monedas y lo dejaría inferir a partir de eso que la probabilidad de una ventaja en ese lanzamiento en particular fue la misma que la proporción en la población implícita . Pero esa sería su inferencia bayesiana, no la suya.
Dikran Marsupial
1
@Aaron Claro, podrías decir "la probabilidad es 0 o 1" para muchas cosas, pero esa respuesta no nos da absolutamente nada (por ejemplo, si queremos responder una pregunta concreta sobre cuánto deberíamos apostar en un juego o si o no deberíamos lanzar un transbordador espacial). Además, las cosas que "podrían suceder" son: (1) las cabezas de la moneda y tú lo cubriste, (2) las colas de la moneda y tú lo cubriste; en una "población imaginaria" de muchos ensayos de "voltear y cubrir", alrededor del 50% resultan en que veas cabezas.
Elliott
14

Actualización importante, nueva respuesta importante. Permítanme tratar de abordar claramente este punto, porque es donde radica el problema:

"Si argumenta que" después de ver el intervalo, la noción de probabilidad ya no tiene sentido ", entonces bien, trabajemos en una interpretación de probabilidad en la que sí tenga sentido".

Las reglas de probabilidad no cambian, pero su modelo para el universo sí. ¿Está dispuesto a cuantificar sus creencias anteriores sobre un parámetro utilizando una distribución de probabilidad? ¿Actualizar esa distribución de probabilidad después de ver los datos es algo razonable? Si lo cree así, puede hacer declaraciones como . Mi distribución previa puede representar mi incertidumbre sobre el verdadero estado de la naturaleza , no solo la aleatoriedadP(θ[L(X),U(X)]|X=x)como se entiende comúnmente, es decir, si asigno una distribución previa al número de bolas rojas en una urna, eso no significa que creo que el número de bolas rojas es aleatorio. Está arreglado, pero no estoy seguro.

Varias personas, entre ellas he dicho esto, pero si usted no está dispuesto a llamar una variable aleatoria entonces la declaración P ( θ [ L ( X ) , T es. Si saco unas cuantas bolas entonces tengo una muestra aleatoria Puedo preguntar qué pasaría si tomara un montón de muestras aleatorias, es decir, puedo hablar sobreθ no es significativa. Si soy frecuente, estoy tratando θ como una cantidad fija Y NO puedo atribuirle una distribución de probabilidad. ¿Por qué? Porque es fijo, y mi interpretación de la probabilidad es en términos de frecuencias a largo plazo. El número de bolas rojas en la urna nunca cambia. θ es lo que θP(θ[L(X),U(X)]|X=x)θθθ porque el intervalo depende de la muestra, que es (¡Espera!) al azar.P(θ[L(X),U(X)])

Pero no quieres eso. Desea : ¿cuál es la probabilidad de que este intervalo que construí con mi muestra observada (y ahora fija) contenga el parámetro? Sin embargo, una vez que haya condicionado X = x , para mí, un frecuentista, no queda nada al azar y la declaraciónP(θ[L(X),U(X)]|X=x)X=x no tiene sentido de ninguna manera significativa.P(θ[L(X),U(X)]|X=x)

La única forma de principios (IMO) para hacer una declaración sobre es cuantificar nuestra incertidumbre sobre un parámetro con una distribución de probabilidad (anterior) y actualizar que distribución con nueva información a través del teorema de Bayes. Cualquier otro enfoque que he visto es una aproximación mediocre a Bayes. Ciertamente no puedes hacerlo desde una perspectiva frecuentista.P(θ[L(X),U(X)]|X=x)

Eso no quiere decir que no pueda evaluar los procedimientos frecuentistas tradicionales desde una perspectiva bayesiana (a menudo, los intervalos de confianza son solo intervalos creíbles bajo anteriores uniformes, por ejemplo) o que evaluar estimadores bayesianos / intervalos creíbles desde una perspectiva frecuentista no es valioso (Creo que puede ser). No quiere decir que las estadísticas clásicas / frecuentas sean inútiles, porque no lo es. Es lo que es, y no deberíamos intentar hacerlo más.

¿Crees que es razonable dar a un parámetro una distribución previa para representar tus creencias sobre el universo? Suena así por tus comentarios que haces; en mi experiencia, la mayoría de la gente estaría de acuerdo (esa es la pequeña broma que hice en mi comentario a la respuesta de @G. Jay Kerns). Si es así, el paradigma bayesiano proporciona una forma lógica y coherente de hacer declaraciones sobre . El enfoque frecuentista simplemente no lo hace.P(θ[L(X),U(X)]|X=x)

JMS
fuente
1
(+1) muy bien hecho, de nuevo, y en el punto muerto.
+1 Mismo comentario que el anterior (ver la respuesta de G. Jay Kerns); Esto fue realmente útil.
Elliott
Bounty schmounty :) Me alegra que lo hayas encontrado útil.
JMS
11

OK, ahora estas hablando! He votado para eliminar mi respuesta anterior porque no tiene sentido con esta pregunta actualizada.

En esta nueva pregunta actualizada, con una computadora que calcula los intervalos de confianza del 95%, bajo la interpretación ortodoxa frecuente, aquí están las respuestas a sus preguntas:

  1. No.
  2. No.
  3. Una vez que se observa el intervalo, ya no es aleatorio y no cambia. (Tal vez el intervalo fue .) Pero θ tampoco cambia, y nunca ha cambiado. (Tal vez sea θ = 7. ) La probabilidad cambia del 95% al ​​0% porque el 95% de los intervalos que calcula la computadora cubren 7, pero el 100% de los intervalos [ 1 ,[1,3]θθ=7 7 NO cubren 7.[1,3]

(Por cierto, en el mundo real, el experimentador nunca sabe que , lo que significa que el experimentador nunca puede saber si la verdadera probabilidad [ 1 , 3 ] cubre θ es cero o uno. (S) solo puede decir que debe ser uno u otro.) Eso, más el experimentador puede decir que el 95% de los intervalos de la computadora cubren θ , pero eso ya lo sabíamos.θ=7 7[1,3]θθ

El espíritu de su pregunta sigue insinuando el conocimiento del observador y cómo eso se relaciona con dónde se encuentra . Que (presumiblemente) es la razón por la que hablabas la contraseña, sobre el ordenador para calcular el intervalo sin su visto todavía, etc . He visto en sus comentarios a las respuestas que parece insatisfactorio / impropio estar obligado a comprometerse con 0 o 1, después de todo, ¿por qué no podríamos creer que es 87% o 15?θ , o incluso el 99% ?? ? Pero ese es exactamente el poder, y al mismo tiempo el talón de Aquiles, del marco frecuentista: el conocimiento subjetivo / creencia del observador es irrelevante. Lo único que importa es una frecuencia relativa a largo plazo. Nada más y nada menos.15/ /dieciséis

Como BTW final: si cambia su interpretación de la probabilidad (que ha decidido no hacer para esta pregunta), las nuevas respuestas son:

  1. Si.
  2. Si.
  3. La probabilidad cambia porque la probabilidad = conocimiento subjetivo, o grado de creencia, y el conocimiento del observador cambió. Representamos el conocimiento con distribuciones anteriores / posteriores, y a medida que se dispone de nueva información, la primera se transforma en la segunda (a través de la Regla de Bayes).

(Pero para una divulgación completa, la configuración que describe no coincide muy bien con la interpretación subjetiva. Por ejemplo, generalmente tenemos un intervalo creíble previo del 95% antes de encender la computadora, luego la encendemos y empleamos la computadora para dar usamos un intervalo creíble posterior del 95% que suele ser considerablemente más delgado que el anterior).


fuente
¡De nuevo! :) Bien hecho.
JMS
3
Debo señalar que la interpretación bayesiana de la probabilidad no es necesariamente subjetiva, por lo que no es realmente una fortaleza del enfoque frecuentista. En el caso del enfoque objetivo bayesiano de la "probabilidad de un problema cara a cara con el lanzamiento de una moneda", el uso de un previo poco informativo no implica subjetividad en absoluto. La verdadera fortaleza del enfoque frecuentista radica en problemas como el control de calidad, donde es natural hablar de ensayos repetidos y frecuencias a largo plazo. Solo tiene dificultades cuando haces preguntas sobre eventos particulares.
Dikran Marsupial
@JMS, gracias. @Dikran, es difícil hablar de eso con 544 caracteres en una pequeña caja en la pantalla de la computadora. Brevemente: estoy de acuerdo con usted en que la palabra "bayesiano" no es sinónimo de "subjetivo". Y no tiene sentido tratar de precisar dónde reside realmente la verdadera fuerza de cualquiera de los enfoques. En pocas palabras: todos podemos estar de acuerdo en una frecuencia relativa a largo plazo, pero la mayoría de las veces, su posterior será diferente de la mía.
2
@Dikran Marsupial Haces un buen punto. Solo agregaría que una vez que pasamos los problemas de los juguetes al modelado aplicado real, a menudo es el caso de que la subjetividad verdaderamente importante llega a través de cómo especificamos la probabilidad, no necesariamente las distribuciones anteriores en sí mismas (¿Son realmente intercambiables esas observaciones? ¿Gaussianas? etc) De esa manera, la subjetividad se integra en una gran parte de las estadísticas basadas en modelos, tanto bayesianas como frecuentistas.
JMS
+1 Gracias por la hermosa respuesta. Esto definitivamente merece una recompensa, pero para evitar ser político, terminé votando a favor.
Elliott
6

Pondré mis dos centavos (tal vez redirigiendo algunas de las respuestas anteriores). Para un frecuentista, el intervalo de confianza en sí mismo es, en esencia, una variable aleatoria bidimensional: si rehace el experimento miles de millones de veces, el intervalo de confianza lo haría estimaría (es decir, calcular a partir de los datos recién encontrados cada vez) sería diferente cada vez . Como tal, los dos límites del intervalo son variables aleatorias.

Un IC del 95%, entonces, no significa nada más que la garantía (dado que todas sus suposiciones que conducen a este IC son correctas) de que este conjunto de variables aleatorias contendrá el valor verdadero (una expresión muy frecuente) en el 95% de los casos.

Puede calcular fácilmente el intervalo de confianza para la media de 100 sorteos a partir de una distribución normal estándar. Luego, si extrae 10000 veces 100 valores de esa distribución normal estándar, y cada vez calcula el intervalo de confianza para la media, verá que 0 está allí alrededor de 9500 veces.

El hecho de que haya creado un intervalo de confianza solo una vez (a partir de sus datos reales) reduce la probabilidad de que el valor verdadero esté en ese intervalo a 0 o 1, pero no cambia la probabilidad del intervalo de confianza como un variable aleatoria para contener el valor verdadero.

Entonces, en resumen: la probabilidad de que cualquier intervalo de confianza del 95% (es decir, en promedio) que contenga el valor verdadero (95%) no cambie, y tampoco la probabilidad de un intervalo particular (IC o lo que sea) para contener el valor verdadero (0 o 1). La probabilidad del intervalo que la computadora conoce pero usted no es en realidad 0 o 1 (porque es un intervalo particular), pero dado que usted no lo sabe (y, de manera frecuenta, no puede volver a calcular este mismo intervalo infinitas veces de nuevo a partir de los mismos datos), todo lo que tiene que hacer es la probabilidad de cualquier intervalo.

Nick Sabbe
fuente
Nota al margen: el corrector ortográfico de este sitio considera que la palabra frecuentador es digna de subrayar. ¿Es este sitio dominado en secreto por bayesianos? Oh, supongo que no, ya que los bayesianos tienen su propio subrayado rizado :-)
Nick Sabbe
4

La razón por la que el intervalo de confianza no especifica "la probabilidad de que el parámetro verdadero se encuentre en el intervalo" es porque una vez que se especifica el intervalo, el parámetro yace en él o no. Sin embargo, para un intervalo de confianza del 95%, por ejemplo, tiene una probabilidad del 95% de crear un intervalo de confianza que contenga el valor. Este es un concepto bastante difícil de entender, por lo que es posible que no lo esté articulando bien. Consulte http://frank.itlab.us/datamodel/node39.html para obtener más aclaraciones.

Lauren Gundrum
fuente
2
Suponga que programa una computadora para calcular un intervalo de confianza, pero no mira la salida. Antes de ver el resultado, sabe que hay un 95% de posibilidades de que el intervalo contenga el parámetro correcto (al igual que antes de ver el resultado de un lanzamiento de moneda, sabe que hay un 50% de posibilidades de caras). ¿De qué manera la observación posterior de la salida cambia esta probabilidad, dado que no conoce el parámetro correcto en primer lugar? (Estoy de acuerdo en que mirar el resultado de un lanzamiento de moneda cambia la probabilidad de caras del 50% a 1 o 0)?
Elliott
Además, aunque estoy de acuerdo en que hay una distinción, me pregunto qué tiene de malo mi "argumento" anterior que muestra que son lo mismo.
Elliott
2
@Elliott Tus preguntas parecen ser las mismas que esta analogía: lanzas una moneda justa. Ergo, la probabilidad de caras es del 50%. Ahora miras la moneda y es cara. ¿De qué manera esto cambia la probabilidad de caras? La respuesta es que no, porque la probabilidad se refiere al procedimiento de lanzamiento de moneda, no al resultado. Me parece que el contraejemplo al que se refiere funciona de manera similar: el procedimiento puede tener un 50% de posibilidades de cubrir el parámetro, pero después de esto, ha sido posible verificar que el parámetro esté cubierto. ¿Y qué?
whuber
No estoy hablando de cambiar la probabilidad de que una moneda justa sea cara; en cambio, estoy hablando de cambiar la probabilidad de que esta moneda en particular sea cara. Después de voltearlo y antes de mirarlo, argumentaría que la probabilidad en cuestión es del 50% porque aproximadamente la mitad de estos casos involucran una moneda con cara arriba. Por otro lado, después de mirarlo y ver caras, el 100% de estos casos involucran una moneda con cara arriba (los casos con cola hacia arriba se eliminaron cuando miré la moneda y no vi caras).
Elliott
Estoy de acuerdo en que después del hecho, podría ser posible verificar que el parámetro haya sido cubierto. Mi respuesta a "¿y qué?" es "así que mi argumento anterior (en la pregunta original) debe estar equivocado, y me pregunto qué tiene de malo".
Elliott
4

No creo que un frecuentador pueda decir que existe alguna probabilidad de que el valor verdadero (de la población) de una estadística se encuentre en el intervalo de confianza para una muestra en particular. Lo es, o no lo es, pero no hay una frecuencia a largo plazo para un evento en particular, solo la población de eventos que obtendría al realizar repetidamente un procedimiento estadístico. Es por eso que tenemos que seguir con declaraciones como "el 95% de los intervalos de confianza así construidos contendrán el valor verdadero de la estadística", pero no "hay un% de probabilidad de que el valor verdadero se encuentre en el intervalo de confianza calculado para este particular muestra". Esto es cierto para cualquier valor de p, simplemente no es posible dentro de la definición frecuentista de lo que realmente es una probabilidad. Sin embargo, un Bayesiano puede hacer tal declaración usando un intervalo creíble.

Dikran Marsupial
fuente
3

La forma en que planteas el problema es un poco confusa. Tome esta declaración: Sea el evento de que el parámetro verdadero cae en el intervalo [ a , b ]E[a,b] . Esta afirmación no tiene sentido desde una perspectiva frecuentista; el parámetro es el parámetro y no cae en ningún lado, simplemente lo es. P (E) no tiene sentido, P (E | C) no tiene sentido y es por eso que su ejemplo se desmorona. El problema tampoco es condicionar un conjunto de medida cero; El problema es que está tratando de hacer declaraciones de probabilidad sobre algo que no es una variable aleatoria.

Un frecuentista diría algo como: Sea el evento de que el intervalo ( L ( X ) , U ( X ) ) contiene el parámetro verdadero. Esto es algo a lo que un frecuentista puede asignar una probabilidad.E~(L(X),U(X))

Editar: @G. Jay Kerns hace el argumento mejor que yo, y escribe más rápido, así que probablemente solo avance :)

JMS
fuente
Gracias, veo por qué un frecuentista se niega a responder la pregunta "¿cuál es la probabilidad de que el parámetro verdadero caiga en un intervalo dado?" (Aunque creo que esto es algo útil para hablar, especialmente si uno no conoce el parámetro verdadero ) Pero, ¿por qué no estoy condicionando un conjunto nulo si condiciono en el caso de que mi cálculo devuelva exactamente el intervalo ? [a,b]
Elliott
2
Un frecuentista (de principios / pedante) no se niega a responder, no puede responder. El parámetro no es aleatorio, el intervalo es. ¿Qué hay delante de la cuando condiciona la observación de un intervalo particular? Para un frecuentista, una vez que haya observado la muestra y construido su intervalo, ya no hay nada al azar. |
JMS
No sé, el tuyo es perfecto. :-)
2

En las estadísticas frecuentistas, el evento es fijo: el parámetro se encuentra en [ a , b ] o no. Por lo tanto, E es independiente de C y C ' y, por lo tanto, P ( E | C ) = P ( E ) y P ( E | C ' ) = P ( E ) .E[a,b]ECCP(E|C)=P(E)P(E|C)=P(E)

(En su argumento, parece pensar que y P ( E | C ) = 0 , lo cual es incorrecto).P(E|C)=1P(E|C)=0

raegtin
fuente
Teniendo en cuenta que definí C como el evento de que este intervalo particular, [a, b], contiene el parámetro verdadero, no estoy seguro de estar de acuerdo en que E y C / C 'son independientes: saber que C ocurrió garantiza que E ocurrió .
Elliott
¡Pero C es una variable aleatoria! Estás cambiando las definiciones de todos estos eventos después de que todo haya ocurrido. Dicho de otra manera, si está definiendo C como este evento en particular, C ya no es un intervalo de confianza.
raegtin
2
El problema es que si C es el evento de que el intervalo contiene el parámetro verdadero en esta ejecución particular del experimento, no tiene una frecuencia de ejecución larga (esa ejecución particular solo puede ocurrir una vez), y por lo tanto no puede asignar una probabilidad frecuentista Esta es la razón por la cual la definición de un intervalo de confianza frecuentista es en términos de una población de experimentos replicados. Parece que está aplicando el razonamiento bayesiano a un entorno frecuentista, y hay una coincidencia errónea de definiciones de probabilidad.
Dikran Marsupial
Aquí hay otra forma de verlo. Lo que parece estar haciendo es lo siguiente: ejecutar un cálculo para obtener un intervalo de confianza [a, b]. Defina C como el evento de que este intervalo de confianza particular [a, b] contenga el parámetro verdadero. También defina E como el evento de que este intervalo particular [a, b] contenga el parámetro verdadero. ¡Así, E y C son el mismo evento!
raegtin
Eso es lo que realmente estás haciendo. Parece que cree que está haciendo lo siguiente (que no está haciendo): ejecute el cálculo n. ° 1 para obtener un intervalo [a, b]. Defina E como el evento de que este intervalo particular [a, b] contenga el parámetro verdadero. Luego, olvide el cálculo n. ° 1 y defina C como el evento de que cualquier otro intervalo calculado [a ', b'] contenga el parámetro verdadero. En este caso, E y C son independientes.
raegtin
2

Hay tantas explicaciones largas aquí que no tengo tiempo para leerlas. Pero creo que la respuesta a la pregunta básica puede ser breve y dulce. Es la diferencia entre una probabilidad que es incondicional en los datos. La probabilidad de 1-alfa antes de recoger los datos es la probabilidad de que el procedimiento bien definido incluya el parámetro. Una vez que ha recopilado los datos y conoce el intervalo específico que ha generado, el intervalo es fijo y, dado que el parámetro es una constante, esta probabilidad condicional es 0 o 1. Pero dado que ni siquiera conocemos el valor real del parámetro después de recopilar los datos, no sabemos qué valor es.

La extensión de la publicación de Michael Chernick copió los comentarios del formulario:

Hay una excepción patológica a esto que se puede llamar estimación perfecta. Supongamos que tenemos un proceso autorregresivo de primer orden dado por X (n) = pX (n-1) + en. Es estacionario, por lo que sabemos que p no es 1 o -1 y es <1 en valor absoluto. Ahora los en son independientes distribuidos idénticamente con una distribución mixta, hay una probabilidad positiva q de que en = 0

Hay una excepción patológica a esto que se puede llamar estimación perfecta. Supongamos que tenemos un proceso autorregresivo de primer orden dado por X (n) = pX (n-1) + en. Es estacionario, por lo que sabemos que p no es 1 o -1 y es <1 en valor absoluto.

Ahora los en son independientes distribuidos idénticamente con una distribución mixta, hay una probabilidad positiva q de que en = 0 y con una probabilidad 1-q tiene una distribución absolutamente continua (digamos que la densidad no es cero en un intervalo delimitado desde 0. Entonces recolecte datos de la serie de tiempo secuencialmente y para cada par de valores sucesivos calcule p por X (i) / X (i-1). Ahora cuando ei = 0 la relación será igual a p exactamente.

Debido a que q es mayor que 0, la relación eventualmente repetirá un valor y ese valor debe ser el valor exacto del parámetro p porque si no es el valor de ei que no es 0, se repetirá con probabilidad 0 y ei / x (i -1) no se repetirá.

Entonces, la regla de detención secuencial es tomar muestras hasta que la relación se repita exactamente y luego usar el valor repetido como la estimación de p. Dado que es p exactamente cualquier intervalo que construya centrado en esta estimación tiene una probabilidad 1 de incluir el parámetro verdadero. Aunque este es un ejemplo patológico que no es práctico, existen procesos estocásticos estacionarios con las propiedades que requerimos para la distribución de errores.

Michael Chernick
fuente
2
¿Ha considerado agregar el ejemplo descrito en el transcurso de estos comentarios en su respuesta?
Macro
@Michael Secundaré el comentario de Macro. Tenga en cuenta que los comentarios generalmente se consideran una forma de interactuar con otros usuarios (p. Ej., Al solicitar aclaraciones, etc.) y, en cualquier caso, a veces se los ve como ' ciudadanos de tercera clase en Stack Exchange '. Sin embargo, después de nuestro intercambio más reciente, le dejaré decidir cómo proceder con esta serie de comentarios. Este comentario se aplica a otra serie de comentarios encontrados aquí .
chl
No pongo comentarios en las respuestas porque parece haber una política para rechazar las respuestas que tienen mucha discusión en particular, especialmente cuando alguien juzga que la respuesta realmente no responde la pregunta. Entonces las respuestas son para dar respuestas y los comentarios van debajo de los comentarios. Mis comentarios tienden a superar el límite de caracteres, así que uso varios.
Michael Chernick
@MichaelChernick No existe tal política, por lo tanto, he incorporado sus comentarios en la publicación.
1
@MichaelChernick, he estado publicando en este sitio con bastante frecuencia durante aproximadamente un año y nunca escuché a nadie que sugiriera que los moderadores eran opresivos o que las reglas del sitio eran confusas. Los problemas con los que te has encontrado: tus publicaciones son temas que se tratan explícitamente en las preguntas frecuentes.
Macro
1

Dos observaciones sobre las muchas preguntas y respuestas que pueden ayudar aún.

Parte de la confusión proviene de pasar por alto una teoría matemática más profunda de la probabilidad, que, por cierto, no estaba en una base matemática firme hasta aproximadamente la década de 1940. Entra en lo que constituye espacios muestrales, espacios de probabilidad, etc.

Primero, usted dijo que después de un lanzamiento de moneda sabemos que hay un 0% de probabilidad de que no salga colas si sale cara. En ese punto no tiene sentido hablar de probabilidad; sucedió lo que pasó y lo sabemos. La probabilidad es sobre lo desconocido en el futuro, no lo conocido en el presente.

Como un pequeño corolario de lo que realmente significa la probabilidad cero, considere esto: suponemos que un recuento justo tiene una probabilidad de 0.5 de subir caras y 0.5 de subir colas. Esto significa que tiene un 100% de posibilidades de aparecer cara o cruz, ya que esos resultados son MECE (mutuamente excluyentes y completamente exhaustivos). Sin embargo, tiene un cambio de cero por ciento de componer cabezas y colas : nuestra noción de 'cabezas' y 'colas' es que son mutuamente excluyentes. Por lo tanto, esto tiene una probabilidad de cero por ciento porque es imposible en la forma en que pensamos (o definimos) 'lanzar una moneda'. Y es imposible antes y después del lanzamiento.

Como corolario adicional de esto, todo lo que no es, por definición, imposible es posible.. En el mundo real, odio cuando los abogados preguntan "¿no es posible que hayas firmado este documento y lo hayas olvidado?" porque la respuesta siempre es 'sí' por la naturaleza de la pregunta. Para el caso, la respuesta también es 'sí' a la pregunta "¿no es posible que haya sido transportado a través de la desmaterialización al planeta Remulak 4 y obligado a hacer algo y luego transportado de regreso sin recordarlo?". La probabilidad puede ser muy baja, pero lo que no es imposible es posible. En nuestro concepto habitual de probabilidad, cuando hablamos de lanzar una moneda, puede aparecer cara; puede aparecer cola; e incluso puede estar parado o flotar en el aire (de alguna manera, como si fuéramos colados en una nave espacial mientras estábamos drogados y en órbita). Pero, antes o después del lanzamiento, colas al mismo tiempo: son resultados mutuamente excluyentes en el espacio muestral del experimento (busque 'espacios muestrales de probabilidad' y 'álgebras sigma').

Segundo, en toda esta filosofía bayesiana / frequentista sobre intervalos de confianza, es cierto que se relaciona con las frecuencias si uno actúa como frecuentista. Entonces, cuando decimos que el intervalo de confianza para una media muestreada y estimada es del 95%, no estamos diciendo que estamos 95% seguros de que el valor 'real' se encuentra entre los límites. Estamos diciendo que, si pudiéramos repetir este experimento una y otra vez, el 95% de las veces encontraríamos que la media estaba, de hecho, entre los límites. Sin embargo, cuando lo hacemos con una carrera, tomamos un atajo mental y decimos "estamos 95% seguros de que tenemos razón".

Finalmente, no olvide cuál es la configuración estándar en una prueba de hipótesis basada en un experimento. Si queremos saber si una hormona de crecimiento vegetal hace que las plantas crezcan más rápido, tal vez primero determinemos el tamaño promedio de un tomate después de 6 meses de crecimiento. Luego repetimos, pero con la hormona, y obtenemos el tamaño promedio. Nuestra hipótesis nula es 'la hormona no funcionó', y nos prueba que . Pero, si las plantas probadas son, en promedio, más grandes, con un 99% de confianza, eso significa que 'siempre habrá una variación aleatoria debido a las plantas y la precisión con la que pesamos, pero la cantidad de aleatoriedad que explicaría esto ocurriría en menos de uno tiempo en cien ".

eSurfsnake
fuente
1

El problema puede caracterizarse como una confusión de probabilidad previa y posterior o tal vez como la insatisfacción de no conocer la distribución conjunta de ciertas variables aleatorias.

Acondicionamiento

n1nXYXYP(X=xY=y)=1/(n(n1))x,yN:={1,,n}xyP(X=x)=1/nP(Y=x)=1/nxN

tP(X=x)=1/nxNxNX=xP(X=x|Y=t)=P(X=xY=t)/P(Y=t)xt1/(n1)x=t0X=xY=tX=xX=xY=tP(X=x)=P(Y=x)=1/nxN

No condicionar la evidencia significa ignorar la evidencia. Sin embargo, solo podemos condicionar lo que es expresable en el modelo probabilístico. En nuestro ejemplo con las dos bolas de la urna, no podemos condicionar el clima o cómo nos sentimos hoy. En caso de que tengamos razones para creer que tal evidencia es relevante para el experimento, primero debemos cambiar nuestro modelo para permitirnos expresar esta evidencia como eventos formales.

CC=1X<YP(C=1)=1/2tP(C=1|Y=t)=(t1)/(n1)P(C=1|Y=1)=0C=1P(C=1|Y=n)=1C=1P(C=1)=1/2

Intervalo de confianza

X=(X1,,Xn)n(l,u)γXluRnθRP(l(X)θu(X))γ

C(l,u)C=1l(X)θu(X)P(C=1)γ

x=(x1,,xn)RnxiXiiC=1δ:=P(C=1|X=x)01(C=1X=x)((l(x)θu(x))X=x)l(x)θu(x)δ=0l(x)θu(x)X=xδ=1l(x)u(x)xδ{0,1}

P(C=1)γC=1x[l(x),u(x)][l(x),u(x)]θγ, significaría reconocer esta evidencia y al mismo tiempo ignorarla.

Aprender más, saber menos

δXYxRP(X=x)P(Y=x)P(X=xY=y)x,yR(X,Y)

Y=7XP(X=x)x(x,7)xRxP(X=x)Y=7Y=77P(X=x)X=xP(X=x|Y=7)=P(X=xY=7)/P(Y=7)

YX

Lasse Kliemann
fuente
0

Si digo que la probabilidad de que los Knicks obtuvieran un puntaje entre xbar - 2sd (x) y xbar + 2sd (x) es aproximadamente .95 en un juego dado en el pasado, esa es una declaración razonable dada alguna suposición distributiva particular sobre la distribución de los puntajes de baloncesto . Si recopilo datos sobre los puntajes dados en una muestra de juegos y calculo ese intervalo, la probabilidad de que puntuaron en ese intervalo en un día dado en el pasado es claramente cero o uno, y puede buscar en Google el resultado del juego para averiguarlo. La única noción de que mantiene una probabilidad distinta o nula para el frecuentador proviene del muestreo repetido, y la realización de la estimación de intervalo de una muestra particular es el punto mágico donde sucedió o no dio la estimación de intervalo de esa muestra . No es el punto donde escribe la contraseña,

Esto es lo que Dikran argumenta arriba, y he votado su respuesta. El punto cuando las muestras repetidas están fuera de consideración es el punto en el paradigma frecuentista donde la probabilidad no discreta se vuelve inalcanzable , no cuando ingresas la contraseña como en tu ejemplo anterior, o cuando buscas en Google el resultado en mi ejemplo del Juego de Knicks, pero el punto cuando su número de muestras = 1.

Patrick McCann
fuente
0

Modelado

S=(Ω,Σ,P)EΣP(E)ESS

El paso (1) puede permitir algo de margen. La idoneidad del modelado a veces se puede probar comparando la probabilidad de ciertos eventos con lo que esperaríamos intuitivamente. En particular, observar ciertas probabilidades marginales o condicionales puede ayudar a hacerse una idea de cuán apropiado es el modelado.

X1,,XnDist(θ)θR

Estimador de intervalo de confianza

γLRRnPAGS(L(X)θR(X))γX=(X1,...,Xnorte)L(X)R(X)XRnorteL(X)θR(X)

Preferencias

γ1γ2γ1<γ2una mayor probabilidad de ser un boleto ganador que el primero cuando fueron sorteados. Una preferencia con respecto a las diferentes observaciones (los dos tickets en estos ejemplos) basada en las propiedades probabilísticas de los procesos aleatorios que generaron las observaciones está bien. Tenga en cuenta que no decimos que ninguno de los boletos tenga una mayor probabilidad de ser un boleto ganador. Si alguna vez lo decimos, entonces con "probabilidad" en un sentido coloquial, lo que podría significar cualquier cosa, por lo que es mejor evitarlo aquí.

0,95

Ejemplo con un Prior simple

θPAGS(θ=0 0)=PAGS(θ=1)=1/ /2ϑRθ=ϑX1,,XnN(ϑ,1)L,RγϑRP(L(X)ϑR(X)|θ=ϑ)γP(L(X)θR(X))γ

xRn(X1,,Xn)θL(x)R(x)P(L(x)θR(x)|X=x)fμnμσ=1

P(L(x)θR(x)|X=x)={f0(x)f0(x)+f1(x)if L(x)0R(x)<1f1(x)f0(x)+f1(x)if 0<L(x)1R(x)1if L(x)0 and 1R(x)0else
γθL(X)θR(X)γ

θxx{μ0,μ1}={0,1}

P(θ=μ0|X=x)=fμ0(x)fμ0(x)+fμ1(x)
Lasse Kliemann
fuente
0

Si pudiéramos decir "la probabilidad de que el parámetro verdadero se encuentre en este intervalo de confianza", entonces no tendríamos en cuenta el tamaño de la muestra. No importa cuán grande sea la muestra, siempre que la media sea la misma, el intervalo de confianza sería igualmente amplio. Pero cuando decimos "si repito esto 100 veces, entonces esperaría que en 95 de los casos el parámetro verdadero se encuentre dentro del intervalo", estamos teniendo en cuenta el tamaño del tamaño de la muestra y qué tan segura es nuestra estimación . Cuanto mayor sea el tamaño de la muestra, menor será la variación media de la estimación. Por lo tanto, no variará tanto, y cuando estamos repitiendo el procedimiento 100 veces, no necesitamos un intervalo grande para asegurarnos de que en 95 de los casos el parámetro verdadero esté en el intervalo.

OBIEK
fuente
Tenga en cuenta que el intervalo de confianza es un concepto frecuente.
Michael Chernick