Mi comprensión actual de la noción "intervalo de confianza con nivel de confianza " es que si intentáramos calcular el intervalo de confianza muchas veces (cada vez con una muestra nueva), contendría el parámetro correcto del tiempo.
Aunque me doy cuenta de que esto no es lo mismo que "probabilidad de que el parámetro verdadero se encuentre en este intervalo", hay algo que quiero aclarar.
[Actualización importante]
Antes de calcular un intervalo de confianza del 95%, hay una probabilidad del 95% de que el intervalo que calcule abarque el parámetro verdadero. Después de calcular el intervalo de confianza y obtener un intervalo particular , ya no podemos decir esto. Ni siquiera podemos hacer algún tipo de argumento no frecuente de que estemos 95% seguros de que el verdadero parámetro estará en ; porque si pudiéramos, contradeciría contraejemplos como este: ¿Qué es, precisamente, un intervalo de confianza?
No quiero hacer de esto un debate sobre la filosofía de la probabilidad; en cambio, estoy buscando una explicación matemática precisa de cómo y por qué ver el intervalo particular cambia (o no cambia) la probabilidad del 95% que teníamos antes de ver ese intervalo. Si argumenta que "después de ver el intervalo, la noción de probabilidad ya no tiene sentido", entonces bien, trabajemos en una interpretación de probabilidad en la que sí tenga sentido.
Más precisamente:
Supongamos que programamos una computadora para calcular un intervalo de confianza del 95%. La computadora realiza algunos cálculos numéricos, calcula un intervalo y se niega a mostrarme el intervalo hasta que ingrese una contraseña. Antes de ingresar la contraseña y ver el intervalo (pero después de que la computadora ya lo haya calculado), ¿cuál es la probabilidad de que el intervalo contenga el parámetro verdadero? Es del 95%, y esta parte no está en debate : esta es la interpretación de la probabilidad que me interesa para esta pregunta en particular (me doy cuenta de que hay cuestiones filosóficas importantes que estoy suprimiendo, y esto es intencional).
Pero tan pronto como escriba la contraseña y haga que la computadora me muestre el intervalo que calculó, la probabilidad (de que el intervalo contenga el parámetro verdadero) podría cambiar. Cualquier afirmación de que esta probabilidad nunca cambia contradeciría el contraejemplo anterior. En este contraejemplo, la probabilidad podría cambiar del 50% al 100%, pero ...
¿Hay algún ejemplo en el que la probabilidad cambie a algo diferente al 100% o 0% (EDITAR: y si es así, cuáles son)?
¿Hay algún ejemplo en el que la probabilidad no cambie después de ver el intervalo particular (es decir, la probabilidad de que el parámetro verdadero se encuentre en [ a , b ] sigue siendo del 95%)?
¿Cómo (y por qué) cambia la probabilidad en general después de ver a la computadora escupir ?
[Editar]
¡Gracias por todas las excelentes respuestas y útiles discusiones!
fuente
Respuestas:
Creo que el problema fundamental es que las estadísticas frecuentistas solo pueden asignar una probabilidad a algo que puede tener una frecuencia a largo plazo. Ya sea que el valor verdadero de un parámetro se encuentre en un intervalo particular o no, no tiene una frecuencia de ejecución larga, porque solo podemos realizar el experimento una vez, por lo que no puede asignarle una probabilidad frecuentista. El problema surge de la definición de una probabilidad. Si cambia la definición de una probabilidad a una bayesiana, entonces el problema desaparece instantáneamente ya que ya no está atado a la discusión de las frecuencias a largo plazo.
Vea mi (más bien tounge en la mejilla) respuesta a una pregunta relacionada aquí :
" Un Frecuentista es alguien que cree que las probabilidades representan frecuencias de largo plazo con las cuales ocurren los eventos; si es necesario, inventará una población ficticia de la cual su situación particular podría considerarse una muestra aleatoria para poder hablar de manera significativa sobre las frecuencias de largo plazo. Si si le hace una pregunta sobre una situación particular, no responderá directamente, sino que hará una declaración sobre esta población (posiblemente imaginaria) " .
En el caso de un intervalo de confianza, la pregunta que normalmente nos gustaría hacer (a menos que tengamos un problema en el control de calidad, por ejemplo) es "dada esta muestra de datos, devuelva el intervalo más pequeño que contenga el valor verdadero del parámetro con probabilidad X". Sin embargo, un frecuentista no puede hacer esto, ya que el experimento solo se realiza una vez y, por lo tanto, no hay frecuencias de largo recorrido que puedan usarse para asignar una probabilidad. Entonces, en cambio, el frecuentista tiene que inventar una población de experimentos (que no realizó) a partir de los cuales el experimento que realizó puede considerarse una muestra aleatoria. El frecuentista le da una respuesta indirecta sobre esa población ficticia de experimentos, en lugar de una respuesta directa a la pregunta que realmente quería hacer sobre un experimento en particular.
Esencialmente es un problema de lenguaje, la definición frecuentista de una población simplemente no permite la discusión de la probabilidad del verdadero valor de un parámetro que se encuentra en un intervalo particular. Eso no significa que las estadísticas frecuentas sean malas o que no sean útiles, pero es importante conocer las limitaciones.
En cuanto a la actualización principal
No estoy seguro de que podamos decir que "antes de calcular un intervalo de confianza del 95%, existe una probabilidad del 95% de que el intervalo que calcule abarque el parámetro verdadero". dentro de un marco frecuentista. Aquí hay una inferencia implícita de que la frecuencia a largo plazo con la que el valor verdadero del parámetro se encuentra en intervalos de confianza construidos por algún método particular es también la probabilidad de que el valor verdadero del parámetro se encuentre en el intervalo de confianza para la muestra particular de datos que vamos a utilizar. Esta es una inferencia perfectamente razonable, pero es una inferencia bayesiana, no frecuente, ya que la probabilidad de que el verdadero valor del parámetro se encuentre en el intervalo de confianza que construimos para una muestra particular de datos no tiene una frecuencia de ejecución larga, ya que solo tenemos una muestra de datos.
Sin embargo, podemos "hacer algún tipo de argumento no frecuentista de que estamos 95% seguros de que el verdadero parámetro estará en [a, b]", eso es exactamente lo que es un intervalo creíble bayesiano, y para muchos problemas el intervalo creíble bayesiano coincide exactamente con el intervalo de confianza frecuentista.
"No quiero que esto sea un debate sobre la filosofía de la probabilidad", lamentablemente esto es inevitable, la razón por la que no se puede asignar una probabilidad frecuenta a si el verdadero valor de la estadística reside en el intervalo de confianza es una consecuencia directa de la filosofía frecuentista de probabilidad. Los frecuentes solo pueden asignar probabilidades a cosas que pueden tener frecuencias de largo recorrido, ya que así es como los frecuentas definen la probabilidad en su filosofía. Eso no hace que la filosofía frecuentista sea incorrecta, pero es importante comprender los límites impuestos por la definición de probabilidad.
"Antes de ingresar la contraseña y ver el intervalo (pero después de que la computadora ya lo haya calculado), ¿cuál es la probabilidad de que el intervalo contenga el parámetro verdadero? Es 95%, y esta parte no está en debate:" Esto es incorrecto, o al menos al hacer tal declaración, usted se ha apartado del marco de las estadísticas frecuentistas y ha hecho una inferencia bayesiana que implica un grado de plausibilidad en la verdad de una declaración, en lugar de una frecuencia a largo plazo. Sin embargo, como he dicho antes, es una inferencia perfectamente razonable y natural.
Nada ha cambiado antes o después de ingresar la contraseña, porque a otro evento se le puede asignar una probabilidad frecuente. Las estadísticas frecuentes pueden ser bastante intuitivas, ya que a menudo queremos hacer preguntas sobre los grados de plausibilidad de las declaraciones con respecto a eventos particulares, pero esto está fuera del alcance de las estadísticas frecuentistas, y este es el origen de la mayoría de las interpretaciones erróneas de los procedimientos frecuentistas.
fuente
Actualización importante, nueva respuesta importante. Permítanme tratar de abordar claramente este punto, porque es donde radica el problema:
"Si argumenta que" después de ver el intervalo, la noción de probabilidad ya no tiene sentido ", entonces bien, trabajemos en una interpretación de probabilidad en la que sí tenga sentido".
Las reglas de probabilidad no cambian, pero su modelo para el universo sí. ¿Está dispuesto a cuantificar sus creencias anteriores sobre un parámetro utilizando una distribución de probabilidad? ¿Actualizar esa distribución de probabilidad después de ver los datos es algo razonable? Si lo cree así, puede hacer declaraciones como . Mi distribución previa puede representar mi incertidumbre sobre el verdadero estado de la naturaleza , no solo la aleatoriedadP(θ∈[L(X),U(X)]|X=x) como se entiende comúnmente, es decir, si asigno una distribución previa al número de bolas rojas en una urna, eso no significa que creo que el número de bolas rojas es aleatorio. Está arreglado, pero no estoy seguro.
Varias personas, entre ellas he dicho esto, pero si usted no está dispuesto a llamar una variable aleatoria entonces la declaración P ( θ ∈ [ L ( X ) , T es. Si saco unas cuantas bolas entonces tengo una muestra aleatoria Puedo preguntar qué pasaría si tomara un montón de muestras aleatorias, es decir, puedo hablar sobreθ no es significativa. Si soy frecuente, estoy tratando θ como una cantidad fija Y NO puedo atribuirle una distribución de probabilidad. ¿Por qué? Porque es fijo, y mi interpretación de la probabilidad es en términos de frecuencias a largo plazo. El número de bolas rojas en la urna nunca cambia. θ es lo que θPAGS( θ ∈ [ L ( X) , U( X)]|X=x) θ θ θ porque el intervalo depende de la muestra, que es (¡Espera!) al azar.P(θ∈[L(X),U(X)])
Pero no quieres eso. Desea : ¿cuál es la probabilidad de que este intervalo que construí con mi muestra observada (y ahora fija) contenga el parámetro? Sin embargo, una vez que haya condicionado X = x , para mí, un frecuentista, no queda nada al azar y la declaraciónP(θ∈[L(X),U(X)]|X=x) X=x no tiene sentido de ninguna manera significativa.P(θ∈[L(X),U(X)]|X=x)
La única forma de principios (IMO) para hacer una declaración sobre es cuantificar nuestra incertidumbre sobre un parámetro con una distribución de probabilidad (anterior) y actualizar que distribución con nueva información a través del teorema de Bayes. Cualquier otro enfoque que he visto es una aproximación mediocre a Bayes. Ciertamente no puedes hacerlo desde una perspectiva frecuentista.P(θ∈[L(X),U(X)]|X=x)
Eso no quiere decir que no pueda evaluar los procedimientos frecuentistas tradicionales desde una perspectiva bayesiana (a menudo, los intervalos de confianza son solo intervalos creíbles bajo anteriores uniformes, por ejemplo) o que evaluar estimadores bayesianos / intervalos creíbles desde una perspectiva frecuentista no es valioso (Creo que puede ser). No quiere decir que las estadísticas clásicas / frecuentas sean inútiles, porque no lo es. Es lo que es, y no deberíamos intentar hacerlo más.
¿Crees que es razonable dar a un parámetro una distribución previa para representar tus creencias sobre el universo? Suena así por tus comentarios que haces; en mi experiencia, la mayoría de la gente estaría de acuerdo (esa es la pequeña broma que hice en mi comentario a la respuesta de @G. Jay Kerns). Si es así, el paradigma bayesiano proporciona una forma lógica y coherente de hacer declaraciones sobre . El enfoque frecuentista simplemente no lo hace.P(θ∈[L(X),U(X)]|X=x)
fuente
OK, ahora estas hablando! He votado para eliminar mi respuesta anterior porque no tiene sentido con esta pregunta actualizada.
En esta nueva pregunta actualizada, con una computadora que calcula los intervalos de confianza del 95%, bajo la interpretación ortodoxa frecuente, aquí están las respuestas a sus preguntas:
(Por cierto, en el mundo real, el experimentador nunca sabe que , lo que significa que el experimentador nunca puede saber si la verdadera probabilidad [ 1 , 3 ] cubre θ es cero o uno. (S) solo puede decir que debe ser uno u otro.) Eso, más el experimentador puede decir que el 95% de los intervalos de la computadora cubren θ , pero eso ya lo sabíamos.θ = 7 [ 1 , 3 ] θ θ
El espíritu de su pregunta sigue insinuando el conocimiento del observador y cómo eso se relaciona con dónde se encuentra . Que (presumiblemente) es la razón por la que hablabas la contraseña, sobre el ordenador para calcular el intervalo sin su visto todavía, etc . He visto en sus comentarios a las respuestas que parece insatisfactorio / impropio estar obligado a comprometerse con 0 o 1, después de todo, ¿por qué no podríamos creer que es 87% o 15?θ , o incluso el 99% ?? ? Pero ese es exactamente el poder, y al mismo tiempo el talón de Aquiles, del marco frecuentista: el conocimiento subjetivo / creencia del observador es irrelevante. Lo único que importa es una frecuencia relativa a largo plazo. Nada más y nada menos.15 / 16
Como BTW final: si cambia su interpretación de la probabilidad (que ha decidido no hacer para esta pregunta), las nuevas respuestas son:
(Pero para una divulgación completa, la configuración que describe no coincide muy bien con la interpretación subjetiva. Por ejemplo, generalmente tenemos un intervalo creíble previo del 95% antes de encender la computadora, luego la encendemos y empleamos la computadora para dar usamos un intervalo creíble posterior del 95% que suele ser considerablemente más delgado que el anterior).
fuente
Pondré mis dos centavos (tal vez redirigiendo algunas de las respuestas anteriores). Para un frecuentista, el intervalo de confianza en sí mismo es, en esencia, una variable aleatoria bidimensional: si rehace el experimento miles de millones de veces, el intervalo de confianza lo haría estimaría (es decir, calcular a partir de los datos recién encontrados cada vez) sería diferente cada vez . Como tal, los dos límites del intervalo son variables aleatorias.
Un IC del 95%, entonces, no significa nada más que la garantía (dado que todas sus suposiciones que conducen a este IC son correctas) de que este conjunto de variables aleatorias contendrá el valor verdadero (una expresión muy frecuente) en el 95% de los casos.
Puede calcular fácilmente el intervalo de confianza para la media de 100 sorteos a partir de una distribución normal estándar. Luego, si extrae 10000 veces 100 valores de esa distribución normal estándar, y cada vez calcula el intervalo de confianza para la media, verá que 0 está allí alrededor de 9500 veces.
El hecho de que haya creado un intervalo de confianza solo una vez (a partir de sus datos reales) reduce la probabilidad de que el valor verdadero esté en ese intervalo a 0 o 1, pero no cambia la probabilidad del intervalo de confianza como un variable aleatoria para contener el valor verdadero.
Entonces, en resumen: la probabilidad de que cualquier intervalo de confianza del 95% (es decir, en promedio) que contenga el valor verdadero (95%) no cambie, y tampoco la probabilidad de un intervalo particular (IC o lo que sea) para contener el valor verdadero (0 o 1). La probabilidad del intervalo que la computadora conoce pero usted no es en realidad 0 o 1 (porque es un intervalo particular), pero dado que usted no lo sabe (y, de manera frecuenta, no puede volver a calcular este mismo intervalo infinitas veces de nuevo a partir de los mismos datos), todo lo que tiene que hacer es la probabilidad de cualquier intervalo.
fuente
La razón por la que el intervalo de confianza no especifica "la probabilidad de que el parámetro verdadero se encuentre en el intervalo" es porque una vez que se especifica el intervalo, el parámetro yace en él o no. Sin embargo, para un intervalo de confianza del 95%, por ejemplo, tiene una probabilidad del 95% de crear un intervalo de confianza que contenga el valor. Este es un concepto bastante difícil de entender, por lo que es posible que no lo esté articulando bien. Consulte http://frank.itlab.us/datamodel/node39.html para obtener más aclaraciones.
fuente
No creo que un frecuentador pueda decir que existe alguna probabilidad de que el valor verdadero (de la población) de una estadística se encuentre en el intervalo de confianza para una muestra en particular. Lo es, o no lo es, pero no hay una frecuencia a largo plazo para un evento en particular, solo la población de eventos que obtendría al realizar repetidamente un procedimiento estadístico. Es por eso que tenemos que seguir con declaraciones como "el 95% de los intervalos de confianza así construidos contendrán el valor verdadero de la estadística", pero no "hay un% de probabilidad de que el valor verdadero se encuentre en el intervalo de confianza calculado para este particular muestra". Esto es cierto para cualquier valor de p, simplemente no es posible dentro de la definición frecuentista de lo que realmente es una probabilidad. Sin embargo, un Bayesiano puede hacer tal declaración usando un intervalo creíble.
fuente
La forma en que planteas el problema es un poco confusa. Tome esta declaración: Sea el evento de que el parámetro verdadero cae en el intervalo [ a , b ]E [a,b] . Esta afirmación no tiene sentido desde una perspectiva frecuentista; el parámetro es el parámetro y no cae en ningún lado, simplemente lo es. P (E) no tiene sentido, P (E | C) no tiene sentido y es por eso que su ejemplo se desmorona. El problema tampoco es condicionar un conjunto de medida cero; El problema es que está tratando de hacer declaraciones de probabilidad sobre algo que no es una variable aleatoria.
Un frecuentista diría algo como: Sea el evento de que el intervalo ( L ( X ) , U ( X ) ) contiene el parámetro verdadero. Esto es algo a lo que un frecuentista puede asignar una probabilidad.E~ (L(X),U(X))
Editar: @G. Jay Kerns hace el argumento mejor que yo, y escribe más rápido, así que probablemente solo avance :)
fuente
En las estadísticas frecuentistas, el evento es fijo: el parámetro se encuentra en [ a , b ] o no. Por lo tanto, E es independiente de C y C ' y, por lo tanto, P ( E | C ) = P ( E ) y P ( E | C ' ) = P ( E ) .E [a,b] E C C′ P(E|C)=P(E) P(E|C′)=P(E)
(En su argumento, parece pensar que y P ( E | C ′ ) = 0 , lo cual es incorrecto).P(E|C)=1 P(E|C′)=0
fuente
Hay tantas explicaciones largas aquí que no tengo tiempo para leerlas. Pero creo que la respuesta a la pregunta básica puede ser breve y dulce. Es la diferencia entre una probabilidad que es incondicional en los datos. La probabilidad de 1-alfa antes de recoger los datos es la probabilidad de que el procedimiento bien definido incluya el parámetro. Una vez que ha recopilado los datos y conoce el intervalo específico que ha generado, el intervalo es fijo y, dado que el parámetro es una constante, esta probabilidad condicional es 0 o 1. Pero dado que ni siquiera conocemos el valor real del parámetro después de recopilar los datos, no sabemos qué valor es.
La extensión de la publicación de Michael Chernick copió los comentarios del formulario:
Hay una excepción patológica a esto que se puede llamar estimación perfecta. Supongamos que tenemos un proceso autorregresivo de primer orden dado por X (n) = pX (n-1) + en. Es estacionario, por lo que sabemos que p no es 1 o -1 y es <1 en valor absoluto. Ahora los en son independientes distribuidos idénticamente con una distribución mixta, hay una probabilidad positiva q de que en = 0
Hay una excepción patológica a esto que se puede llamar estimación perfecta. Supongamos que tenemos un proceso autorregresivo de primer orden dado por X (n) = pX (n-1) + en. Es estacionario, por lo que sabemos que p no es 1 o -1 y es <1 en valor absoluto.
Ahora los en son independientes distribuidos idénticamente con una distribución mixta, hay una probabilidad positiva q de que en = 0 y con una probabilidad 1-q tiene una distribución absolutamente continua (digamos que la densidad no es cero en un intervalo delimitado desde 0. Entonces recolecte datos de la serie de tiempo secuencialmente y para cada par de valores sucesivos calcule p por X (i) / X (i-1). Ahora cuando ei = 0 la relación será igual a p exactamente.
Debido a que q es mayor que 0, la relación eventualmente repetirá un valor y ese valor debe ser el valor exacto del parámetro p porque si no es el valor de ei que no es 0, se repetirá con probabilidad 0 y ei / x (i -1) no se repetirá.
Entonces, la regla de detención secuencial es tomar muestras hasta que la relación se repita exactamente y luego usar el valor repetido como la estimación de p. Dado que es p exactamente cualquier intervalo que construya centrado en esta estimación tiene una probabilidad 1 de incluir el parámetro verdadero. Aunque este es un ejemplo patológico que no es práctico, existen procesos estocásticos estacionarios con las propiedades que requerimos para la distribución de errores.
fuente
Dos observaciones sobre las muchas preguntas y respuestas que pueden ayudar aún.
Parte de la confusión proviene de pasar por alto una teoría matemática más profunda de la probabilidad, que, por cierto, no estaba en una base matemática firme hasta aproximadamente la década de 1940. Entra en lo que constituye espacios muestrales, espacios de probabilidad, etc.
Primero, usted dijo que después de un lanzamiento de moneda sabemos que hay un 0% de probabilidad de que no salga colas si sale cara. En ese punto no tiene sentido hablar de probabilidad; sucedió lo que pasó y lo sabemos. La probabilidad es sobre lo desconocido en el futuro, no lo conocido en el presente.
Como un pequeño corolario de lo que realmente significa la probabilidad cero, considere esto: suponemos que un recuento justo tiene una probabilidad de 0.5 de subir caras y 0.5 de subir colas. Esto significa que tiene un 100% de posibilidades de aparecer cara o cruz, ya que esos resultados son MECE (mutuamente excluyentes y completamente exhaustivos). Sin embargo, tiene un cambio de cero por ciento de componer cabezas y colas : nuestra noción de 'cabezas' y 'colas' es que son mutuamente excluyentes. Por lo tanto, esto tiene una probabilidad de cero por ciento porque es imposible en la forma en que pensamos (o definimos) 'lanzar una moneda'. Y es imposible antes y después del lanzamiento.
Como corolario adicional de esto, todo lo que no es, por definición, imposible es posible.. En el mundo real, odio cuando los abogados preguntan "¿no es posible que hayas firmado este documento y lo hayas olvidado?" porque la respuesta siempre es 'sí' por la naturaleza de la pregunta. Para el caso, la respuesta también es 'sí' a la pregunta "¿no es posible que haya sido transportado a través de la desmaterialización al planeta Remulak 4 y obligado a hacer algo y luego transportado de regreso sin recordarlo?". La probabilidad puede ser muy baja, pero lo que no es imposible es posible. En nuestro concepto habitual de probabilidad, cuando hablamos de lanzar una moneda, puede aparecer cara; puede aparecer cola; e incluso puede estar parado o flotar en el aire (de alguna manera, como si fuéramos colados en una nave espacial mientras estábamos drogados y en órbita). Pero, antes o después del lanzamiento, colas al mismo tiempo: son resultados mutuamente excluyentes en el espacio muestral del experimento (busque 'espacios muestrales de probabilidad' y 'álgebras sigma').
Segundo, en toda esta filosofía bayesiana / frequentista sobre intervalos de confianza, es cierto que se relaciona con las frecuencias si uno actúa como frecuentista. Entonces, cuando decimos que el intervalo de confianza para una media muestreada y estimada es del 95%, no estamos diciendo que estamos 95% seguros de que el valor 'real' se encuentra entre los límites. Estamos diciendo que, si pudiéramos repetir este experimento una y otra vez, el 95% de las veces encontraríamos que la media estaba, de hecho, entre los límites. Sin embargo, cuando lo hacemos con una carrera, tomamos un atajo mental y decimos "estamos 95% seguros de que tenemos razón".
Finalmente, no olvide cuál es la configuración estándar en una prueba de hipótesis basada en un experimento. Si queremos saber si una hormona de crecimiento vegetal hace que las plantas crezcan más rápido, tal vez primero determinemos el tamaño promedio de un tomate después de 6 meses de crecimiento. Luego repetimos, pero con la hormona, y obtenemos el tamaño promedio. Nuestra hipótesis nula es 'la hormona no funcionó', y nos prueba que . Pero, si las plantas probadas son, en promedio, más grandes, con un 99% de confianza, eso significa que 'siempre habrá una variación aleatoria debido a las plantas y la precisión con la que pesamos, pero la cantidad de aleatoriedad que explicaría esto ocurriría en menos de uno tiempo en cien ".
fuente
El problema puede caracterizarse como una confusión de probabilidad previa y posterior o tal vez como la insatisfacción de no conocer la distribución conjunta de ciertas variables aleatorias.
Acondicionamiento
No condicionar la evidencia significa ignorar la evidencia. Sin embargo, solo podemos condicionar lo que es expresable en el modelo probabilístico. En nuestro ejemplo con las dos bolas de la urna, no podemos condicionar el clima o cómo nos sentimos hoy. En caso de que tengamos razones para creer que tal evidencia es relevante para el experimento, primero debemos cambiar nuestro modelo para permitirnos expresar esta evidencia como eventos formales.
Intervalo de confianza
Aprender más, saber menos
fuente
Si digo que la probabilidad de que los Knicks obtuvieran un puntaje entre xbar - 2sd (x) y xbar + 2sd (x) es aproximadamente .95 en un juego dado en el pasado, esa es una declaración razonable dada alguna suposición distributiva particular sobre la distribución de los puntajes de baloncesto . Si recopilo datos sobre los puntajes dados en una muestra de juegos y calculo ese intervalo, la probabilidad de que puntuaron en ese intervalo en un día dado en el pasado es claramente cero o uno, y puede buscar en Google el resultado del juego para averiguarlo. La única noción de que mantiene una probabilidad distinta o nula para el frecuentador proviene del muestreo repetido, y la realización de la estimación de intervalo de una muestra particular es el punto mágico donde sucedió o no dio la estimación de intervalo de esa muestra . No es el punto donde escribe la contraseña,
Esto es lo que Dikran argumenta arriba, y he votado su respuesta. El punto cuando las muestras repetidas están fuera de consideración es el punto en el paradigma frecuentista donde la probabilidad no discreta se vuelve inalcanzable , no cuando ingresas la contraseña como en tu ejemplo anterior, o cuando buscas en Google el resultado en mi ejemplo del Juego de Knicks, pero el punto cuando su número de muestras = 1.
fuente
Modelado
El paso (1) puede permitir algo de margen. La idoneidad del modelado a veces se puede probar comparando la probabilidad de ciertos eventos con lo que esperaríamos intuitivamente. En particular, observar ciertas probabilidades marginales o condicionales puede ayudar a hacerse una idea de cuán apropiado es el modelado.
Estimador de intervalo de confianza
Preferencias
Ejemplo con un Prior simple
fuente
Si pudiéramos decir "la probabilidad de que el parámetro verdadero se encuentre en este intervalo de confianza", entonces no tendríamos en cuenta el tamaño de la muestra. No importa cuán grande sea la muestra, siempre que la media sea la misma, el intervalo de confianza sería igualmente amplio. Pero cuando decimos "si repito esto 100 veces, entonces esperaría que en 95 de los casos el parámetro verdadero se encuentre dentro del intervalo", estamos teniendo en cuenta el tamaño del tamaño de la muestra y qué tan segura es nuestra estimación . Cuanto mayor sea el tamaño de la muestra, menor será la variación media de la estimación. Por lo tanto, no variará tanto, y cuando estamos repitiendo el procedimiento 100 veces, no necesitamos un intervalo grande para asegurarnos de que en 95 de los casos el parámetro verdadero esté en el intervalo.
fuente