Si "Error estándar" e "Intervalos de confianza" miden la precisión de la medición, ¿cuáles son las mediciones de precisión?

15

En el libro "Bioestadística para tontos" en la página 40 leí:

El error estándar (SE abreviado) es una forma de indicar qué tan precisa es su estimación o medición de algo.

y

Los intervalos de confianza proporcionan otra forma de indicar la precisión de una estimación o medición de algo.

Pero no se ha escrito nada sobre cómo indicar la precisión de la medición.

Pregunta: ¿Cómo indicar qué tan precisa es la medición de algo? ¿Qué métodos se usan para eso?


No debe confundirse con la precisión y precisión de la prueba: https://en.wikipedia.org/wiki/Accuracy_and_precision#In_binary_classification

vasili111
fuente
¿Pregunta acerca de la precisión de un solo parámetro o la precisión de un modelo general?
Steven L. Johnson
La precisión se ve afectada por errores sistemáticos (o sesgos)
Aksakal
@Aksakal y precisión con error aleatorio?
vasili111

Respuestas:

18

La precisión se puede estimar directamente a partir de sus puntos de datos, pero la precisión está relacionada con el diseño experimental. Supongamos que quiero encontrar la altura promedio de los hombres estadounidenses. Dada una muestra de alturas, puedo estimar mi precisión. Sin embargo, si mi muestra se toma de todos los jugadores de baloncesto, mi estimación será sesgada e inexacta, y esta inexactitud no puede identificarse a partir de la muestra misma.

Una forma de medir la precisión es realizar la calibración de su plataforma de medición. Al usar su plataforma para medir una cantidad conocida, puede probar de manera confiable la precisión de su método. Esto podría ayudarlo a encontrar el sesgo de medición, por ejemplo, si a su cinta métrica para el ejemplo de altura le faltaba una pulgada, reconocería que todas sus muestras de calibración leen una pulgada demasiado corta. Sin embargo, no ayudaría a solucionar su problema de diseño experimental.

Wang nuclear
fuente
2
s=(Xyo-X¯)2norte
2

La presunción está impulsada por los errores aleatorios, y la precisión está definida por errores sistemáticos. La precisión a menudo se puede aumentar mediante ensayos repetidos que aumentan el tamaño de la muestra. La precisión no se puede solucionar mediante la recopilación de más datos de la misma medición porque el error sistemático no desaparecerá.

El error sistemático conduce a un sesgo de la media y no se puede determinar o corregir dentro del mismo experimento. Considere esto: el objetivo de su experimento a menudo es detectar el efecto, como la desviación de cero. ¡Mide la importancia al comparar la desviación con el error estándar, pero esa desviación puede ser un sesgo (error sistemático)! Es por eso que el error sistemático es el peor tipo de error en la ciencia física.

En física, por ejemplo, se supone que debes determinar el sesgo (error sistemático) fuera de tu experimento, y luego corregirlo en tus mediciones. Curiosamente, en el campo de la predicción económica, el mayor problema son los cambios de la media, que básicamente es un error sistemático o sesgo en las ciencias físicas.

¡Quizás recuerdes la vergüenza que el error sistemático causó a los chicos de OPERA que " detectaron " neutrinos moviéndose más rápido que la luz! No explicaron un montón de fuentes de errores sistemáticos , y tuvieron que rescindir la conclusión. Después de todo, los neutrinos no rompen la velocidad de la luz, ¡qué fastidio!

Aksakal
fuente