¿Existe una forma más científica de determinar el número de dígitos significativos para informar sobre un intervalo medio o de confianza en una situación que es bastante estándar, por ejemplo, la clase de primer año en la universidad?
He visto Número de cifras significativas para poner en una tabla , ¿Por qué no usamos dígitos significativos y Número de figuras significativas en un ajuste de chi cuadrado , pero estos no parecen señalar el problema?
En mis clases trato de explicarles a mis alumnos que es un desperdicio de tinta informar 15 dígitos significativos cuando tienen un error estándar tan amplio en sus resultados; mi intuición era que debería redondearse a algún lugar del orden de . Esto no es muy diferente de lo que dice ASTM: Resultados de la prueba de informes que se refieren a E29 donde dicen que debería estar entre y .
EDITAR:
Cuando tengo un conjunto de números como el x
siguiente, ¿cuántos dígitos debo usar para imprimir la media y la desviación estándar?
set.seed(123)
x <- rnorm(30) # default mean=0, sd=1
# R defaults to 7 digits of precision options(digits=7)
mean(x) # -0.04710376 - not far off theoretical 0
sd(x) # 0.9810307 - not far from theoretical 1
sd(x)/sqrt(length(x)) # standard error of mean 0.1791109
PREGUNTA: Explique en detalle cuál es la precisión (cuando hay un vector de números de doble precisión) para la desviación media y estándar en esto y escriba una función pedagógica R simple que imprima la desviación media y estándar al número significativo de dígitos que se refleja en el vector x
.
R
(así como en casi todo el software) la impresión está controlada por un valor global (veroptions(digits=...)
), no por ninguna consideración de precisión.Respuestas:
La Guía para la incertidumbre en la medición (GUM) recomienda que la incertidumbre se informe con no más de 2 dígitos y que el resultado se informe con el número de dígitos significativos necesarios para que sea coherente con la incertidumbre. Consulte la Sección 7.2.2 a continuación.
http://www.bipm.org/utils/common/documents/jcgm/JCGM_100_2008_E.pdf
El siguiente código fue mi intento de implementar esta recomendación en R. Noe de que R puede no cooperar con los intentos de retener los ceros finales en la salida, incluso si son significativos.
fuente
> gumr(x.val,x.unc) $value [1] 8170 $uncert [1] 340
val = 8165.666
yunc = 338.9741
, la medición debe informarse comoval = 8.17(34)*10^3
(noval = 8170
conunc = 340
lo dado), para dejar en claro que solo dos dígitos de la incertidumbre son significativos.Si muestra el intervalo de confianza, así como el valor de la estadística, no hay problema en dar tantas cifras significativas como desee, ya que en ese caso una gran cantidad de cifras significativas no implica precisión espuria como el intervalo de confianza da Una indicación de la probable precisión real (un intervalo creíble sería mejor). En esencia, se trata de hacer que la mesa sea ordenada, concisa y legible, por lo que, esencialmente, es poco probable que haya una regla simple que se adapte a todas las ocasiones.
La replicabilidad es importante en los estudios científicos, por lo que idealmente debería ser posible reproducir los resultados en cualquier cantidad de cifras siginificantes (ya sea que tengan importancia práctica o no). Redondear a un pequeño número de cifras significativas podría reducir la confianza en una réplica de un estudio, ya que los errores podrían quedar enmascarados por el redondeo de los resultados, por lo que existe un posible inconveniente en algunas circunstancias.
Otra razón para no redondear demasiado es que puede hacer que sea imposible para otros extender su estudio sin repetirlo. Por ejemplo, podría publicar un documento que compara varios algoritmos de aprendizaje automático utilizando la prueba de Friedman, que depende de la clasificación de los diferentes algoritmos en un conjunto de conjuntos de datos de referencia. Si las estadísticas para clasificadores individuales en cada conjunto de datos se dan a una cantidad de cifras significativas dependiendo de sus errores estándar, esto indudablemente creará muchos lazos aparentes en las clasificaciones. Esto significa que (i) un lector / revisor del documento no podrá replicar la prueba de Friedman a partir de los resultados proporcionados en el documento y (ii) otra persona no podrá evaluar su algoritmo en los conjuntos de datos de referencia y utilizar el Friedman prueba para ponerlo en el contexto de los resultados de mi estudio.
fuente
Seguramente cualquier decisión, tomada objetiva o subjetivamente, dependerá en gran medida de lo que esté midiendo y de cuán preciso sea su instrumento de medición. Esta última es solo una parte de la variación observada, y no siempre es fácil de discernir o encontrar evidencia existente. Por lo tanto, sospecho firmemente que no existe una decisión objetiva, universalmente aplicable. Solo tienes que usar tu cerebro y hacer el mejor juicio en cada situación.
fuente