Digamos que tiene un dispositivo de medición del cual no conoce la precisión, y un dispositivo de medición de referencia. Ambos miden una variable . El rango de interés es . ¿Cómo se determina la precisión del dispositivo desconocido en este rango?
Mi curso de acción sería reunir valores para ambos dispositivos de a y construir una distribución de errores . La precisión podría ser el intervalo de error, o algo similar: ¿es correcto?
Suposiciones
- El dispositivo de medición de referencia está calibrado y prácticamente no tiene errores.
measurements
statistics
metrology
John HK
fuente
fuente
Respuestas:
Su enfoque es ampliamente correcto.
Si solo está interesado en la precisión de su sistema, probablemente quiera usar algo como el error máximo. Su precisión es entonces +/- Error máximo con la suposición de que los errores reales se distribuyen uniformemente dentro de este rango (una distribución uniforme a menudo será una sobreestimación, pero es una opción simple cuando no hay mejor información disponible).
Sin embargo, este enfoque a menudo producirá grandes errores debido a efectos sistemáticos que pueden corregirse fácilmente ajustando una curva (normalmente lineal) a través de la gráfica de valores medidos y verdaderos.
Esto debería corregir el sesgo en su instrumento y luego puede calcular la incertidumbre en función de la desviación estándar de los residuos. La incertidumbre total es normalmente un múltiplo de , la elección es bastante arbitraria, por lo que debe indicar el múltiplo (valor k) o el factor de cobertura asociado. También debe indicar qué distribución está asumiendo, ya que esto afectará qué múltiplo Da una cobertura específica. Por ejemplo, para una cobertura gaussiana del 95% k ~ 2, pero para una distribución uniforme, cobertura del 95% k ~ 1.68σ
fuente
La única forma de determinar la precisión con la que cualquier dispositivo de medición proporciona mediciones es calibrarlo contra un dispositivo de precisión conocida y errores conocidos para las mediciones.
Tu técnica es parcialmente correcta; no solo realice la medición de errores para los límites del dispositivo como una población o un contenedor de muestras. Esto se debe a que los errores de medición no siempre son uniformes.
Por ejemplo, para lecturas entre 0 y 1, el error puede ser -0.2 y para lecturas entre 2 y 3 el error puede ser +0.6. Su prueba debe realizarse en rangos o bandas, independientemente de si las unidades son mm (para reglas), m / s (para anemómetros o velocímetros) o Pa (para barómetros).
Para cada rango / banda, usted determina el error para ese rango / banda y luego aplica ese error a la medición tomada desde el dispositivo que necesitaba calibración.
fuente
Estaba en un equipo de ingenieros de calidad (pero no uno de los expertos), y tenían una imagen visual en la que usaban una gráfica 2d donde el eje X era la primera medición y Y era la segunda medición de la misma característica observable.
Repetirían la medida / nueva medición y crearían lo que llamaron una "tabla de salchichas". Eliminarían el 2% de las muestras periféricas y dibujarían una "salchicha" alrededor del resto.
Puede ver visualmente la calidad del sistema de medición al observar cuán cerca cayeron los puntos de datos de la línea de ángulo de 45 grados.
fuente