Parece universal que las estadísticas demográficas se den en términos de 100,000 habitantes por año. Por ejemplo, las tasas de suicidio, las tasas de homicidio, el año de vida ajustado por discapacidad, la lista continúa. ¿Por qué?
Si estuviéramos hablando de química, las partes por millón (ppm) son comunes. ¿Por qué el acto de contar personas se considera fundamentalmente diferente? El número de 100,000 no tiene base en el sistema SI, y por lo que puedo decir, no tiene ninguna base empírica en absoluto, excepto una relación débil con un porcentaje. Un recuento por 100.000 podría interpretarse como un mili por ciento, m%. Pensé que eso podría provocar algunos gemidos.
¿Es este un artefacto histórico? ¿O hay algún argumento para defender la unidad?
fuente
Respuestas:
Una pequeña investigación muestra primero que los demógrafos (y otros, como los epidemiólogos, que informan las tasas de eventos en poblaciones humanas) no usan "universalmente" 100.000 como denominador. De hecho, Google "demografía 100000" o búsquedas relacionadas parece generar tantos documentos usando 1000 para el denominador como 100,000. Un ejemplo es el Glosario de Términos Demográficos de la Oficina de Referencia de Población , que usa 1000 de manera consistente.
Mirar a su alrededor en los escritos de los primeros epidemiólogos y demógrafos muestra que los primeros (como John Graunt y William Petty, contribuyentes de los primeros proyectos de ley de mortalidad de Londres , 1662) ni siquiera normalizaron sus estadísticas: informaron recuentos brutos dentro de unidades administrativas particulares (como la ciudad de Londres) durante períodos de tiempo determinados (como un año o siete años).
El epidemiólogo seminal John Snow (1853) produjo tablas normalizadas a 100,000 pero discutió las tasas por 10,000. Esto sugiere que el denominador en las tablas se eligió de acuerdo con el número de cifras significativas disponibles y ajustado para que todas las entradas sean integrales.
Tales convenciones eran comunes en tablas matemáticas que se remontaban al menos al libro de logaritmos de John Napier (c. 1600), que expresaba sus valores por 10,000,000 para lograr una precisión de siete dígitos para valores en el rango . (¡La notación decimal aparentemente era tan reciente que se sintió obligado a explicar su notación en el libro!) Por lo tanto, uno esperaría que los denominadores típicos hayan sido seleccionados para reflejar la precisión con la que se informan los datos y evitar decimales.[ 0 , 1 ]
El texto clásico de John Tukey , EDA (1977), proporciona un ejemplo moderno de uso consistente de reescalamiento por potencias de diez para lograr valores integrales manejables en conjuntos de datos . Él enfatiza que los analistas de datos deben sentirse libres de reescalar (y, en general, reexpresar de forma no lineal) datos para hacerlos más adecuados para el análisis y más fáciles de administrar.
Por lo tanto, dudo de las especulaciones, por naturales y atractivas que sean, de que un denominador de 100,000 se originó históricamente con cualquier escala humana en particular, como una "ciudad pequeña a mediana" (que antes del siglo XX habría tenido menos de 10,000 personas de todos modos y lejos menos de 100,000).
fuente
Me parece recordar que en un curso de Geografía de Población hace unas décadas, nuestro instructor (Profesor Brigette Waldorf, ahora en la Universidad de Purdue) dijo [algo así] que expresamos el número de ocurrencias (por ejemplo, muertes, nacimientos) por 100,000 porque incluso si solo hay 30 o 50 ocurrencias, no tenemos que recurrir a porcentajes molestos. Intuitivamente, tiene más sentido para la mayoría de las personas (aunque probablemente no sean lectores de este estimado foro) decir, bueno, en Upper Otters 'Bottom, la tasa de mortalidad por mordedura de serpiente para hombres de 35 a 39 años en 2010 fue de 13 por cada 100.000 habitantes. Simplemente facilita la comparación de tasas entre ubicaciones y cohortes (aunque también lo harían los porcentajes).
Aunque no soy demógrafo, nunca escuché a nadie hacer referencia al argumento de la ciudad mediana, aunque suena razonable. Es solo que en alrededor de 20 años de tratar con geógrafos y científicos sociales relacionados como estudiante universitario, estudiante graduado y ahora miembro de la facultad, nunca he escuchado esa explicación particular sobre el tamaño de la ciudad invocada. Hasta ahora.
fuente
En general, estamos tratando de transmitir información a personas reales, por lo que es útil usar un número que sea significativo para las personas. 100.000 personas son del tamaño de una ciudad pequeña a mediana, en la que es fácil pensar.
fuente
Realmente no hay una razón inteligente o racional para convertir a por 100,000.
Simplemente está cambiando las unidades de una relación.
La prueba más grande es que la mayoría de las personas usan el dominio incorrecto al encubrir a 100,000
Simplemente no hay una buena razón para hacer esto.
fuente