¿Por qué existe la discrepancia en el número de bytes en un kilobyte? En algunos lugares he visto el número 1024 (2 10 ) mientras que en otros es 1000 (y la diferencia se hace cada vez mayor con M, G, T, etc.).
Esta no es una discusión sobre si debería ser 1024 o 1000 (aunque puede discutirlo en los comentarios) sino sobre dónde / cuándo se originó y / o se generalizó esta situación.
Hasta donde sé, los fabricantes de Linux y hardware nunca usan la variante 1024. Eso y, según dicen, MS-DOS hizo que esta versión fuera común, pero ¿cuáles son los hechos?
gigabyte
correctamente?Respuestas:
Se remonta bastante tiempo y se detalla aquí . Parece que puedes culpar a IBM, si alguien.
Después de pensarlo un poco más, culparía a los estadounidenses en su conjunto, por su evidente desprecio por el Système international d'unités : P
fuente
Toda la informática era de bajo nivel al principio. Y en la programación de bajo nivel, el número "1000" es totalmente inútil y necesitaban prefijos para cantidades mayores, por lo que reutilizaron los SI. Todos lo sabían en el campo, no había confusión. Sirvió bien durante 30 años o quién sabe.
No es porque fueran estadounidenses, por lo que necesitaban romper la IS a toda costa. :-)
No hay programador que yo conozca y dice kibibyte. Dicen kilobytes y significan 1024 bytes. Los algoritmos están llenos de poderes de 2. Incluso hoy, "1000" es un número realmente inútil entre programadores.
Decir kibi y mibi es demasiado divertido y llama la atención sobre el tema. Felizmente lo regalamos a los sectores de telecomunicaciones y almacenamiento en disco :-). Y escribiré kibibytes en las interfaces de usuario donde los no programadores puedan leerlo.
fuente
Es correcto y tiene sentido que las personas técnicas usen 1024 = 1K en muchos casos.
Para los usuarios finales, normalmente es mejor decir 1000 = 1k porque todos están acostumbrados al sistema numérico basado en 10.
El problema es dónde dibujar la línea. A veces, las personas de marketing o publicidad realmente no tienen éxito en la "traducción" o en la adaptación de los datos técnicos y el lenguaje a los usuarios finales.
fuente
Culpe a los fabricantes de semiconductores (solo nos proporcionan hardware binario) [1]
Mejor aún: culpe a la lógica misma (la lógica binaria es solo la lógica más elemental).
Mejor aún: ¿a quién debemos culpar por el miserable sistema decimal ?
Tiene muchos más defectos que el sistema binario. Se basó la tos en el número promedio de dedos en la tos de la especie humana
Oooo ...
[1] ¡Quiero mi computadora cuántica de tres qubits! ¡Ahora!
fuente
No se debe culpar a 1024, es algo realmente bueno, ya que es la razón por la cual la computadora (digital) puede ser tan rápida y eficiente como lo es hoy. Debido a que la computadora solo usa el valor 2 (0,1), elimina la dificultad y la complejidad (inexactitud) del sistema anológico fuera de la ecuación.
Sería más complicado si dijéramos que un kilobyte es 1000 bits porque 2 a qué potencia es 1000? así que incluso 1 kilobyte sería inexacto porque tendrá puntos flotantes o una aproximación.
Pero en gran parte culpo al marketing por vender 8 gigabytes * y agregar esto en letra pequeña
es una lástima realmente, eso es lo mismo con la velocidad de conexión, su ISP dirá 1.5Mbps en lugar de decirle ~ 150 kiloBytes. es muy engañoso
fuente
Cuando considera que los números en las computadoras son binarios, y 2 ^ 10 es 1024, tiene mucho sentido. Es mucho más fácil trabajar con 1024 en lugar de 1000, porque puedes dividir fácilmente entre 1024 usando solo matemática entera y desplazamiento de bits . Dividir por 1000 es una operación mucho más costosa, que puede necesitar matemática de punto flotante.
P.ej
fuente