He visto que las CPU y los sistemas operativos se han movido hacia arriba en términos de bits de 8 bits a 16 bits, a 32 bits y actualmente a 64 bits. Entiendo que este cambio es aumentar la cantidad máxima de memoria que la CPU puede direccionar.
Lo que no entiendo es por qué siempre hay una duplicación del tamaño del autobús. ¿Es solo una decisión arbitraria / comercial duplicar el tamaño del autobús o hay alguna otra razón?
¿Por qué no podemos tener una CPU de 33 bits? ¿O si eso no fuera suficiente, una CPU de 34 bits? 64 bits parece un salto tan masivo e innecesario (¿costoso?) En el espacio de direcciones y presumiblemente en la complejidad del silicio subyacente.
Respuestas:
He visto CPU de 12, 14, 15, 17, 18, 20, 24 y 48 bits. Pero con la moderna tecnología VLSI (¿o es ULSI ahora?), Agregar más bits a la ruta de datos no es tan costoso. Los desarrolladores de chips introducen el mayor ancho posible en el chip, ya que eso aumenta el rendimiento con un costo adicional relativamente bajo y con solo una leve penalización de tiempo de ciclo.
Lograr más velocidad / rendimiento con una ruta de datos estrecha y un tiempo de ciclo más rápido es mucho más difícil.
fuente
A diferencia de muchas circunstancias en una computadora, por ejemplo, el direccionamiento, donde aumentar la longitud de la dirección en un bit aumenta la cantidad de memoria direccionable en una potencia de 2 (y por qué las potencias de 2 son tan comunes en la memoria), la longitud de palabra real de la CPU Puede ser cualquier valor conveniente.
Las longitudes de palabra comunes para los procesadores (16, 32 y 64 bits) surgieron en realidad como múltiplos de 8 (en lugar de potencias de 2, aunque, por supuesto, estos múltiplos particulares de 8 también son potencias de 2), siendo 8 bits el tamaño mínimo para un único carácter , el tipo de datos primitivo más pequeño utilizado comúnmente.
Dado que 8 bits es demasiado impreciso para ser muy útil para valores numéricos (o incluso para juegos de caracteres extendidos como UTF-16), las palabras de más de 8 bits permiten una eficiencia mucho mayor cuando se trabaja con valores que utilizan más que esa cantidad de precisión. , y los múltiplos de 8 bits (el tipo de datos más pequeño utilizado comúnmente) siguen siendo la elección natural, lo que permite almacenar una cuantificación entera de (por ejemplo, 2, 4 u 8) caracteres en una palabra sin dejar bits desperdiciados y no utilizados.
El artículo de wikipedia sobre palabras tiene una sección Elección de tamaño de palabra con un poco más de detalle.
fuente