¿Por qué el orden de bytes de red se define como big-endian? [cerrado]

88

Como está escrito en el encabezado, mi pregunta es, ¿por qué TCP / IP usa codificación big endian cuando transmite datos y no el esquema little-endian alternativo?

Neji
fuente
36
a pesar de que se ha cerrado, esta página fue bastante útil
Goaler444

Respuestas:

77

RFC1700 declaró que debe ser así . (y orden de bytes de red definido como big-endian).

La convención en la documentación de los protocolos de Internet es expresar números en decimal y representar datos en orden "big-endian" [COHEN]. Es decir, los campos se describen de izquierda a derecha, con el octeto más significativo a la izquierda y el octeto menos significativo a la derecha.

La referencia que hacen es a

On Holy Wars and a Plea for Peace 
Cohen, D. 
Computer

El resumen se puede encontrar en IEN-137 o en esta página de IEEE .


Resumen:

El camino elegido no hace mucha diferencia. Es más importante acordar una orden que la que se acuerda.

Concluye que ambos esquemas big-endian y little-endian podrían haber sido posibles. No existe un esquema mejor / peor , y cualquiera puede usarse en lugar del otro siempre que sea consistente en todo el sistema / protocolo.

Anirudh Ramanathan
fuente
RFC 3232 parece decir "RFC1700 es obsoleto" sin dar ningún reemplazo
MM
11
@Anirudh, Esta "respuesta" está evitando la pregunta. La pregunta está pidiendo la razón subyacente por la bigEndian se elige en lugar de la alternativa ( s ). Re "La manera que se elija no hace mucha diferencia ", esto es falso porque en realidad importa debido al simple hecho de que el rendimiento importa (y tal estándar está arraigado en las capas más bajas de las comunicaciones de red).
Pacerier
2
@Pacerier No habría diferencia en términos de rendimiento, que es de lo que habla en detalle el documento vinculado.
Anirudh Ramanathan
1
@Anirudh, esto puede interesarle: busque el enlace Big Endian en wolfvision.com/wolf/commands_cynap_wolfvision/… .
atravers