web-dev-qa-db-fra.com

Pourquoi l'ordre des octets réseau est-il défini comme big-endian?

Comme écrit dans l'en-tête, ma question est la suivante: pourquoi TCP/IP utilise-t-il un codage big endian lors de la transmission de données et non le schéma alternatif little-endian?

80
Neji

RFC17 a déclaré qu'il doit en être ainsi . (et défini l'ordre des octets du réseau comme big-endian).

La convention dans la documentation des protocoles Internet est d'exprimer les nombres en décimal et de représenter les données dans l'ordre "big-endian" [COHEN]. Autrement dit, les champs sont décrits de gauche à droite, avec l'octet le plus significatif à gauche et l'octet le moins significatif à droite.

La référence qu'ils font est de

On Holy Wars and a Plea for Peace 
Cohen, D. 
Computer

Le résumé peut être trouvé à IEN-137 ou sur cette page IEEE .


Résumé:

La voie choisie ne fait pas trop de différence. Il est plus important de convenir d'une commande que de la commande convenue.

Il conclut que les schémas big-endian et little-endian auraient pu être possibles. Il n'y a pas de schéma meilleur/pire , et l'un ou l'autre peut être utilisé à la place de l'autre tant qu'il est cohérent dans tout le système/protocole.

71
Anirudh Ramanathan