Unité de mesure en informatique
De Wicri Manuel
Révision datée du 13 juin 2011 à 18:00 par imported>Jacques Ducloy (→Notions de codification des caractères)
Les unités de mesure sont utilisées en informatique pour quantifier la taille de la mémoire d'un ordinateur, l'espace utilisable sur un disque dur, le débit d'un organe de transmission ou la taille d'un fichier.
Unités élémentaires courantes
- Bit - Le terme bit vient de l'anglais binary digit et désigne la plus petite unité de mémoire utilisable sur un ordinateur. Cette mémoire ne peut prendre que deux valeurs, la plupart du temps interprétées comme 0 ou 1. Les autres unités de mesure ne correspondent qu'à des regroupements de bits.
- Octet - Le terme octet désigne un regroupement de 8 chiffres binaires (ou de 8 bits). Il peut prendre 28, soit 256, valeurs possibles. L'octet est la mesure la plus couramment utilisée car on sait y représenter un jeu de caractères courants (le code ASCII par exemple) et il est facilement manipulable par un ordinateur (8 étant une puissance de 2).
Notions de codification des caractères
Pour représenter un jeu de caractère en informatique, le principe de base consiste à affecter à chaque caractère un profil binaire unique. Le code ASCII (American Standard Code for Information Interchange), défini en 1960 était un code à 7 bits.
|
|
|