Unité de mesure en informatique : Différence entre versions
De Wicri Manuel
imported>Jacques Ducloy (→Notions de codification des caractères) |
imported>Jacques Ducloy m (13 révisions importées) |
(Aucune différence)
|
Version actuelle datée du 24 juin 2017 à 17:17
Les unités de mesure sont utilisées en informatique pour quantifier la taille de la mémoire d'un ordinateur, l'espace utilisable sur un disque dur, le débit d'un organe de transmission ou la taille d'un fichier.
Unités élémentaires courantes
- Bit - Le terme bit vient de l'anglais binary digit et désigne la plus petite unité de mémoire utilisable sur un ordinateur. Cette mémoire ne peut prendre que deux valeurs, la plupart du temps interprétées comme 0 ou 1. Les autres unités de mesure ne correspondent qu'à des regroupements de bits.
- Octet - Le terme octet désigne un regroupement de 8 chiffres binaires (ou de 8 bits). Il peut prendre 28, soit 256, valeurs possibles. L'octet est la mesure la plus couramment utilisée car on sait y représenter un jeu de caractères courants (le code ASCII par exemple) et il est facilement manipulable par un ordinateur (8 étant une puissance de 2).
Notions de codification des caractères
Pour représenter un jeu de caractère en informatique, le principe de base consiste à affecter à chaque caractère un profil binaire unique. Le code ASCII (American Standard Code for Information Interchange), défini en 1960 était un code à 7 bits.
La table ci-dessous montre des extraits des caractères imprimables du code ASCII (les premières valeurs correspondent à des codes de contrôle, non imprimables).
|
|
|
Ces codes étant utilisés en télé-transmission, le huitième bit d'un octet était un code de parité.