Unité de mesure en informatique : Différence entre versions
De Wicri Manuel
imported>Jacques Ducloy (→Notions de codification des caractères) |
imported>Jacques Ducloy (→Notions de codification des caractères) |
||
Ligne 68 : | Ligne 68 : | ||
| | | | ||
| | | | ||
− | |||
− | |||
− | |||
− | |||
|- | |- | ||
|100 0111 ||style="background:lightblue;"| 107 || style="background:#cff;"| 71 ||style="background:lightblue;"| 47 || [[G]] | |100 0111 ||style="background:lightblue;"| 107 || style="background:#cff;"| 71 ||style="background:lightblue;"| 47 || [[G]] | ||
Ligne 126 : | Ligne 122 : | ||
{| class="wikitable" style="text-align:center;" | {| class="wikitable" style="text-align:center;" | ||
|- style="vertical-align:bottom;" | |- style="vertical-align:bottom;" | ||
− | ! | + | !Binaire !! Oct !! Dec !! Hex !! Glyph |
|- | |- | ||
|110 0000 ||style="background:lightblue;"| 140 || style="background:#cff;"| 96 ||style="background:lightblue;"| 60 || [[Grave accent|`]] | |110 0000 ||style="background:lightblue;"| 140 || style="background:#cff;"| 96 ||style="background:lightblue;"| 60 || [[Grave accent|`]] | ||
Ligne 135 : | Ligne 131 : | ||
|- | |- | ||
|110 0011 ||style="background:lightblue;"| 143 || style="background:#cff;"| 99 ||style="background:lightblue;"| 63 || [[c]] | |110 0011 ||style="background:lightblue;"| 143 || style="background:#cff;"| 99 ||style="background:lightblue;"| 63 || [[c]] | ||
+ | |- | ||
+ | | | ||
+ | | | ||
|- | |- | ||
|110 0100 ||style="background:lightblue;"| 144 || style="background:#cff;"| 100 ||style="background:lightblue;"| 64 || [[d]] | |110 0100 ||style="background:lightblue;"| 144 || style="background:#cff;"| 100 ||style="background:lightblue;"| 64 || [[d]] |
Version du 13 juin 2011 à 18:57
Les unités de mesure sont utilisées en informatique pour quantifier la taille de la mémoire d'un ordinateur, l'espace utilisable sur un disque dur, le débit d'un organe de transmission ou la taille d'un fichier.
Unités élémentaires courantes
- Bit - Le terme bit vient de l'anglais binary digit et désigne la plus petite unité de mémoire utilisable sur un ordinateur. Cette mémoire ne peut prendre que deux valeurs, la plupart du temps interprétées comme 0 ou 1. Les autres unités de mesure ne correspondent qu'à des regroupements de bits.
- Octet - Le terme octet désigne un regroupement de 8 chiffres binaires (ou de 8 bits). Il peut prendre 28, soit 256, valeurs possibles. L'octet est la mesure la plus couramment utilisée car on sait y représenter un jeu de caractères courants (le code ASCII par exemple) et il est facilement manipulable par un ordinateur (8 étant une puissance de 2).
Notions de codification des caractères
Pour représenter un jeu de caractère en informatique, le principe de base consiste à affecter à chaque caractère un profil binaire unique. Le code ASCII (American Standard Code for Information Interchange), défini en 1960 était un code à 7 bits.
|
|
|