Unité de mesure en informatique : Différence entre versions

De Wicri Manuel
imported>Jacques Ducloy
imported>Jacques Ducloy
(Unités élémentaires courantes)
Ligne 4 : Ligne 4 :
  
 
* '''Bit''' - Le terme bit vient de l'anglais ''binary digit'' et désigne la plus petite unité de mémoire utilisable sur un ordinateur. Cette mémoire ne peut prendre que '''deux''' valeurs, la plupart du temps interprétées comme 0 ou 1. Les autres unités de mesure ne correspondent qu'à des regroupements de bits.
 
* '''Bit''' - Le terme bit vient de l'anglais ''binary digit'' et désigne la plus petite unité de mémoire utilisable sur un ordinateur. Cette mémoire ne peut prendre que '''deux''' valeurs, la plupart du temps interprétées comme 0 ou 1. Les autres unités de mesure ne correspondent qu'à des regroupements de bits.
 +
* '''Octet''' - Le terme octet désigne un regroupement de 8 chiffres binaires (ou de 8 bits). Il peut prendre 2{{exp|8}}, soit 256, valeurs possibles.

Version du 13 juin 2011 à 18:18

Les unités de mesure sont utilisées en informatique pour quantifier la taille de la mémoire d'un ordinateur, l'espace utilisable sur un disque dur, le débit d'un organe de transmission ou la taille d'un fichier.

Unités élémentaires courantes

  • Bit - Le terme bit vient de l'anglais binary digit et désigne la plus petite unité de mémoire utilisable sur un ordinateur. Cette mémoire ne peut prendre que deux valeurs, la plupart du temps interprétées comme 0 ou 1. Les autres unités de mesure ne correspondent qu'à des regroupements de bits.
  • Octet - Le terme octet désigne un regroupement de 8 chiffres binaires (ou de 8 bits). Il peut prendre 28, soit 256, valeurs possibles.