CIDE (2013) Vaucelle

De CIDE

Normes et standards au cœur de la mondialisation : un moteur de l'évolution et de l'innovation du document électronique


 
 


 
Titre
Normes et standards au cœur de la mondialisation : un moteur de l'évolution et de l'innovation du document électronique
Titre (anglais) 
Standards and standardization processes at the heart of globalization: the driving force of innovation of the electronic document
Auteurs
Alain Vaucelle, Jean-Michel Borde, Henri Hudrisier,
Affiliation
Mines Télécom, Télécom SudParis, Département ARTEMIS, Evry Maison des Sciences de l’Homme Paris Nord, Université Paris-VIII
In
CIDE'16 (Lille 2013)
En ligne
http://www.alain-vaucelle.fr/wp/wp-content/uploads/2013/06/CIDE16_07-09-2013_final.pdf
Résumé
La normalisation, et différemment la standardisation, détermine fondamentalement le document électronique, voire concoure à son évolution. Le numérique est fondamentalement une industrie du code. Cette industrie du code repose sur la complémentarité et la synergie de trois grandes instances de normalisation (ISO, IEC, UIT). De ces instances qui sont détaillées et rapportées aux hypothèses d'attraction globalisante et évolutive du document électronique, des lignes de force, se dessinent. Au-delà de ce cadre institutionnel international et national de la normalisation, producteur et éditeur de règles, le document électronique est aussi dépendant de communauté d’acteurs qui concourent au développement du numérique. Ces réflexions nous permettent au delà des orientations réactives voire anticipatrices des marchés de nous donner des indications relatives aux mécanismes de décisions en jeu.
Mots-clés
normes, ISO, globalisation, normalisation, standard.


Alain VAUCELLE (1), Jean-Michel BORDE (2), Henri HUDRISIER (3) (1) , , Université Paris 8, Saint-Denis a.vaucelle@w7com.fr

(2) Digital Visuel, jean-michel.borde@sio.ecp.fr

(3) Paragraphe, Université Paris8, ITEN (Innovation Transmission, Edition Numériques) Fondation Maison des Sciences de l’Homme henri.hudrisier@wanadoo.fr


Résumé. Mots-clés.


Abstract. Standards and the standardisation processes are crucial determining factors for the electronic document and its development. Digitalisation is basically a code-based industry. The latter relies on the complementary and synergical elements of three major, international standardisation references (ISO, IEC, UIT). From these detailed references, which are then related to hypotheses concerning the holistic and evolving attraction of the electronic document, dynamic pointers are emerging. Beyond the international and national institution framework organisation concerning standardisation, creator and decider of rules, the electronic document also relies on a whole body of actors who contribute to the development of digitalisation. Over and above reactive, even anticipatory market tendancy, such Revue d’Interaction Homme-Machine Vol 2 schools of thought give us leads on how the decision-making happens. Keywords. Standard, ISO, globalization, standardization.


Introduction

Nous proposons ici d’apprécier les normes et les standards en tant que moteurs de l'évolution et de l'innovation du document électronique. Nous pensons que l’impact de ces outils qui dynamisent l’activité économique et sociale, peut être compris selon des principes analogues à ceux de la thermodynamique qui permettent de comprendre la relation entre énergie et mouvement. L’énergie normative créée, satisfait et fait grandir les besoins informationnels et communicationnels : la réflexion normative facilite la définition des concepts innovants, encadre et contrôle leur production, planifie leur évolution et favorise souvent la génération d’usages nouveaux comme de nouveaux habitus individuels, institutionnels, marchands ou industriels.


Pour comprendre cela il est fondamental d’analyser la synergie dialectique, économique et écologique entre standards et normes et vice-versa. Mais il est nécessaire aussi d’étudier la généalogie évolutive du standard vers la norme sans négliger les effets inverses de fécondation des standards par les normes, nous y reviendrons. Pour déployer la métaphore, nous dirions que cette circulation d’origine normative établit une « convection cyclique » génératrice d’une énergie fécondant une gouvernance de la technoculture. Celle-ci nait par raffinage à partir d’un « magma informationnel ». Craqué dans des colonnes de distillation, il se diversifie, se stabilise, permettant l’élaboration d’une infinité d’assemblages dont dérivent des produits et services spécifiques, calibrés, sécurisés et adaptés à des usages précis.


La normalisation nait rapidement du besoin de comparer les performances pour les qualifier et en déceler les meilleures. Elle est aussi vieille que la culture des hominidés, qui ont su acquérir, très tôt, la capacité de sélectionner et de produire les outils nécessaires à leur survie. Au néolithique, l’homo sapiens, voit ses compétences raffinées, puisqu’il pratiquait, avant la lettre, une sélection « génétique », une domestication (en fait une standardisation des variétés d’espèces végétales et animales) qui a permis à ces civilisations préhistoriques, puis antiques, de produire des qualités standards de produits de base (graines, viandes, huile, vin…) mais aussi des poteries, des outils, des véhicules, des armes, et encore des services spécialisés (construction, défense, santé, gouvernance, divination ou prêtrise, arts, écriture, calcul et change…). En fait, c’est une véritable économie de l’échange banalisée et donc institutionnalisée, qui, rendant relativement prévisible sa gouvernance, en permet l’écriture de règles correspondant à la mise en place des premières cités États. Mécanismes sur lesquels s’appuieront les principes administratifs de gestion de nos États.

Dans cet article, nous reviendrons donc aux origines des strates normatives successives et de leur architecture afin de mieux interpréter la généalogie du standard vers la norme. Nous expliquerons comment ces processus normatifs s’élaborent et s’interfacent avec les enjeux sociétaux contemporains.


Des origines

Très tôt la communication de l’homo sapiens (parole, calcul avec l’utilisation de bulles-enveloppes puis plus tardivement l’écriture) s’est aussi particulièrement « sophistiquée » par des filtrations accidentelles et normatives successives (Derrida, 1967). L’arbitraire du code linguistique est soumis à une convection dynamique des langues entre mutabilité et immutabilité (Saussure, 1995) : elles évoluent en se perfectionnant, voire en se métissant (mutabilité) ; mais, de façon paradoxale, elles fonctionnent, elles permettent que s’échange le sens précisément parce que toutes les langues établissent un arbitraire du signe (une norme du signifiant) partagé entre tous les locuteurs, répondant en cela à la règle d’immutabilité. Les langues humaines s’organisent toutes selon une « articulation au moins double » du langage (Martinet, 2008) : les différentes syllabes s’articulent entre elles pour former des quantités exponentielles de possibilités phonétiques pour coder un lexique toujours plus vaste au fil du progrès civilisationnel. Les différents types de mots s’articulent eux-mêmes dans la dimension syntagmatique de la phrase. Le langage constitue alors, non seulement une capacité à communiquer de façon sophistiquée universellement partagée par l’espèce humaine, mais aussi un cadre normatif formel naturel, qui se transmet et s’acquiert sans grand effort apparent, au sein d’une « réalité devenue sociale » comme le souligne Searle (Searle, 1972).

Dès que naissent les langages formels informatiques au milieu du 20ème siècle ils se construisent en reprenant à leur compte les mêmes principes normatifs fondamentaux : (A) mutabilité dans l’immutabilité, au cœur des évolutions et des versions successives d’un logiciel se perfectionnant dans le temps, (B) articulation du code numérique de base, qui n’est pas bien sûr une norme « trivialement binaire » (i.e. pouvant au maximum signifier oui ou non), mais qui constitue au plus près du langage machine, une combinatoire alphanumérique avec 256 possibilités de codage (le bit articulé sur l’octet[1]). Il ne s’agit là que du premier niveau d’assemblage des langages formels, qui s’articulent ensuite eux aussi dans la dimension syntaxique, ouvrant à des potentiels de signification aussi efficaces (sinon aussi subtils que les langages naturels).

Revenant sur des facettes de l’histoire des normes, on peut dire que la cité antique est génératrice de centaines de standards, qui nous paraissent aujourd’hui rustiques, alors qu’elles sont à l’origine même de normes actuelles : écartement des roues des chars, qu’on dit à l’origine des largeurs de voies ferrées, formats des tamis permettant de fabriquer des papiers, standards des vases, amphores et mesures de capacités, nombreux standards d’architectures et d’urbanismes, des plans standards des villes, des grands équipements (aqueducs, théâtres, forums, etc..), mais aussi les trois grands ordres stylistiques (ionien, dorique et corinthien)(Vitruve, 0090?-0020? av. J.-C.).

Considérant le champ de la communication, mais en restant sur celui de l’architecture, on observe aussi que les techniques de gravure lapidaire entrainent dès l’Antiquité une standardisation des lettres, qu’impose la qualité de finition des traits. Le tracé au burin n’acquiert une perfection de finition qu’en le terminant aux deux extrémités avec des « empâtements ». C’est ainsi que se définissent (que se standardisent), dès l’ère romaine, les capitales Antiques ou Romaines (réactivées avec l’imprimerie de la Renaissance[2]), qui conditionnent encore aujourd’hui nos polices de caractères standardisées, dans le monde entier.

Poursuivant, ce sont les lettres manuscrites qui se normalisent dès la période carolingienne. L’invention de la « minuscule caroline », sous Charlemagne, a permis une unification de l’écriture et le développement des scriptoria (les ateliers de copistes). La copie et la circulation des textes sacrés et profanes étaient donc assurées (c’est à Alcuin que Charlemagne avait confié le développement de ces scriptoria).

À l’époque contemporaine, l’histoire de la normalisation de la technologie de la communication est riche et foisonnante. La photographie, le télégraphe, le phonographe, le cinéma, la TSF, la télévision, les calculateurs puis les ordinateurs, tous ces outils, tous ces supports, tous ces réseaux, exigent pour fonctionner une prévisibilité des résultats, de la qualité, une diversité signifiante donc normée des états possibles des supports d’information (grains photographiques, ondes hertziennes, état discret du morse ou des calculateurs, variation des sillons phonographiques), une organisation conventionnelle et partagée des formats par rapport aux terminaux et réseaux.

Au cœur d’une civilisation industrielle, la normalisation électrique et informationnelle est devenue superlative. L’électricité (qui servira de plus en plus de support médiateur à l’information est immédiatement soumise à la normalisation pour des raisons évidentes de contrôle de la sureté (un des moteurs, principes de la normalisation). Les autres origines de la normalisation sont multiples : partage mondial des composants semi-finis, partage des fréquences, interchangeabilité des formats, plateformes et réseaux, définition sémantique partagée d’état de support ou de flux informationnels. C’est cette activité maintenant vieille de plus d’un siècle et demi qui constitue on le comprend, un des piliers fondamentaux du développement des TIC. Elle a certes changé de nature avec la généralisation du numérique mais le métier normatif n’a pas changé.

Du standard à la norme et vice versa

Le parcours dans l’histoire des normes et standards conduit à étudier plus en détail la généalogie évolutive du standard vers la norme, et vice versa. Cette distinction, négligée, entre standard et norme n’est pas anecdotique.

Le champ institutionnel officiel de cette concertation normative repose sur trois instances internationales majeures, que sont l'ISO (Organisation internationale de normalisation), l'IEC (Commission électrotechnique internationale) et l'UIT (Union internationale des télécommunications). Ces trois agences, produisent et diffusent les normes officielles en concertation et collaboration croisée locale avec des instances nationales (AFNOR, DIN, ANSI, BSI, KATS…) ou régionales (CEN).

Le champ de standardisation lui est beaucoup plus diffus et informel, il se scinde en deux sous-ensembles :

(A) les standards collégiaux, qui correspondent de fait à cette idée d’urbaniser les échanges communicationnels avec a priori une philosophie de « biens communs » partagés par le plus grand nombre, des disciplines, ou des métiers spécifiques, (c’est le cas du W3C, d’Unicode, de la TEI[3], des standards de l’IEEE)

(B) Les standards industriels qui correspondent eux à une approche pragmatiquement commerciale, donc plus opératoire puisque dans le secret d’une entreprise se développent des processus de fabrication, de reproductibilité, d’interopérabilité et de stabilité évolutive dans le temps et l’espace. C’est le cas des


standards bureautiques Microsoft, du CD Sony Philips, du standard PDF créé par Adobe qui a réussi à se faire officialiser comme norme.

(C) La forme hybride de l’application normative encapsulée au sein d’un produit, avec ou sans revendication de conformité. Ce qui est globalement le cas le plus fréquent.

Il faut noter que si nous avons deux mots pour trois concepts en français et dans la plupart des langues latines, les anglophones n’utilisent que le mot standard (même s’ils connaissent le mot « norm » pour d’autres usages).

Au sens des trois concepts ci-dessus définis, le standard du producteur (ou de l’inventeur) vient d’abord et amorce le cycle. Une innovation est tout d’abord singulière, « bricolée » dans un laboratoire. Elle se développe parce qu’il faut définir des process normatifs pour que le produit ou le service s’insère dans une chaîne de production et d’utilisation. Dans un marché comme celui des TIC où s’échange une sémantique des documents et où doivent s’accorder des formats, des plateformes et des réseaux, la seule garantie d’une entreprise unique se révèle souvent insuffisante. La collégialité du cortège de nombreux logos s’est imposée depuis une vingtaine d’année comme l’apparence d’un suffrage, tendant à supplanter la revendication unique.

Les industriels et les utilisateurs visent le même objectif : « labéliser le processus normatif » à un niveau supérieur : celui d’un consortium (inter industriel et/ou académique ou professionnel : Unicode, W3C, TEI, EAD, IEEE…). C’est le niveau des standards collégiaux. Le niveau intra industriel protégeait des secrets de fabrication, l’étage collégial favorise la recherche-développement inter industriel, élargie exponentiellement les marchés, augmente considérablement la confiance des utilisateurs et surtout développe la capacité d’associativité d’éléments par modularité, ce qui permet de complexifier à l’envie de très vaste ensembles communicationnels et d’exploiter pleinement les potentiels de la convergence.

Au niveau encore supérieur de la distillation normative, les industriels et les utilisateurs, demandent (ou se voient imposer) la garantie régalienne nationale, régionale (CEN) ou mieux la garantie onusienne. L’arbitrage peut-être si complexe qu’il faut ainsi recourir aux instances officielles de normalisation ci-dessus citées. Les États peuvent aussi vouloir assurer la sécurité, contrôler la qualité ou l’intercompatibilité de leurs propres besoins en TIC, protéger un monopole national ou à l’inverse s’en affranchir.

Dès ce niveau ascendant, on perçoit de nombreux avantages en termes de marché, de croissance, d’innovation. Le courant de convection descendant c’est celui de la fécondation des standards (et donc des producteurs, voire des utilisateurs) par les normes. À chaque montée d’étage des standards vers les normes la définition du processus normatif est moins dépendante d’un contexte matériel concret de production et plus abstrait. L’entreprise maitrise matériellement la production de produit et de service qui sont matériellement labellisés. Les instances de normalisation ne labellisent qu’un processus défini dans un document. Il appartient donc aux producteurs (qui sont souvent des utilisateurs-producteurs) de « surfer » sur le courant de convection descendant et de savoir (le plus rapidement possible pour être concurrentiel) fabriquer des produits et services correspondant à des normes émergeantes, en concrétisant le process, en l’instanciant matériellement pour s’accorder aux standards de confiance de leur marque particulière. Ce sont ces productions matérielles labellisées par des marques qui seront effectivement « labellisées de surcroit » puisque conforme à des normes nationales ou internationales. Ainsi se boucle un cycle vertueux particulièrement remarquable dans les TIC. Il est en grande partie à l’origine de la loi de Moore. Il a largement favorisé la globalisation mondiale des réseaux, la convergence des médias, le développement inouï de la traductique, de la documentation, de l’e-sémantique.

On se rend compte qu’une dialectique standardisation, versus normalisation, concerne tous les domaines de la techno-culture et, de façon assez similaire, correspond à toutes les époques historiques. L’État impose l’exigence publique dès lors que la sécurité des citoyens est en cause (normaliser des matériaux ou une organisation urbanistique pour éviter qu’ils ne s’écroulent ou entravent la circulation ou la défense). C’est au tournant de 1900 que se fondent les grandes instances de normalisation mais leur principe existait déjà bien avant avec les « corporations médiévales » et les privilèges du roi accordés d’abord aux imprimeurs.

L’articulation multiple des normes et leur potentiel de réponse à la spécificité du singulier

Il est important d’analyser une autre facette de la distillation normative dans le champ des TIC : celui de l’articulation non seulement double mais plurielle des normes et de leur potentiel de réponse à la spécificité du singulier. Le grand public, et même le public instruit, qui découvre les normes les considère trop souvent comme une contrainte uniformisante et n’envisagent jamais qu’elles pourraient être une réponse à la spécificité du singulier. Pourtant dès l’origine la norme répond à cet impératif. La norme doit, en consensus, devenir un compromis gagnant-gagnant entre le plus petit commun multiple et le plus grand commun diviseur. C’est pour cela que la production des normes est lente et s’apparente à un processus de distillation. Un des meilleurs exemples en la matière est celui de la norme ISO/IEC 10646 (dérivée de la contribution du standard collégial Unicode). Elle s’est construite en partant du principe qu’elle devait pouvoir répondre non seulement aux besoins en caractères des grandes écritures modernes mais aussi aux exigences des écritures les plus rares et les plus anciennes du monde. Pour réussir cela, elle empile de multiples niveaux de processus normalisés, répondant à des fonctionnalités nombreuses et complexes. Elle est en cela beaucoup plus sophistiquée, plus structurée que sa sœur ainée ISO/IEC 646, plus connue sous le nom d’ASCII, qui ne pouvait répondre qu’aux seules exigences de l’écriture latine non accentuée. Cependant l’histoire du codage de l’information est liée au développement évolutif des normes

Ce processus de réponse à la spécificité du singulier est au cœur du débat par consensus et du respect des diversités notamment professionnelles, culturelles, territoriales, linguistiques, économiques… Ce débat se règle certes par des votes « une voix par pays », mais aussi par la consultation des « liaisons[4] », par le sérieux d’écoute des points de vue singuliers et contradictoires des différents experts, mais encore par des enquêtes auprès des utilisateurs réalisées par les instances nationales. Cette distillation patiente, d’environ trois ans entre le projet et la publication d’une norme, s’effectue avec des procédures électives inspirées de la période la plus créatrice et intéressante du saint-simonisme (Musso, 1998, 2006). Chaque vote négatif d’un pays doit être obligatoirement argumenté par des commentaires écrits assortis de contre-propositions, qui sont examinées une à une par l’assemblée des experts du groupe de travail concerné. Ce filtrage effectif, détaillé et


multidimensionnel forge solidement la présentation finale d’une norme en emprisonnant le consensus de ses contributeurs dans ses pages. Chaque norme subit encore plusieurs étages de filtrage administrativement efficaces : celui du Secrétariat d’un Comité de norme en question (responsable principal de sa qualité). Celui de la stratégie générale de développement, assumée par son Président. Celui des instances normatives de plus haut niveau hiérarchique (par exemple le JTC1, pour tous ses sous-comités). Celui enfin de l’ISO, de l’IEC et /ou de l’UIT.

La normalisation, et dans une mesure différente la standardisation, déterminent fondamentalement le document électronique, et concoure à son évolution. Nativement, l'électronique analogique s'est construite sur une standardisation des messages et des supports. Le numérique est fondamentalement une industrie du code, qui exige lui, comme dirait Saussure « une norme arbitraire du signifiant » indispensable pour qu'il y ait information et, par-là, communication. L’histoire de l’audiovisuel et de ses standards, ses évolutions analogiques et le passage au tout numérique dessine une impérative évolutivité et des révolutions par mutation du système technique.

Cette mutation a des effets jusqu'ici inédits de convergence intermédia, d'intégration de service (i.e. rendre la vente ou location, la rétribution des auteurs, l'acheminement de l'œuvre ou de fragments de façon quasi instantanée), mais aussi des effets sur « l'intelligence » des œuvres et surtout des archives ce qui était totalement impensable jusqu'ici. La mise à disposition pour le grand public de moyens de production et de postproduction, plus performants et plus facile d'usage et à moindre coût conforte cette mutation. Le document électronique évolue dans une dynamique de convergence multimédia, de globalisation planétaire et de multilinguisme absolument inédits. Toutes ces évolutions, sans exception, n'existent que parce que des « métiers et filières », autrefois distincts de l'électronique ont su surmonter les freins de leurs propres standards, historiques et spécifiques, pour planifier, voire urbaniser, le cadre de développement prospectif de l'ensemble des réseaux, des plateformes et des documents.

Chaque métier (image fixe, image mobile, télécommunication, informatique, monétique) connaissait ses propres exigences normatives mais pour développer sur une large échelle le multimédia, ils ont préféré recourir à des instances externes et de haut niveau (ISO, IEC et UIT). L’ISO et l’IEC ont créé en 1987 une instance transversale le JTC1 qui permet précisément d’améliorer les synergies, de favoriser les rencontres entre experts normalisateurs des composants électroniques (IEC) et ceux des logiciels et process (ISO), qui normalisait historiquement la documentation (ISO TC 46), la terminologie et les ressources linguistiques (ISO TC 37). Cette nouvelle instance le JTC1[5] est devenue le lieu de percolation de la plus grande partie des champs d’innovations des TIC numériques[6].

L'ISO publie le « top ten » du résultat des ventes de ses documents techniques. Ces données sont vues comme des indicateurs des tendances non seulement industrielles mais aussi commerciales et marketing. Dans les années 2000, les normes relatives aux outils du commerce (conteneur, étiquette, l'identification, le transport) étaient les plus prisées. La décennie 2010 est marquée par d'autres orientations relatives à l'organisation des marchés, la préservation de leurs équilibres, et de leur santé environnementale et morale.

À l’horizon 2020, peut-être serons-nous dans une normalisation relative aux technologies de médiation, qui consisteront à passer d’une logique de traitement de masse de l’information, à une logique informationnelle, de un vers un (une information à la bonne personne au moment opportun). Cette médiation est préfigurée par le rôle des agents et des robots. Un standard comme la TEI (et depuis peu la MEI) préfigure précisément toute une génération de standards de la médiation…

Conclusion

Ces réflexions nous donnent des indications relatives aux mécanismes de décisions en jeu et permettent de s'interroger sur la gouvernance en général et sur son évolution. La complémentarité et la synergie des trois instances (ISO, IEC, UIT) ne sont pas suffisantes pour établir des consensus. Il est aussi nécessaire, que des chercheurs, des industriels et, in fine, des utilisateurs, s'approprient ces paradigmes normatifs, développent puis consomment ces nouveaux produits et services numériques. Cependant, la planification normative numérique conditionne aussi l'économie de l'ensemble de la filière : on démontrerait que la loi de Moore en est largement la conséquence, de même que la stabilité temporelle et l'universalité mondiale des marchés du numérique. L'actuelle évidence techno-culturelle du numérique, que la doxa conçoit comme étant, par nature, interopérable, exhaustivement multimédia, capable de fonctionner dans tous les environnements linguistiques, dans l'immédiateté nomadique, capable de s'adapter aux handicaps sensoriels, illustre comment nous sommes devenus dépendant d'un cadre de gouvernance normative. Celui-ci, devenant, au fil du temps plus vaste, plus efficace, plus durable, nous l'avons assimilé comme consubstantiel à l'existence même du numérique. Il n'en était nullement ainsi il y seulement une dizaine d'années.

Au-delà de ces premières facettes d'évolution du document numérique grâce aux normes nous pouvons aborder de façon plus consensuelles (moins strictement dépendante des seuls choix industriels) d'autres aspects non moins fondamentaux : la sécurité, la confidentialité, la qualité, la rapidité, la miniaturisation qui impactent la dépendance énergétique de nos sociétés industrielles.

Nous observons aussi comment grâce aux normes se renégocient les fondamentaux de l'hypertexte : on peut même prétendre que les processus de développement des normes jalonnent la progression vers la « libération » des contenus, au service des idées. Mais l’histoire récente de la normalisation nous montre des changements importants tant dans le temps que dans l’espace. Les années 80, correspondaient à celles de l’ambition normative des TIC (qui ont vu la création du JTC1, de MPEG, d’Unicode) qui s’inscrivaient dans la traine des 30 glorieuses et sur le territoire Atlantique auquel s’associait le Japon.


À présent, l’initiative se redistribue avec deux nouveaux contributeurs de poids (la Chine et la Corée). Les pays émergeants sont encore largement absents mais de très nombreuses instances normatives normalisent les règles de production de produits et services en tenant compte de leurs spécificités supposées ou réelles. Aujourd'hui la circulation des idées est favorisée par les outils d'interopérabilité. Les canaux de transmission sont banalisés mais ce qui circule est infiniment différencié.

Nous nous garderons de développer des hypothèses naïves ou angéliques. Les normes et standards n'émergent en consensus qu'au terme de débats, sanctionnés par des votes, qui n'empêchent pas les combats sans merci des plus forts contre les plus faibles, des plus actifs contre les inactifs. Cette évidence s'inscrit dans la logique de fonctionnement de tout processus d'évolution, fut-il celui du document numérique.


Références

[J Derrida (1967)] "De la grammatologie. Éditions de minuit, Paris."

[A Martinez (2008)] "Éléments de linguistique générale. Éditions A. Colin, Paris."

[P Musso (2006)] "La religion du monde industriel, analyse de la pensée de Saint-Simon. Éditions de l'Aube, La Tour d'Aigues."

[P Musso (1998)] "Télécommunications et philosophie des réseaux. PUF, collection Politique éclatée, 2è édition, Paris."

[J Rifkin (2012)] "La troisième révolution industrielle. Comment le pouvoir latéral va transformer l'énergie, l'économie et le monde. Éditions Les Liens qui libèrent, Paris."

[F Saussure (1995)] "Cours de linguistique générale. Éditions critique établie par T. de Mauro, éditions Payot, Paris."

[J Searle (1972)] "Les Actes de langage. Éditions Hermann, rééd. 2009, Paris."

[Vitruve (-90?-20? av.J.C.)] "Les 10 livres d’architecture. Traduit et commentés par Claude Perrault, édition Jean-Baptiste Coignard, 1673, Paris, rééd. Fac-similé Bibliothèque de l’Image, 1995, Paris."

Notes et références

  1. Aujourd’hui, nous en sommes à une combinatoire à plusieurs milliards de potentiel de codage sur 32 bits, à la base d’Unicode.
  2. Pour graver un « poinçon d’imprimeur » capable de générer des moules pour caractères de plomb, les premiers imprimeurs (en fait des professionnels de l’orfèvrerie) ont bien sûr été confronté aux mêmes contraintes du contrôle de qualité et d’uniformité du processus de gravure que les graveurs d’inscription lapidaire antique. Ils ont donc repris le même cadre normatif.
  3. Text Encoding Initiativ, l’EAD (Encoded Archival Description) et maintenant la MEI (Music Encoding Initiativ) s’en sont inspirés.
  4. Les liaisons sont une composante importante du débat des experts : elles sont soit internes et techniques (notamment les autres comités normatifs) ou encore externes, ce qui permet de prendre en compte des institutions contributrices de normes par exemple l’Agence Universitaire de la Francophonie ou encore l’Alliance Cartago.
  5. Il existe depuis peu le JTC2 qui s’intéresse à la normalisation dans le domaine de l'efficacité énergétique et énergies renouvelables, un nouveau domaine d’avenir dont on sait que son efficacité sera notamment largement dépendante de l’intelligence des réseaux électriques, de la domotique des utilisateurs. On peut lire notamment : Jeremy Rifkin (Rifkin, 2012).
  6. La liste des sous comités du JTC1 parle d’elle même : SC2 : Jeux de caractères codés ; SC6 Téléinformatique ; SC7 Ingénierie du logiciel et des systèmes ; SC17 Identification des cartes et des personnes ; SC22 Langages de programmation ; SC23 Supports numériques d’échange et stockage d'information ; SC24 Infographie, traitement de l'image et géomatique; SC25 Interconnexion des appareils de traitement de l'information ; SC27 Techniques de sécurité des TIC ; SC28 Équipements de bureau ; SC29 Codage du son, de l'image, de l'information multimédia et hypermédia ; SC31 Techniques d'identification et de captage automatiques des données ; SC32 Gestion et échange de données ; SC34 Description des documents et langages de traitement ; SC35 Interfaces utilisateur ; SC36 Technologies pour l'éducation, la formation et l'apprentissage ; SC37 Biométrie ; SC38 Plate-formes et services d'applications distribuées ; SC 39 Développement durable au service et au moyen des TIC.