La fabrique des normes des TIC : attracteur de convergence des technologies et des cultures

Mokhtar Ben Henda, Henri Hudrisier

Nous proposons de penser les normes et les standards du numérique en nous focalisant sur leur fabrication et leur appropriation dans la réalité sociale de la technoculture. Philosophiquement les normes du numérique sont une des meilleures réponses possibles à l’enjeu pointé par Simondon de savoir penser voire maîtriser dans « l’être technique » la partie d’humanité qui a permis sa découverte, son développement puis son appropriation sociale. Ainsi toutes les instances officielles de normalisation ont été fondées avec pour objectif princeps d’harmoniser l’industrialisation des produits, des flux ou des réseaux. La réussite de l’interopérabilité et de l’adaptabilité des réseaux conditionne la prospérité de l’ensemble des acteurs de ces filières dans le monde. Ce sont des normes qui ont été à même de proposer et de réussir ce qui était considéré il y a trente ou quarante ans comme une utopie inatteignable. Dépassant des normes d’abord destinées à répondre aux seuls enjeux industriels, se développent d’années en années des normes du numérique destinées à protéger un « commun social et culturel ».

Mokhtar Ben Henda est MCF-HDR à l’Université Bordeaux Montaigne, Laboratoire MICA EA-4426. Henri Hudrisier est ancien MCF-HDR à l’Université Paris-8, laboratoire Paragraphe EA-349. Spécialistes des SIC et des technologies numériques, les deux auteurs sont aussi membres de la chaire Unesco-ITEN FMSH et experts délégués par l’Agence universitaire de la Francophonie (AUF) auprès de l’ISO/CEI JTC1 SC36 pour la normalisation des technologies éducatives. Leur contribution résulte ainsi d’une observation de l’intérieur de structures de la fabrique des normes internationales. Leur intérêt pour les normes s’étend également aux travaux des instances normatives de la documentation (ISO TC46), de la terminologie (ISO TC37), de la codification des caractères (ISO-IEC/JTC1-SC2) et de l’audiovisuel (ISO-IEC/JTC1-SC29).

Impliqués depuis plus de 20 ans dans de débat et la création de normes tant nationales (AFNOR) qu’internationales (ISO) nous faisons l’hypothèse que les normes et les standards sont un des moteurs, mais surtout un principe fondamentaux de la régulation du progrès humain. Cette implication dans les instances normatives de la documentation (ISO TC46), de la terminologie (ISO TC37), de la codification des caractères (ISO-IEC/JTC1-SC2) mais aussi de l’audiovisuel (MPEG7 : ISO-IEC/JTC1-SC29) et de l’e-learning (: ISO-IEC/JTC1-SC36) constitue pour les auteurs une recherche-action nous permettant à la fois d’être acteur de la fabrique des normes dans les secteurs en question, mais aussi le seul moyen d’avoir une approche sociologique de ces métiers, de leurs impact industriels, communicationnels, prospectifs, économiques et éthiques.

Normalisation – standardisation – histoire des techniques – convergence numérique – convergence culturelle

SIC

1 – Gouvernance et co-développement des normes dans la mondialisation
2 – Normes & standards : définitions, approche institutionnelle et historique, état de la fabrique et du débat des normes
3 – L’intrication obligatoire normes/standards des produits et services
4 – Articulation des normes : attracteur de convergence de langues et de cultures
Conclusion : le cycle vertueux standards-normes-standards

1. Gouvernance et co-développement des normes dans la mondialisation

La problématique des standards industriels ou des standards collégiaux est omniprésente dans les travaux de tout groupe de normalisation. Les standards, qu’ils soient industriels, et dans une bien moins grande mesure lorsqu’ils sont collégiaux, préexistent par nature aux normes.

Dans des publications précédentes [1], nous avons décrit cela comme un mouvement en forme de courants de convection entre standards et normes. Nombre d’innovations exigent pour survivre, d’être développées hors d’un cadre normatif. Lorsque de trop nombreux standards concurrents incompatibles et non interopérants coexistent, la filière professionnelle concernée est confrontée à l’exigence de définir puis de développer des normes pour rendre vivable le désordre de non compatibilité, de non pérennité, de complexité et d’insécurité des processus. D’autres facteurs exogènes peuvent intervenir : les gains de coût à des niveaux technologiques qui sont rentrés en phase de maturité et pour lesquels les grands majors des TIC ou du numérique préfèrent coopérer pour mieux se concurrencer sur des domaines plus prospectifs. À ce stade, la participation à des instances de normalisation est un excellent lieu d’observation prospective à moyen et long terme.

Pour ce qui est des enjeux géostratégiques, interculturels, interlinguistiques des relations Nord/Sud entre les instances de normalisation nationales et/ou internationales, ce sont des problématiques sur lesquelles nous nous sommes aussi penchés dans des publications antérieures [2], [3] et nous souhaitons effectivement développer ici leurs risques et opportunités.

Soulignons aussi qu’un pan important des enjeux du numérique mondialisé est standardisé de façon à la fois collégiale mais aussi souvent non transparente par l’ICANN [4], l’IETF [5], l’ISOC [6] et bien sûr le W3C [7] pour les questions spécifiques au Web.

Ces instances ne sont pas rattachées à l’UIT (Union Internationale des Télécommunications) à laquelle elles auraient logiquement dû appartenir, mais c’est bien une volonté pour pouvoir exploiter la liaison point à point ou locale des ordinateurs pour générer un réseau indépendant de la téléphonie classique telle qu’elle était négociée par l’UIT entre tous les « États du monde ». Ainsi s’est amorcé l’Internet associant désormais une stratégie du secret et du renseignement à la disposition, d’abord d’une main mise d’instance ultime du Pentagone, mais laissant par ailleurs prospérer une co-gouvernance scientifique et industrielle mondiale. Ceci a laissé libre court à une fantastique capacité d’innovation des chercheurs informaticiens d’abord, mais aussi de fait, à une indéniable capacité de malveillance, de non droit et de non contrôle, restant in fine, sous surveillance ultime de l’US Army. Cette question mérite réflexion. C’est d’ailleurs la raison qui a présidé à l’ouverture d’un débat intergouvernemental conduisant au SMSI à Genève en 2003 puis à Tunis en 2005. On peut ainsi conclure que, mis à part des consensus à la marge, l’UIT (donc l’ONU et l’assemblée des États) a définitivement perdu toute capacité de contrôle normatif sur l’Internet.

En regard de cet immense « trou noir » que constitue la standardisation des « Recommandations de l’Internet » — techniquement hyper-efficaces mais problématiques au niveau des relations de gouvernance internationale — les autres « standards collégiaux » concernant les archives (OIAS [8]), la documentation (EAD [9]), la recherche littéraire (TEI [10]) et la codification des caractères (Unicode), sont bien loin de poser des problèmes de gouvernance technique internationale de même ampleur. Il y a là sans doute un bien-fondé à ouvrir une controverse sur le différentiel de légitimité entre les différents statuts des normes et standards et leur effet sur la régulation des progrès du numérique et ses conséquences sur le progrès humain [11].

Pour développer ces points, nous commençons par poser l’hypothèse que les normes et les standards sont l’un des moteurs, mais surtout un principe fondamental de la convergence aussi bien des technologies que des cultures dans un monde de plus en plus connecté. Cependant, afin d’analyser de façon cohérente et objective cette hypothèse, il est fondamental de commencer par cadrer sémantiquement et structurellement le champ notionnel de normes et des standards.

2. Normes & standards : définitions, approche institutionnelle et historique, état de la fabrique et du débat des normes

Dans le monde des normes, connu par la rigueur de ses procédures, il y a, en effet, plusieurs niveaux de vocabulaire qui sont malheureusement trop souvent confondus et dont l’usage aléatoire est trop souvent source de confusion et d’ambiguïté.

Les normes ou standards ne sont en fait que des recommandations ou des injonctions listées, formalisées, finalisées dans une sorte de cahier des charges pour la fabrication de produits ou la réalisation de services (voire d’activités non obligatoirement marchandes). Pour les normes stricto sensu et les standards collégiaux, le statut éditorial de ces normes ou recommandations est évident et par définition ouvert à tous (ou à une large communauté d’acteurs du consortium). Ces textes (puisqu’en définitive il ne s’agit que de textes) sont quelquefois gratuits mais le plus souvent payants, ce qui constitue en soi un frein indéniable au libre accès de tous aux enjeux technologiques que ces normes essaient de réguler. Pour ce qui est du numérique, cela représente en nombre de pages, mais aussi en nombre de comités de normalisation, une proportion considérable de l’ensemble des normes éditées.

Les produits en conformité totale ou partielle avec une ou plusieurs normes sont trop souvent confondus avec les recommandations collégiales. On désignera le produit sous le nom de la norme qui a servi à la produire (par exemple : une vidéo en MPEG, une édition sur USB), ce qui constitue d’évidence un abus de langage que l’on peut constater même dans des publications scientifiques. En revanche, utilisé comme qualificatif, l’usage du nom de la norme est parfaitement correct. Par contre (et ceci peut expliquer cela), pour un standard industriel gardant secret la rédaction du processus de standardisation, la confusion est légitime : le standard se concrétise dans le produit intégrant ses caractéristiques internes de compatibilité, de qualité, de pérennité.

Le niveau de confusion peut être triple. L’utilisateur lambda des technologies ne distingue pas non plus le nom des normes du nom des comités, sous-comités ou groupes de travail qui permettent aux acteurs de la normalisation (ou de la standardisation) de se réunir formellement pour « produire » les normes stricto sensu ou les standards collégiaux.

Attachons-nous à approfondir ces points : pour ce qui est de la distinction entre normes stricto sensu et standards, soulignons que les anglophones n’ont qu’un seul mot pour ces deux concepts. La distinction entre les deux concepts se clarifie néanmoins de plus en plus parce que, du fait que les technologies sont d’année en année plus complexes mais surtout plus interconnectées et interdépendantes, les utilisateurs de base comprennent (souvent à leur dépens) que la seule garantie d’un « standard industriel propriétaire » les protège beaucoup moins qu’un label de totale conformité à des normes officielles (relayé notamment par une instance territoriale ou globale : AFNOR, CEN, ISO). Ces utilisateurs prennent aussi progressivement conscience que les instances de normalisation dont, la seule finalité productive est l’édition de normes sous format imprimé ou numérique, ont valeur pour eux d’arbitre et de conseil.

Soulignons encore que les standards industriels se différencient des normes en ce que la formalisation conceptuelle de ces recommandations est étroitement intégrée au processus de fabrication d’un produit ou service. Le standard industriel constitue souvent un « secret de fabrication » et le standard industriel a pour seul objectif de répondre aux exigences d’interopérabilité ou de compatibilité par rapport à une famille de produits ou services internes ou partenaires de l’entreprise.

Rappelons aussi que les règles de production standardisée d’un produit ou d’un service dans une entreprise sont fondamentales pour assurer la qualité, l’interopérabilité au minimum avec les productions de la même firme ainsi que la sécurité de production et d’usage. Or, même si ces règles peuvent être exactement rédigées et diffusées à l’intérieur de l’entreprise (voire de ses fournisseurs ou sous-traitant), elles n’ont aucune raison d’être publiquement diffusées. C’est ce qui distingue fondamentalement les standards industriels des normes.

Les normes, au contraire, ont pour vocation et finalité d’être éditées par les instances officielles de normalisation, qu’elles soient nationales, régionales ou internationales. Les standards collégiaux, eux, sont en position intermédiaire. Les consortiums qui les constituent sont par définition ouverts à la discussion pour proposer, développer et finaliser des recommandations (ou guidelines). Ce qui les différencie des normes stricto sensu, c’est le rapport étroit à la réalisation de ce qui est « recommandé ».

Le domaine numérique des standards collégiaux ou de consortium est très divers : les archives (OAIS), l’encodage des ressources textuelles (TEI), les TICE (SCORM, recommandations de l’AICC), etc. Cela concerne souvent un segment d’activité qui cherche à tirer des bénéfices rapides de ses propres recommandations normatives. On pourrait définir cela comme une forme de « corporatisme numérique ». C’est notamment le cas de tout ce qui concerne les recommandations des instances de l’Internet. Elles couvrent un vaste espace de l’univers technologique numérique mais qui, par certains aspects de ces recommandations de l’Internet, procèdent d’un débat ouvert et collaboratif quoique limité à l’entre soi des chercheurs et professionnels du numérique et des réseaux [12]. Par ailleurs, elles reposent aussi sur ce que nous avons qualifié plus haut de façon un peu polémique comme s’apparentant à un « squat de l’US army ».

Une autre question caractérise aussi la différence entre normes et standards collégiaux. Il s’agit du rapport au temps qui est beaucoup plus formalisé en ce qui concerne les normes stricto sensu. L’adoption définitive d’une norme internationale est en général de trois ans. Une fois éditée, sa stabilité est assurée dans la mesure où la pérennisation est un des objectifs permettant précisément la baisse des coûts. L’exemple le plus probant est celui de la normalisation des composants électroniques dont on peut affirmer qu’ils sont une des causes princeps de la loi de Moore. La normalisation du numérique rejoint en cela les causes historiques de la normalisation industrielle au XIXe siècle : le machinisme se caractérisant par un recours très systématique aux produits semi-finis : par exemple des poutrelles métalliques mais aussi des composants électriques qu’il fallait absolument normaliser pour s’assurer de leurs formes et dimensionnements, de leurs qualités de résistance, de durabilité, de sécurité. Les normes JPEG et MPEG [13] sont un autre exemple qui a le mérite de mettre en évidence la sophistication normative de la compression de l’image puis de son traitement, (diffusion, analyse, etc.). Elles ont été et restent depuis plus de trente ans aux fondements de la filière mondiale de l’audiovisuel et du multimédia numérique. L’évolution depuis 1988 de cette famille de normes a permis que s’installe pour l’audiovisuel et le multimédia une stabilité, une interopérabilité et une pérennité du marché qui ont entraîné une baisse des coûts des composants permettant à la télévision numérique, et dans son sillage nombre de technologies numériques, de se systématiser dans un contexte de baisse drastique des coûts et d’explosion fantastiques des applications.

3. L’intrication obligatoire normes/standards des produits et services

Sauf à produire soi-même directement un service ou un produit, l’utilisateur devra recourir à un industriel ou un prestataire de services pour disposer d’un objet ou d’un service normalisé et fiable qui, par ailleurs, sera rationnellement produit selon des standards de production [14] qui intégreront à la fois le cahier des charges normatif interne à l’entreprise et les exigences d’une ou plusieurs norme(s). Il s’agit là en effet d’une tendance d’intégration de composants semi-finis qui avait commencé dès le XIXe siècle mais qui a explosé pour devenir indispensable avec les produits électroniques et actuellement numériques. Aucune entreprise, aussi intégrée verticalement soit-elle, n’est en capacité de produire totalement en interne un ordinateur et l’ensemble de ses suites logicielles. Les composants, les périphériques et nombre de logiciels (des produits semi-finis) sont évidemment fabriqués par une infinité de sous-traitants et en amont de fournisseurs de ces sous-traitants. Tous ces produits semi-finis sont obligatoirement normalisés parce que c’est cela même qui provoque l’effet décrit dans la Loi de Moore.

On comprend aussi, que nous sommes là au cœur même de la dynamique de convergence. Cette dynamique de convergence et d’innovation se démontre facilement si on considère ce que peut être un simple Smartphone. Il n’est possible d’en fabriquer un et de lui donner une originalité fonctionnelle qu’autant que l’industriel a su intelligemment intégrer un « bouquet de composants normalisés » : normes du texte, du son, de l’image (fixe, vidéo ou graphique...), du positionnement, de la téléphonie, auxquelles s’ajoutent des normes (ou des standards collégiaux) concernant l’agenda, le calendrier et autres suites bureautiques adaptées. Rien que ce premier bouquet exige que les divers composants intègrent plusieurs centaines de normes. Il a fallu que cette intégration se fasse de façon attendue : répondre au concept de Smartphone pour être rapidement adoptée par des clients, mais en donnant aussi une originalité fonctionnelle plus ou moins nouvelle.

Ces nouvelles fonctions peuvent résulter de l’association d’un nombre encore considérable de composants normalisés, mais certains composants matériels ou logiciels peuvent avoir été développés en interne (ou par un sous-traitant) et constituer de ce fait un véritable standard non encore normalisé.

Quoiqu’il en soit, l’ensemble de cette mise en forme sur une plate-forme portable et l’adaptation ad hoc de certains composants originaux constituent in fine un Smartphone spécifique d’une marque formellement standardisée dans son processus de fabrication. Cet ensemble devra au minimum être intercompatible avec de multiples réseaux et plateformes pour décharger et mettre à jour son Smartphone sur un ordinateur qui n’est pas obligatoirement de la même marque, pour échanger des adresses, des rendez-vous, etc. Il devra aussi constituer au sein de la marque et auprès de ses partenaires, un produit dont les standards propriétaires offriront de nombreux avantages supplémentaires exclusifs d’intercompatibilité ascendante, de connectique éventuellement spécifique… Bref, il devra constituer une zone d’innovations définies par des standards propriétaires qui peuvent être particulièrement utiles au constructeur parce qu’ils sont souvent le vecteur d’une obsolescence programmée, mais parfois aussi d’une performance et d’une qualité d’interface inégalée par les concurrents.

En fait, l’industriel du numérique qui veut innover de façon très personnelle et aller au-delà des limites de la simple mise en forme d’un bouquet de normes classiques doit bien sûr proposer de façon « propriétaire [15] » des fonctionnalités exclusives mais les encapsuler dans un ensemble intégré qui contraindra l’utilisateur à acheter la connectique et la plateforme spécifique pour profiter de la totalité des fonctionnalités offertes. Pire, si l’industriel a la certitude qu’un noyau de clients lui resteront de toute façon fidèles (c’est le cas d’Apple), il organisera lui-même sa propre concurrence en restant « relativement intercompatible » de génération de produits en génération de produits, mais en programmant l’obsolescence de fait des générations antérieures de produits. Comme cet industriel maîtrise de façon propriétaire les standards qui encapsulent le bouquet des normes intégrées au produit final, il joue de fait sur les deux tableaux : d’une part il s’inscrit dans la dynamique normative qui ouvre sur l’interopérabilité et la pérennité des contenus, et d’autre part, il ferme l’objet matériel par des connectiques et des designs d’interface, voire des logiciels spécifiques qui contraignent l’utilisateur au maximum.

Enfin de compte l’enjeu normatif (dans ses diverses formes et acceptions) est au cœur des transformations techniques, sociétales et culturelles qui modélisent notre société contemporaine. Les normes technologiques n’agissent pas uniquement sur notre environnement matériel marchand et son organisation territoriale ou sur notre conception du vivre ensemble, elles agissent plus profondément sur notre conscience collective, nos facultés empathiques et notre adaptation d’homo-sapiens évolutif, bref sur notre humanité, en jouant dans leur articulation le rôle d’attracteur de convergence de langues et de cultures.

4. Articulation des normes : attracteur de convergence de langues et de cultures

Le principe de la normalisation est un substrat avéré dans l’histoire des sciences et des techniques mais aussi de tous les paradigmes socioculturels et linguistiques de la société humaine. Dans le domaine de la communication et de la linguistique générale, par exemple, ce substrat apparaît fort bien chez Ferdinand De Saussure dans sa théorie de l’arbitraire du signe, selon laquelle on ne communique avec l’autre qu’autant qu’on partage un minimum d’arbitraire de la signification [16]. Pour De Saussure, afin de communiquer de façon sophistiquée et avec un nombre maîtrisable de signes phonétiques ou de caractères d’écriture, toute langue sera obligatoirement passée par une phase de « standardisation linguistique ». André Martinet, lui aussi, traduit ce substrat de standardisation à travers le principe de l’articulation des langages, c’est à dire l’articulation des phonèmes pour créer des mots, l’articulation des lettres alphabétiques pour représenter des phonèmes mais aussi l’articulation de tous les caractères dans des langues idéographiques pour générer des idéogrammes (donc des mots) [17].

Le codage numérique n’échappe pas non plus à une articulation normée pour former les octets qui composent les « mots informatiques » [18]. Au‑delà, la sémantique du numérique s’organise grâce à une articulation exponentielle du code binaire. Nul n’oserait plus aujourd’hui prétendre que c’est binaire, donc que cela correspond à une logique simpliste. Néanmoins, même dans un public cultivé, certains continuent de prétendre que tant que c’est normé, cela correspond à une pensée ou à des produits ou services obligatoirement fabriqués à l’identique. C’est en fait nier la nature même de la plupart des normes (plus particulièrement encore celles du numérique), qui précisément sont en capacité de s’articuler entre elles en de très nombreuses options de codage, en des fonctionnalités complexes enchâssées ou hiérarchiques, comme réponse à des contraintes innombrables : qu’elles soient destinées à préserver des diversités culturelles, linguistiques, liées aux handicaps, à la nature de l’environnement numérique externe, etc.

Sur le plan socioculturel, c’est chez le philosophe Gilbert Simondon qu’on trouvera une affirmation plus nuancée de l’importance des normes dans la théorie de la transduction, ou de l’individuation transductive par laquelle il désire réconcilier la culture et la technique, et plus particulièrement l’homme et la machine. Tout a commencé vers la fin des années cinquante lorsque Simondon a commencé à considérer que l’objet technique (du simple marteau au réseau informatique le plus sophistiqué) n’est pas radicalement séparable de la pensée et de la culture humaine [19]. Il considère, au contraire, que dans l’acte d’invention, d’innovation et de maîtrise de l’objet technique, l’individu anticipe l’avenir de la communauté et l’oriente vers ce qui n’est pas encore de l’ordre du connu. Cet inconnu se structurera au fil du temps en une culture, c’est-à-dire « s’individuera à la fois en normes et en valeurs à partir de la médiation instauratrice qu’est l’objet technique » [20]. À partir de cette règle, Simondon va développer une théorie originale qui sous-tend la transposition des normes applicables aux objets techniques à l’être humain [21]. La connaissance de la technique va dès lors intégrer l’identification de normes techniques qui permettent d’enrichir celles jouant dans les rapports humains, et par conséquent l’affinement de la pensée de l’action chez l’homme [22].

Ainsi fut définie l’une des idées fondatrices de la pensée simondonienne selon laquelle « la technique possèderait une « normativité intrinsèque » – un pouvoir de proposer des normes – non seulement pour le progrès technique mais aussi pour le progrès social lui-même » [23]. L’objet technique pour Simondon devient dès lors créateur de normes par le lien d’une « communication transindividuelle » que cet objet technique établit entre les hommes « sur la base du respect qu’ils lui portent en les aidant à accéder à une certaine vérité » [24]. Le pouvoir de transductivité des normes, c’est-à-dire la possibilité de rendre commensurables deux systèmes normatifs différents est à l’origine de l’universalité des normes, « non pas que tel ou tel système normatif puisse se prétendre universel et l’emporter sur les autres, mais au contraire dans le pouvoir que nous avons de traduire un système de normes dans un autre système de normes [25] ». Autrement dit, c’est la capacité de transfert amplificateur contenue dans le système des normes, qui, amené à l’état d’information, peut être converti en un autre système de normes [26].

Indubitablement, nous pouvons soutenir l’idée que les enjeux de normalisation sont au cœur d’une gouvernance et de l’organisation d’un certain ordre dans le foisonnement des innovations, des nouvelles fonctionnalités notamment promises par le numérique. Par exemple, la prise en compte des Big data uniquement en termes de véracité, sans tenir compte notamment des débats ouvert par des statistiques reposant sur des modalités d’analyse comme l’analyse factorielle qui peuvent poser d’énormes problèmes déontologiques et épistémologiques [27]. Pourtant, dès les années soixante-dix, le sociologue Pierre Bourdieu entamait un dialogue constructif avec Jean-Paul Benzekri [28] concernant l’éthique indispensable de l’usage de ces modèles en sciences sociales. Il ne s’agit là que d’un exemple parmi bien d’autres mais ce que nous pouvons confirmer, c’est que la normalisation de l’usage est un item de travail normatif actuellement discuté.

Conclusion : le cycle vertueux standards-normes-standards

On comprend en fin de compte que nul ne peut échapper au cycle vertueux « standards/normes/standards » qui peut toutefois devenir pervers. Il constitue une dialectique indispensable du progrès technique qui s’apparente à la logique de l’évolution des êtres vivants ou aux progrès et à la sophistication des cultures humaines. Chaque innovation est d’abord testée puis retenue si elle présente des avantages d’abord de façon interne à une espèce vivante ou un domaine culturel spécifique. Néanmoins, comme un avantage concurrentiel permet de mieux survivre, de mieux communiquer, l’anarchie du foisonnement des innovations particulières finit souvent par devenir contre-productive dans le champ fonctionnel même où cela devait être un avantage. S’opère alors les lois d’un pouvoir de transduction pour passer d’un état à un autre dans une dynamique normative cyclique et autorégulée qui n’est autre que la dynamique d’évolution de notre société humaine.

Bibliographie

AZEMARD G., BEN HENDA M., HUDRISIER H., QUINIOU M. (2016), « Les big-data : pistes de réflexions historiques, éthiques et épistémologiques pour l’appropriation sociale ; retours et attentes d’expérimentations en learning analytics ». In Yves Théoret, Manuel Alejandro Guerrero, Données ouvertes : citoyens, société et médias, ORBICOM, Les Éditions de l’Immatériel, août 2016. pp. 74-104.

BEN HENDA M., HUDRISIER H. (2012), « Participer à la normalisation des TIC : une voie pragmatique indispensable pour préserver la diversité culturelle à l’âge de la mondialisation numérique ». Actes du Colloque international CMN2012 Communiquer dans un monde de normes. L’information et la communication dans les enjeux contemporains de la « mondialisation ». 7-9 mars 2012, Roubaix, France, pp. 49-61.

BEN HENDA M., HUDRISIER H. (2012), « Les normes et standards des TICE, des enjeux primordiaux pour le Sud ». frantice.net, n°4, Janvier 2012, « Normes et standards éducatifs : état, enjeux et perspectives », pp. 65-76.

BENZEKRI J.P. (1976), L’Analyse des données, Paris, Dunod.

BORDE, J.M., VAUCELLE, A. & HUDRISIER, H. (2014), La normalisation : dynamique opaque ou bonne gouvernance mondiale ? Pensée plurielle, 36,(2), p. 9-35.

BRUCE E.P. (2016), Méthodologie d’analyse du centre de gravité́ de normes internationales publiées, thèse sous la direction d’Imad Saleh et Renaud Fabre, Université de Paris 8.

CHAPOUTHIER, G. & PARIZEAU, M.-H. (2007), L’être humain, l’animal et la technique, Presses Université Laval, 262 p.

COLLECTIF. (2014), Gilbert Simondon : Une pensée de l’individuation et de la technique, Albin Michel, 298 p.

COLLECTIF. (2017), Esprit mars-avril 2017 : Le problème technique, Esprit, 160 p.

DE SAUSSURE F. (1995), Cours de linguistique générale, Paris, Payot, coll. « Grande bibliothèque Payot », 1995 (1re éd. 1916), p. XVIII-520.

DUHEM, L. (2008), « L’idée ‹ d’individu pur › dans la pensée de Simondon ». Appareil, no 2. https://doi.org/10.4000/appareil.583

FABRE R., HUDRISIER H., PERRIAULT J. (2016), « Normes et standards : un programme de travail pour les SIC », Revue française des sciences de l’information et de la communication, vol. 2 : Communication et diversité culturelle.

GUCHET, X. (2015), Pour un humanisme technologique. Culture, technique et société dans la philosophie de Gilbert Simondon. Presses Universitaires de France.

HUDRISIER H., BORDE J.M. (2013), « L’indicateur normalisation technique industrielle, dans la géopolitique du développement économique global », Colloque international Agropolis, CANAL - Circulations et appropriations des normes et des modèles de l’action locale, 20-23 mars 2013, Montpellier, France [édition ARTdev sur USB 15 p.].

MARTINET, A. (1967), Éléments de Linguistique Générale, Armand Colin, 234 p.

SIMONDON G. (1989), Du mode d’existence des objets techniques, Paris, éd. Aubier, 1958, Réédition augmentée : préface de HART (John), postface de DEFORGE (Yves), pp. 9 et 10.

  1. [1] R. FABRE, H. HUDRISIER, J. PERRIAULT, « Normes et standards : un programme de travail pour les SIC », Revue française des sciences de l’information et de la communication, vol. 2 « Communication et diversité culturelle », 2016.
  2. [2] M. BEN HENDA, H. HUDRISIER, « Les normes et standards des TICE, des enjeux primordiaux pour le Sud », Frantice.net, no 4 « Normes et standards éducatifs : état, enjeux et perspectives », janvier 2012, p. 65-76.
  3. [3] H. HUDRISIER, J.M. BORDE, « L’indicateur normalisation technique industrielle, dans la géopolitique du développement économique global », colloque international Agropolis, CANAL - Circulations et appropriations des normes et des modèles de l’action locale, Montpellier, 20-23 mars 2013 [édition ARTdev sur USB 15 p.].
  4. [4] Internet Corporation for Assigned Names and Numbers.
  5. [5] Internet Engineering Task Force.
  6. [6] Internet Society.
  7. [7] World Wide Web Consortium.
  8. [8] Open Archival Information System.
  9. [9] Encoded Archival Description.
  10. [10] Text Encoding Initiative.
  11. [11] J.M. BORDE, A. VAUCELLE, H. HUDRISIER, « La normalisation : dynamique opaque ou bonne gouvernance mondiale ? », Pensée plurielle, 36, (2), 2014, p. 9-35.
  12. [12] E.P. BRUCE, Méthodologie d’analyse du centre de gravité de normes internationales publiées, thèse sous la direction d’Imad Saleh et Renaud Fabre, université Paris 8, 2016.
  13. [13] Une famille de normes que l’on peut résumer très grossièrement par la succession de MPEG1, (stockage audio/vidéo) MPEG2 (codage de l’audio et la vidéo), MPEG4 (TV et image numérique), MPEG7 (recherche du contenu multimédia), MPEG21 (interopérabilité multimédia par les métadonnées).
  14. [14] La production industrielle selon des standards marque historiquement l’entrée dans l’ère industrielle.
  15. [15] Une solution numérique propriétaire est une solution dont l’usage est soumis aux droits de propriété industrielle de son concepteur et dont le code source n’est pas accessible par tout le monde.
  16. [16] F. DE SAUSSURE, Cours de linguistique générale [1916], Paris, Payot, coll. « Grande bibliothèque Payot », 1995.
  17. [17] A. MARTINET, Éléments de Linguistique Générale, Paris, Armand Colin, 1967
  18. [18] M. BEN HENDA, H. HUDRISIER, « Participer à la normalisation des TIC : une voie pragmatique indispensable pour préserver la diversité culturelle à l’âge de la mondialisation numérique ». Actes du Colloque international CMN2012 « Communiquer dans un monde de normes. L’information et la communication dans les enjeux contemporains de la ‹ mondialisation  », Roubaix, du 7 au 9 mars 2012, p. 49-61.
  19. [19] G. SIMONDON, Du mode d’existence des objets techniques [1958], Paris, Aubier, 1989, p. 9-10.
  20. [20] L. DUHEM, « L’idée d’individu pur dans la pensée de Simondon », Appareil, no 2, 2008, [En ligne], https://doi.org/10.4000/appareil.583
  21. [21] COLLECTIF, « Le problème technique », Esprit, mars-avril 2017.
  22. [22] Ibid.
  23. [23] H. SIMARD, « Le génie de Gilbert Simondon – Rencontre avec Jean-Hugues Barthélémy », Le journal des grandes écoles et universités, no 73, janvier-mars 2015, [En ligne], http://www.mondedesgrandesecoles.fr/le-genie-de-gilbert-simondon-rencontre-avec-jean-hugues-barthelemy
  24. [24] G. CHAPOUTHIER et M.-H. PARIZEAU, L’être humain, l’animal et la technique, Presses Université Laval, 2007
  25. [25] X. GUCHET, Pour un humanisme technologique. Culture, technique et société dans la philosophie de Gilbert Simondon, Presses Universitaires de France, 2015.
  26. [26] COLLECTIF, Gilbert Simondon : une pensée de l’individuation et de la technique, Paris, Albin Michel, 2014, p. 293.
  27. [27] G. AZEMARD, M. BEN HENDA, H. HUDRISIER, M. QUINIOU, « Les big-data : pistes de réflexions historiques, éthiques et épistémologiques pour l’appropriation sociale ; retours et attentes d’expérimentations en learning analytics », dans : Yves Théoret, Manuel Alejandro Guerrero (dir.), Données ouvertes : citoyens, société et médias, ORBICOM, L’Immatériel, août 2016, p. 74-104.
  28. [28] J.P. BENZEKRI, L’Analyse des données, Paris, Dunod, 1976.
Réel-Virtuel