L’intelligence collective en 1994

Lorsque j’ai publié “L’intelligence Collective” en 1994, le WWW n’existait pas (on ne trouvera d’ailleurs pas le mot “web” dans le livre) et moins d’un pour cent de la population mondiale était connectée à l’Internet. A fortiori, les médias sociaux, les blogs, Google et Wikipedia restaient encore bien cachés dans le monde des possibles et seuls quelques rares visionnaires avaient entr’aperçu leurs contours à travers les brumes du futur. Ancêtres des médias sociaux, les “communautés virtuelles” ne rassemblaient que quelques dizaines de milliers de personnes sur la planète et le logiciel libre, déjà poussé par Richard Stallman au début des années 1980, n’allait décoller vraiment qu’à la fin des années 1990. A cette époque, néanmoins, mon diagnostic était déjà posé: (1) l’Internet allait devenir l’infrastructure principale de la communication humaine et (2) les ordinateurs en réseau allaient augmenter nos capacités cognitives, et tout particulièrement notre mémoire. L’irruption du numérique dans le cours de l’aventure humaine est aussi importante que l’invention de l’écriture ou celle de l’imprimerie. Je le pensais alors et tout le confirme aujourd’hui. On me dit souvent: “vous aviez prévu l’avènement de l’intelligence collective et regardez ce qui s’est passé!” Non, j’ai prévu – avec quelques autres – que l’humanité allait entrer en symbiose avec les algorithmes et les données. Etant donnée cette prédiction, dont on admettra qu’elle se vérifie, je posais la question: quel projet de civilisation devons nous adopter pour exploiter au mieux le médium algorithmique au profit du développement humain? Et ma réponse était : le nouveau médium nous permet, si nous le décidons, d’augmenter l’intelligence collective humaine… plutôt que de poursuivre la tendance lourde à la passivité devant des médias fascinants déjà amorcée avec la télévision et de rester polarisés par la poursuite de l’intelligence artificielle

Art: Emma Kunz “Kaleïdoscopic Vision”

Un quart de siècle plus tard

Après avoir replacé mon “appel à l’intelligence collective” de 1994 dans son contexte, j’aborde maintenant les observations que m’inspirent les développements du dernier quart de siècle. En 2021 65% de l’humanité est connectée à l’Internet et à près de quatre-vingt-dix pour cent en Europe, en Amérique du Nord ainsi que dans la plupart des grandes métropoles. Dernièrement, la pandémie nous a forcés à utiliser massivement l’Internet pour travailler, apprendre, acheter, communiquer, etc. Les savants du monde entier partagent leurs bases de données. Nous consultons tous les jours Wikipedia, qui est l’exemple classique d’une entreprise d’intelligence collective philanthropique qui s’appuie sur le numérique. Les programmeurs partagent leurs codes sur GitHub et s’entraident sur Stack Overflow. Sans toujours en prendre clairement conscience, chacun devient auteur sur son blog, bibliothécaire lorsqu’il – ou elle – tague, étiquette ou catégorise des contenus, curateur en rassemblant des ressources, influenceur sur les médias sociaux et les plateformes d’achat en ligne, et même entraîneur d’intelligence artificielle à son corps défendant puisque nos moindres actes en ligne sont pris en compte par les machines apprenantes. Les jeux multi-joueurs distribués, le crowdsourcing, le journalisme de données et le journalisme citoyen font désormais partie de la vie quotidienne. 

Les éthologues qui étudient les animaux sociaux définissent la communication stigmergique comme une coordination indirecte entre agents via un environnement commun. Par exemple, les fourmis communiquent principalement en laissant sur le sol des traînées de phéromones, et c’est ainsi qu’elles se signalent les chemins qui mènent vers la nourriture. Le surgissement d’une communication stigmergique globale par l’intermédiaire de la mémoire numérique est probablement le plus grand changement social des vingt-cinq dernières années. Nous aimons, nous postons, nous achetons, nous taguons, nous nous abonnons, nous visionnons, nous écoutons, nous lisons et ainsi de suite… Par chacun de ces actes nous transformons le contenu et le système de relations internes de la mémoire numérique, nous entraînons des algorithmes et nous modifions le paysage de données dans lequel évoluent les autres internautes. Cette nouvelle forme de communication par lecture-écriture distribuée dans une mémoire numérique collective représente une mutation anthropologique de grande ampleur qui est généralement peu ou mal perçue. Je reviendrai plus loin sur cette révolution en réfléchissant à la manière de s’en servir comme d’un point d’appui pour augmenter l’intelligence collective.

Mais il me faut d’abord parler d’une seconde transformation majeure, liée à la première, une mutation politique que je n’avais pas prévue en 1994: l’émergence de l’état plateforme. Je ne désigne pas par cette expression l’usage de plateformes numériques par les gouvernements mais le surgissement d’une nouvelle forme de pouvoir politique, qui succède à l’état-nation sans le supprimer. Le nouveau pouvoir est exercé par les propriétaires des principaux centres de données qui maîtrisent de fait la mémoire mondiale. On aura reconnu la fameuse oligarchie sino-américaine des Google, Apple, Facebook, Amazon, Microsoft, Baidu, Alibaba, Tencent et consorts. Non seulement ces entreprises sont les plus riches du monde, ayant dépassé depuis longtemps en capitalisation boursière les fleurons des vieilles industries, mais elles exercent en plus des pouvoirs régaliens classiques: investissement dans les cryptomonnaies échappant aux banques centrales ; contrôle et surveillance des marchés ; authentification des identités personnelles ; infiltration dans les systèmes d’éducation ; établissement des cartes géographiques et du cadastre ; quadrillage des cieux par des réseaux de satellites ; gestion de la santé publique (signalons les bracelets ou autres dispositifs portables, l’enregistrement des conversations chez les médecins et la mémoire épidémiologique dans les nuages). Mais surtout, les seigneurs des données se sont rendus maîtres de l’opinion publique et de la parole légitime : influence, surveillance, censure… Faites attention à ce que vous dites, car vous risquez d’être déplateformés! Enfin, le nouvel appareil politique est d’autant plus puissant qu’il s’appuie sur des ressorts psychologiques proches de l’addiction. Plus les utilisateurs deviennent dépendants du plaisir narcissique ou de l’excitation procurés par les médias sociaux et autres attracteurs d’attention, plus ils produisent de données et plus ils alimentent la richesse et le pouvoir de la nouvelle oligarchie.

Face à ces nouvelles formes d’asservissement, est-il possible de développer une stratégie émancipatrice adaptée à l’ère numérique? Oui, mais sans nourrir l’illusion que nous pourrions en finir une bonne fois pour toutes avec le côté obscur par quelque transformation radicale. Comme le dit Albert Camus à la fin de son essai de 1942 Le Mythe de Sysiphe ” La lutte elle-même vers les sommets suffit à remplir un cœur d’homme. Il faut imaginer Sisyphe heureux.” Augmenter l’intelligence collective est un travail toujours à reprendre et à approfondir. Maximiser simultanément la liberté créatrice et l’efficacité collaborative relève de la performance en contexte et ne dépend pas d’une solution technique ou politique définitive. Il reste que, lorsque les conditions culturelles et techniques que je vais maintenant évoquer seront remplies, la tâche sera plus facile et les efforts pourront converger. 

La dialectique de l’homme et de la machine

Revenons à l’interaction stigmergique par l’intermédiaire du médium algorithmique. La communication entre les êtres humains se fait de plus en plus par l’intermédiaire de machines au cours d’un processus distribué de lecture-écriture dans une mémoire numérique commune. Deux pôles interagissent ici: les machines et les humains. Les machines sont évidemment déterministes, que ce déterminisme soit logique (les algorithmes ordinaires, les règles de l’IA dite symbolique) ou statistique (l’apprentissage machine, l’IA neuronale). Les algorithmes d’apprentissage machine peuvent évoluer avec les flots de données qui les alimentent, mais cela ne les fait pas échapper au déterminisme pour autant. Quant aux humains, leur comportement n’est déterminé et prévisible qu’en partie. Ce sont des animaux sociaux conscients qui jouent à de multiples jeux, que traversent toutes les émotions, qui manifestent autonomie, imagination et créativité. La grande conversation humaine exprime une infinité de nuances au cours d’un processus d’interprétation en boucle fondamentalement ouvert. Bien entendu, ce sont les humains qui produisent et utilisent des machines, machines qui appartiennent donc pleinement au monde de la culture. Mais il reste que – d’un point de vue éthique, légal ou existentiel – les humains ne sont pas des machines déterministes logico-statistiques. D’un côté la liberté du sens, de l’autre la nécessité mécanique. Or force est de constater aujourd’hui que les humains gardent mémoire, interprètent et communiquent par l’intermédiaire de machines. Dans ces conditions, l’interface humain-machine ne se distingue plus qu’à peine de l’interface humain-humain. Cette nouvelle situation provoque une foule de problèmes dont les interprétations hors contexte, les traductions sans nuances, les classements grossiers et les difficultés de communication ne sont que les symptômes les plus visibles, alors que le mal profond réside dans un défaut d’autonomie, dans l’absence de contrôle sur le technocosme à l’échelle personnelle ou collective. 

Réfléchissons maintenant à notre problème d’interface. Le meilleur médium de communication entre humains reste la langue, avec la panoplie de systèmes symboliques qui l’entourent, de la musique à l’expression corporelle en passant par l’image. C’est donc la langue, orale ou écrite, qui doit jouer le rôle principal dans l’interface humain-machine. Mais pas n’importe quelle langue: un idiome qui soit adéquat à la multitude des jeux sociaux, à la complexité des émotions, à la nuance expressive et à l’ouverture interprétative du côté humain. Pourtant, du côté machine, il faut que cette langue donne prise aux règles logiques, aux calculs arithmétiques et aux algorithmes statistiques. C’est pourquoi j’ai passé les vingt dernières années à concevoir une langue humaine qui soit aussi un langage machine : IEML. Le biface du noolithique se tourne d’un côté vers la générosité du sens et de l’autre vers la rigueur mathématique. Un tel outil nous donnera prise sur notre environnement technique (programmer et contrôler les machines) aussi facilement que nous communiquons avec nos semblables. En sens inverse, il synthétisera les flots de données qui nous concernent par des diagrammes explicatifs, des paragraphes compréhensibles, voire des messages multimedia empathiques. Bien plus, cette nouvelle couche techno-cognitive nous permettra de dépasser la communication stigmergique plus ou moins opaque que nous entretenons par l’intermediaire de la mémoire numérique commune pour atteindre une intelligence collective réflexive.

Vers une intelligence collective réflexive

Des images, des sons, des odeurs et des lieux balisent la mémoire humaine, comme celle des animaux. Mais c’est le langage qui unifie, ordonne et réinterprète à volonté notre mémoire symbolique. La chose est vraie non seulement à l’échelle individuelle mais aussi à l’échelle collective, par la transmission des récits et l’écriture. Grâce au langage, l’humanité a pu accéder à l’intelligence réflexive. Par analogie, je pense que nous n’accèderons à une intelligence collective réflexive qu’en adoptant une langue adéquate à l’organisation de la mémoire numérique.

Examinons les conditions nécessaires à l’avènement de cette nouvelle forme de réflexion critique à grande échelle. Puisque la cognition sociale doit pouvoir s’observer elle-même, nous devons modéliser des systèmes humains complexes et rendre ces modèles aisément navigables. À l’image des groupes humains en interaction, ces représentations numériques seront alimentées par des sources de données hétérogènes organisées par des logiques disparates. Nous devons d’autre part donner à lire des processus de pensée dynamiques, de type conversationnel, où les formes émergent, évoluent et s’hybrident, comme dans la réalité de nos écosystèmes d’idées. De plus, puisque nous voulons optimiser nos décisions et coordonner nos actions, il nous faut rendre compte de relations causales, éventuellement circulaires et entrelacées. Enfin, nos modèles doivent être comparables, interopérables et partageables, sans quoi les images qu’ils nous renverraient n’auraient aucune objectivité. Nous devons donc accomplir dans la dimension sémantique ce qui a déjà été mené à bien pour l’espace, le temps et diverses unités de mesure: établir un système de coordonnées universel et régulier qui favorise la modélisation formelle. Ce n’est que lorsque ces conditions seront remplies que la mémoire numérique pourra servir de miroir et de multiplicateur à l’intelligence collective humaine. La puissance d’enregistrement et de calcul de la nuagique rend désormais cet idéal atteignable et le système de coordonnées sémantique (IEML) est déjà disponible.

Dans le labyrinthe de la mémoire

Jusqu’à l’invention de l’imprimerie à caractères mobiles par Gutenberg, l’une des parties les plus importantes de la rhétorique était l’art de la mémoire. Il s’agissait d’une méthode mnémotechnique dite « des lieux et des images ». L’orateur en herbe devait s’entraîner à la représentation mentale d’un espace architectural – réel ou imaginaire – de grande envergure, comme par exemple un palais ou un temple, voire une place, où seraient disposés plusieurs bâtiments. Les idées à mémoriser devaient être représentés par des images placées dans les lieux de l’architecture palatiale. C’est ainsi que les fenêtres, niches, pièces et colonnades du palais (les « lieux ») étaient peuplés de personnages humains porteurs de caractères émotionnellement et visuellement frappants, afin d’être mieux retenus (les « images »). Les relations sémantiques entre les idées étaient d’autant mieux mémorisées et utilisées qu’elles étaient représentées par des relations locales entre images. 

A partir du XVIe siècle en Occident, la crainte d’oublier cède le pas à l’angoisse d’être noyé dans la masse des informations imprimées. Aux arts de la mémoire adaptés aux époques de l’oral et du manuscrit, succède l’art d’organiser les bibliothèques. On découvre alors que la conservation de l’information ne suffit pas, il faut la classer et la placer (les deux choses vont de pair avant le numérique) de telle sorte que l’on trouve facilement ce que l’on cherche. Au plan du palais imaginaire succède la disposition des rayons et des étagères de la bibliothèque. La distinction des données (livres, journaux, cartes, archives de toutes sortes) et des métadonnées s’affirme au début du XVIIIe siècle. Le système de métadonnées d’une bibliothèque comporte essentiellement le catalogue des documents entreposés et les fiches cartonnées classées dans des tiroirs qui donnent, pour chaque item: son auteur, son titre, son éditeur, sa date de publication, son sujet, etc. Sans oublier la cote qui indique le lieu précis où le document est rangé. Ce dédoublement des données et des métadonnées a d’abord lieu bibliothèque par bibliothèque, chacune avec son propre système d’organisation et son vocabulaire local. Un nouveau degré dans l’abstraction et la généralisation est franchi au XIXe siècle avec l’avènement de systèmes de classification à vocation universelle, qui s’appliquent à un grand nombre de bibliothèques et dont le système “décimal” de Dewey est l’exemple le plus connu. 

Avec la transformation numérique qui commence à la fin du XXe siècle, la distinction entre données et métadonnées n’a pas disparu, mais elle ne se déploie plus dans un espace physique à l’échelle humaine. Dans une base de données ordinaire, chaque champ correspond à une catégorie générale (le nom du champ est une sorte de métadonnée, comme par exemple “adresse”) tandis que la valeur du champ “8, rue du Petit Pont” correspond à une donnée. Sur les tableaux Excel, les colonnes correspondent en fait aux métadonnées et le contenu des cellules aux données. Dans une base de données dite relationnelle le système de métadonnées n’est autre que le schéma conceptuel qui préside à sa structuration. Chaque base de données possède évidemment son propre schéma, adapté aux besoins de son utilisateur. Les bases de données classiques ont d’ailleurs été conçues avant l’Internet, quand il était bien rare que les ordinateurs communiquent. Tout change avec l’adoption massive du Web à partir de la fin du XXe siècle. En un sens, le Web est une grande base de données virtuelle distribuée dont chaque item possède une adresse ou une “cote”: l’URL (Uniform Resource Locator), qui commence par http:// (Hypertext Transfer Protocol). Ici encore, les métadonnées sont intégrées aux données, par exemple sous la forme de tags. Le Web faisant potentiellement communiquer toutes les mémoires, le disparate des systèmes de métadonnées locaux ou des folksonomies improvisées (tels que les hashtags utilisés dans les médias sociaux) devient particulièrement criant.

Mais l’abstraction et le décollement des métadonnées expérimentés par les bibliothèques au XIXe siècle est réinventé dans le numérique. Une même ontologie ou un modèle conceptuel particulier peut être utilisé pour structurer des données différentes tout en favorisant la communication entre différentes mémoires. Les modèles tels que schema.org, soutenu par Google, ou CIDOC-CRM, développé par les institutions de conservation des héritages culturels en sont de bons exemples. La notion de métadonnée sémantique, élaborée dans le milieu de l’intelligence artificielle symbolique des années 1970 est popularisée par le projet du Web Sémantique lancé par Tim Berners Lee dans la foulée du succès du Web. Ce n’est pas ici le lieu d’expliquer l’échec relatif de ce dernier projet. Contentons-nous de signaler que les contraintes rigides imposées par les formats standards du World Wide Web Consortium ont découragé ses utilisateurs potentiels. La notion d’ontologie cède aujourd’hui la place à celle de Graphe de Connaissance (Knowledge Graph) dans lequel on accède à des ressources numériques au moyen d’un modèle de données et d’un vocabulaire contrôlé. Dans cette dernière étape de l’évolution de la mémoire, les données ne sont plus contenues dans les schémas tabulaires fixes des bases de données relationnelles, mais dans les nouvelles bases de données de graphes, plus souples, plus faciles à faire évoluer, mieux à même de représenter des modèles complexes et autorisant plusieurs “vues” différentes. Un graphe de connaissance se prête au raisonnement automatique (IA symbolique classique), mais aussi à l’apprentissage automatique s’il est bien conçu et si les données sont en nombre suffisant. 

Aujourd’hui encore, une grande partie de la mémoire numérique se trouve dans des bases relationnelles, sans distinction claire des données et des métadonnées, organisée selon des schémas rigides mutuellement incompatibles, mal optimisée pour les besoins de connaissance, de coordination ou d’aide à la décision de leurs utilisateurs. Réunies dans des entrepôts communs (datalakes, datawarehouses), ces données indexées ou cataloguées selon des systèmes de catégories disparates mènent parfois à des représentations ou des simulations incohérentes. La situation dans le monde encore minoritaire des knowledge graphs est certes plus brillante. Mais de nombreux problèmes demeurent : il est encore bien difficile de faire communiquer des langues, des domaines d’affaire ou des disciplines différentes. Si la visualisation de l’espace (projection sur des cartes), du temps (frises chronologiques) et des quantités est entrée dans les moeurs, la visualisation de structures qualitatives complexes (comme les actes de langage) reste un défi, et cela d’autant plus que ces structures qualitatives sont essentielles pour la compréhension causale des systèmes humains complexes. 

Il nous faut produire encore un effort pour transformer la mémoire numérique en support d’une intelligence collective réflexive. Une intelligence collective autorisant tous les points de vue, mais bien coordonnée. Il suffit pour cela de reproduire à une hauteur supplémentaire le geste d’abstraction qui a mené à la naissance des métadonnées à la fin du XVIIIe siècle. Dédoublons donc les métadonnées en (a) modèles et (b) métalangage. Les modèles pourront être aussi nombreux et riches que l’on voudra, ils communiqueront – avec les langues naturelles, les humains et les machines – par l’intermédiaire d’un métalangage commun. Dans la bibliothèque de Babel, il est temps d’allumer la lumière.