Ce texte rend compte de ma communication à l’événement *AI for people summit* [https://ai4people.org/advancing-ethical-ai-governance-summit/] organisé avec le concours de l’Union européenne les 2 et 3 décembre 2025. L’essentiel de mon message est le suivant : oui, il faut se préoccuper d’une IA pour les gens, mais cette préoccupation ne deviendra pertinente et efficace que si l’on n’oublie pas que l’IA est aussi faite par les gens.
L’expression même d’intelligence artificielle nous trompe parce qu’elle sous-entend l’autonomie de la machine. De nombreux facteurs soutiennent et renforcent l’erreur d’attribuer une autonomie aux modèles de langue. L’expérience naïve du dialogue avec des IA donne l’impression qu’elles sont conscientes ; les journalistes rivalisent d’articles sensationnalistes ; les responsables des grandes compagnies d’IA annoncent “l’intelligence artificielle générale” pour demain ; des chercheurs en IA, parmi lesquels certains ont été récompensés par un prix Turing, lancent à un public affolé des prédictions apocalyptiques.
Pour surmonter cette erreur de conceptualisation, j’invite mes lecteurs à cesser de considérer les modèles d’IA en isolation. En réalité, ils ne peuvent être séparés de l’écosystème informationnel auquel ils appartiennent et dont ils dépendent. Cet écosystème peut être décrit comme un circuit à trois stations : les personnes, les données et les modèles. Les personnes créent de l’information, ils alimentent ainsi la mémoire numérique, dont les données entraînent les modèles, qui augmentent les capacités de création d’information des personnes, qui alimentent la mémoire et ainsi de suite. Dans cet écosystème informationnel, l’IA permet de mobiliser l’intelligence collective réifiée dans la mémoire numérique au service des personnes vivantes, qui peuvent contribuer à enrichir la masse des données accumulées. L’accès à la mémoire passe désormais par une IA qui la filtre, la distille et la rend opératoire en fonction des besoins particuliers des utilisateurs. Telle est du moins la version optimiste que je défends. Mais cette approche humaniste ne m’empêche pas de remarquer la face d’ombre du nouvel environnement de communication. Beaucoup de réflexions sur l’éthique de l’IA se concentrent sur la production et la réglementation des modèles, ce qui est légitime. Mais on oublie trop souvent la responsabilité des personnes produisant les données – dorénavant la société dans son ensemble.
Afin de rendre ma démonstration plus convaincante, je vais évoquer quelques cas d’empoisonnement des données particulièrement impressionnants. Plusieurs rapports récents font état d’une entreprise de propagande pro-russe d’abord nommée “Portal Kombat” et intitulée aujourd’hui “Pravda”. Il s’agit d’un réseau de plus de 150 sites web qui se présentent comme des diffuseurs d’information anodins, mais qui répètent constamment les éléments de langage du Kremlin. Les sites sont localisés dans tous les continents et leurs textes sont traduits dans des douzaines de langues, ce qui les rend plus crédibles selon les critères adoptés par les producteurs des modèles d’IA. En moyenne, ce réseau publie 20 273 articles toutes les 48 heures, soit environ 3,6 millions d’articles par an. La production et la traduction des textes est presque entièrement automatisée. Le but n’est pas d’avoir des lecteurs humains (il y en a relativement peu) mais de servir de données d’entraînement pour les IA et donc, par leur intermédiaire, de manipuler leurs utilisateurs. Une étude a établi que les principaux modèles probabilistes tels que ChatGPT d’OpenAI, le Chat de Mistral, Copilot de Microsoft’ Meta AI, Claude d’Anthropic, Gemini de Google et Perplexity AI régurgitent ou confirment les informations fournies par le réseau Pravda dans plus d’un tiers des cas, ce qui n’est déjà pas si mal du point de vue des “mesures actives” russes. Souvenons-nous que, pour Gœbbels, la propagande était basée sur la répétition, la simplicité et l’émotion. Avec les LLM, pas besoin de démonstration, de preuve, de faits, de contextualisation. La répétition et la simplicité fonctionnent parfaitement, il suffit que deux mots soient souvent associés dans les données d’entrainement pour qu’ils le soient aussi dans les réponses de l’IA.
Au lieu de se reposer sur des données éparpillées sur le Web, ne faudrait-il pas plutôt prioriser les données objectives et fiables que l’on trouve dans les revues scientifiques, les encyclopédies et les médias classiques? Et, en effet, Wikipédia est l’une des sources réputées les plus fiables par les responsables des modèles de langue. Or un grand nombre d’articles de Wikipédia ont fait l’objet d’une prise de contrôle par les islamistes et les défenseurs du Hamas, qui ont coordonné leur action en utilisant à leur profit les règles de fonctionnement de l’encyclopédie en ligne. Les choses sont allées si loin que les fondateurs de Wikipédia, Jimmy Wales et Larry Sanger s’en sont inquiétés publiquement. Mais rien n’y fait : authentifié par l’encyclopédie, le point de vue islamiste est maintenant gravé dans les modèles de langue. Une enquête diligentée par la BBC, un média de référence, déplore que les actualités soient mal représentées dans 45% des cas par les intelligences artificielles et que la moitié des jeunes gens (moins de 35 ans) croient à leur exactitude et n’éprouvent pas le besoin de vérifier leur contenu. La BBC pointe un doigt accusateur vers les assistants IA et s’insurge contre l’idée que les erreurs et la désinformation proviendraient des fournisseurs de nouvelles officiels. Hélas, quelques mois plus tard, le directeur général et la directrice de l’information de la BBC étaient obligés de démissionner à la suite d’un scandale de fabrication de fausses nouvelles sur Donald Trump et d’un rapport faisant état d’un biais islamiste systématique dans les émissions de la BBC en arabe. Dans le cas du réseau “Pravda” je mentionnais la théorie de la propagande de Gœbbels basée sur la répétition. Dans le cas de Wikipedia et de la BBC, il faudrait faire appel à une autre théorie de la propagande du 20e siècle, celle d’Edward Bernays, selon qui la manière la plus efficace de convaincre le public était de passer par les leaders d’opinion et les figures d’autorité. Au sujet d’une scientificité garantie par l’Université, souvenons-nous que l’Université allemande (et une bonne part de l’université mondiale) était raciste dans les années trente du 20ᵉ siècle et que l’Université soviétique a entretenu la doctrine anti-génétique de Lyssenko pendant des décennies. N’est-il pas possible que certaines doctrines – notamment dans les sciences humaines – qui se trouvent aujourd’hui majoritaires dans les universités soient considérées avec commisération par nos successeurs?
Je ne me livrerai pas ici à un exposé sur toutes les techniques dites d’empoisonnement des données ni à un avertissement sur les dangers de l’injection de prompts malicieux dans des sources d’information apparemment innocentes. J’espère seulement avoir attiré l’attention du lecteur sur l’importance des données d’entraînement dans la détermination des réponses des AI.
Une fois ce point acquis, il est clair que les problèmes éthiques ne peuvent se limiter aux modèles mais qu’il doivent s’étendre à la création des données qui les entraînent, c’est à dire à l’ensemble de notre comportement en ligne. Chaque lien que nous créons, chaque étiquette que nous apposons à une information, chaque « like », chaque requête, achat, commentaire ou partage et a fortiori chaque article, entrée de blog, podcast ou vidéo que nous postons, toutes ces opérations produisent des données qui vont entraîner les neurones formels des intelligences artificielles. Nous nous concentrons généralement sur la réception directe de nos messages mais il nous faut garder à l’esprit que nous contribuons indirectement – par l’intermédiaire des modèles que nous entraînons – à répondre aux questions de nos contemporains, à rédiger leurs textes, à instruire des élèves, à orienter des politiques, etc. Cette responsabilité est d’autant plus grande que nous nous trouvons dans une position d’autorité et que nous sommes censés dire le vrai, puisque l’IA accorde un plus grand poids aux informations fournies par les journalistes, professeurs, chercheurs scientifiques, rédacteurs de manuels et producteurs de sites officiels.
Revenons pour finir à l’écosystème informationnel contemporain. Supposons que la tendance que l’on voit se dessiner aujourd’hui se confirme dans les années qui viennent. Les IA représentent alors notre principale interface d’accès à la mémoire accumulée et notre premier médium de communication entre humains, puisqu’elles régissent les réseaux sociaux. Dans ce nouvel environnement, les personnes créent les données, qui entraînent les modèles, qui augmentent les personnes, qui créent les données et ainsi de suite le long d’une boucle autogénérative. Cet écosystème fait simultanément office de champ de bataille des récits et de lieu de création et de mise en commun des connaissances ; il oscille entre manipulation et intelligence collective. Dès lors, un des enjeux essentiels reste la formation des esprits. Quelques mots d’ordre éducatifs à l’âge de l’IA : ne pas renoncer à la mémorisation personnelle, s’exercer à l’abstraction et à la synthèse, questionner longuement au lieu de se contenter des premières réponses, replacer toujours les faits dans les multiples contextes où ils prennent sens, prendre la responsabilité des messages que l’on confie à la mémoire numérique et qui contribuent à forger l’esprit collectif.
L’intelligence artificielle est mystérieuse : on lui parle et elle semble comprendre ce qu’on lui dit. La preuve qu’elle comprend c’est qu’elle répond par un texte ou une parole qui a du sens, et parfois plus de sens que ce que pourrait articuler un humain ordinaire. Comment est-ce possible?
Brueghel, le Paradis terrestre.
Le succès des modèles de langue
Certes, les recherches sur l’intelligence artificielle datent du milieu du 20e siècle et, même si le grand public ne peut les manipuler directement que depuis 3 ans, les modèles statistiques ou neuro-mimétiques étaient déjà présents “sous le capot” d’une foule d’applications depuis les années 2010. Mais le type d’application grand public que tout le monde appelle maintenant “l’IA” n’est apparu qu’en 2022. Il faut d’abord prendre la mesure du phénomène sur un plan quantitatif. À la fin de 2025, il y avait déjà 700 millions d’utilisateurs hebdomadaires de ChatGPT et 150 millions d’utilisateurs actifs quotidiens pour l’IA générative en général. On estime que 50% des travailleurs américains utilisent des modèles de langue (ChatGPT, Claude, Perpexity, Gemini, etc.), d’ailleurs sans grande augmentation de leur productivité, sauf pour les tâches de programmation et de bureaucratie interne. Sur le plan des mœurs, l’IA s’est tellement imposée dans le paysage numérique que beaucoup de jeunes gens ont l’impression qu’elle a toujours existé. Les étudiants s’en servent pour faire leurs devoirs. Des millions de personnes ont développé une addiction au dialogue avec une machine désormais amie, confidente ou psychothérapeute. Interagir avec un modèle de langue augmente votre estime de soi!
L’interdépendance des problèmes
Tout ceci pose des problèmes éthico-politiques, géopolitiques et civilisationnels. Il est d’ailleurs possible que, dans les années à venir, de nouvelles avancées scientifiques et techniques rendent ces problèmes encore plus aigus. La puissance de mémoire et de calcul qui supporte l’IA se partage aujourd’hui entre les deux oligarchies numériques américaine et chinoise qui rivalisent d’investissements. Cette concentration économique et géopolitique soulève à juste titre l’inquiétude. Les “biais”, les mauvais usages de toutes sortes et les délires probabilistes des machines poussent à la construction de garde-fous éthiques. C’est bien. Il faut néanmoins rappeler que l’éthique ne se limite pas à apaiser les craintes ou à prévenir les nuisances mais qu’elle invite aussi à penser les bons usages et les directions de développement favorables. Avec l’IA, les questions industrielles, éthiques et cognitives sont étroitement codépendantes. C’est pourquoi il est nécessaire d’élucider l’efficace cognitive de cette technique si l’on veut comprendra pleinement ses enjeux industriels, éthico-politiques et civilisationnels.
La question
Comment se fait-il que des algorithmes statistiques, qui calculent la probabilité du mot suivant, puissent générer des textes pertinents et des dialogues engageants ? À mon sens, la solution de cette énigme se trouve dans une compréhension de ce qu’est l’intelligence humaine. Car ce sont des humains qui produisent les milliards de textes qui servent de données d’entraînement. Ce sont encore des humains qui construisent les centres de calcul, étendent les réseaux et conçoivent les algorithmes. Ce sont toujours des humains qui, par leur lecture, projettent un sens sur les textes aveuglément générés par des machines privées de conscience. Mais puisque le secret de l’IA se trouve selon moi dans l’intelligence humaine, je manquerais à ma tâche si je n’expliquais pas en quoi elle consiste.
Qu’est-ce que l’intelligence humaine ?
L’intelligence humaine est d’abord animale, c’est-à-dire qu’elle est ordonnée à la locomotion qui distingue les bêtes des plantes dépourvues de neurones. Le système nerveux organise une boucle entre la sensibilité et la motricité. Cette interface entre la sensation et le mouvement se complexifie au fur et à mesure de l’évolution, jusqu’à l’apparition du cerveau chez les animaux les plus intelligents. Ces derniers deviennent capables de cartographier leur territoire, de retenir des événements passés (ils ont une mémoire) et de simuler des événements futurs (ils ont une imagination). Le fonctionnement du cerveau produit l’expérience consciente, avec ses plaisirs et ses peines, ses répulsions et ses attractions. De là découle toute la gamme des émotions qui colorent les perceptions et induisent les actions. Assignée au mouvement, l’intelligence animale organise son expérience dans l’espace et le temps. Elle vise des buts et se réfère à des objets du monde environnant. A-t-elle affaire à une proie, à un prédateur, à un partenaire sexuel ? De la catégorisation suit le type d’interaction. Il ne fait aucun doute que l’intelligence animale conceptualise. Enfin, l’animal échange une foule de signes avec la faune et la flore de son milieu de vie et communique intensément avec les membres de son espèce.
[On trouvera un développement sur la complexité de l’expérience animale dans ma récente conférence]
L’IA ne possède aucun des caractères de l’intelligence animale : ni la conscience, ni le sens de l’espace et du temps, ni l’intentionalité de l’expérience (la finalité et la référence à des objets), ni l’aptitude à conceptualiser, ni les émotions, ni la communication. Or l’intelligence humaine comprend l’intelligence animale et possède en plus une capacité symbolique qui s’actualise dans le langage, les institutions sociales complexes et les techniques. Malgré sa singularité dans la nature, n’oublions jamais que la capacité symbolique humaine s’enracine dans une sensibilité animale dont elle ne peut se séparer.
Je vais examiner plus particulièrement le langage, grâce à qui nous pouvons dialoguer, raconter des histoires, poser des questions, raisonner et spéculer sur l’invisible. Commençons par analyser la composition d’un symbole. Il comprend une partie sensible, une image visuelle ou sonore (le signifiant) et une partie intelligible ou concept (le signifié). On a vu que les animaux avaient des concepts, mais l’Homme seul représente ses concepts par des images, ce qui lui permet de les réfléchir et de les combiner à volonté. Les symboles, et en particulier les symboles linguistiques, ne sont jamais isolés mais font partie de systèmes symboliques qui sont intériorisés par les interlocuteurs. Il faut que la grammaire et le dictionnaire de notre langue commune fasse partie de nos automatismes pour que nous nous comprenions de manière fluide. Les textes appartiennent simultanément à deux mondes qu’ils connectent à leur manière : ils possèdent une adresse spatio-temporelle par leur partie sensible et ils se distribuent en d’invisibles réseaux de concepts par leur partie intelligible.
Que signifie comprendre une phrase? Prenons l’exemple simple qui suit : “Je peins la petite pièce en bleu”. Je fais d’abord correspondre au son de chaque mot son concept. Puis, à partir de la séquence parlée, je construis l’arbre syntaxique de la phrase avec, à la racine, le verbe “peins”, à la feuille-sujet le mot “je”, à la feuille-objet l’expression “la petite pièce” et à la feuille-complément de manière le mot “bleu”. Mais ce n’est pas tout. Pour vraiment comprendre “je”, il me faut savoir que la première personne a été choisie par opposition à la seconde et à la troisième personne. Pour saisir “bleu” je dois savoir que c’est une couleur et qu’elle représente une sélection parmi le paradigme des couleurs (jaune, rouge, vert, violet, etc.). Et ce n’est que par rapport à grand, long ou étroit que “petite” fait sens. Bref, dans une expression symbolique simple telle qu’une courte phrase, chaque mot occupe une place dans un arbre syntaxique et actualise un choix dans un groupe de substitutions possibles.
Les phrases sont généralement proférées par des sujets en situation d’interlocution. Mes automatismes symboliques ne se contentent pas de reconstituer le sens linguistique d’une phrase à partir d’une séquence de sons, ils projettent aussi une subjectivité, une intériorité humaine, à la source de la phrase. La parole s’élève dans le va-et-vient d’un dialogue. Je situe cette phrase dans l’histoire et l’avenir possible d’une relation, au sein d’un contexte pratique particulier. D’autre part, une expression symbolique fait le plus souvent référence à une objectivité, à une réalité extra-linguistique, voir extra-sociale. Enfin, elle éveille en moi une foule de résonnances affectives plus ou moins conscientes.
En somme, l’image symbolique, qui est sensible et matérielle, va déclancher dans l’esprit humain la production et le tissage cohérent d’un sens intelligible à partir d’une multitude de fils sémantiques : un sens conceptuel ; un sens narratif par la reconstitution d’arbres syntaxiques et de groupes de substitution paradigmatiques ; un sens intersubjectif et social ; un sens référentiel objectif ; un sens affectif et mémoriel. C’est dire que, une fois recueilli par l’intelligence humaine, un texte matériel devient solidaire de toute une complexité immatérielle, complexité qui n’est nullement aléatoire mais au contraire fortement structurée par les langues, les rituels de dialogue et les règles sociales, la logique des émotions, la cohérence contextuelle inhérente aux corpus et aux mondes de référence. La capacité des modèles de langue à « raisonner » et à répondre aux requêtes de manière pertinente est un effet de corpus, en rapport avec la priorité accordée aux données d’entraînement dialogiques et à celles qui adoptent un style démonstratif. Les énormes données d’apprentissage permettent une capture statistique des normes de discours.
Or c’est précisément cette solidarité entre la partie matérielle des textes – désormais numérisés – et leur partie immatérielle que va capter l’intelligence artificielle. N’oublions pas que seul le signifiant (les séquences de 0 et de 1) existe pour les machines. Pour elles, il n’y a ni concepts, ni récits, ni sujets, ni mondes de référence réels ou fictifs, ni émotions, ni résonnances liées à une mémoire personnelle et encore moins un quelconque enracinement dans une expérience sensible de type animal. Ce n’est que grâce à la quantité gigantesque des données d’entraînement et à l’énorme puissance des centres de calcul contemporains que les modèles statistiques parviennent à réifier la relation entre la forme sensible des textes et les multiples couches de sens que détecte spontanément un lecteur humain.
Données d’entraînement et puissance de calcul
L’IA contemporaine repose sur quatre piliers : 1) les données d’entraînement, 2) la puissance de calcul, 3) les algorithmes de traitement statistique qui simulent grossièrement des réseaux neuronaux (deep learning), 4) les résultats de divers travaux “manuels” tels que les bases de données spécialisées, les graphes de connaissances qui catégorisent et structurent les données, les retours d’évaluation in vivo qui permettent des réglages fins.
Examinons plus en détail les deux premiers piliers. Les archives et mémoires analogiques ont pour la plupart été numérisées. La plus grande partie de la mémoire collective est maintenant directement produite sous forme numérique. 68% de la population mondiale était connectée à Internet en 2025 (seuls 2% de la population mondiale l’était en 2000). La foule présente en ligne produit et consomme une quantité phénoménale d’information. Or le plus petit geste dans une application, le moindre regard vers un écran alimentent les données d’entraînement des IA. Les algorithmes sont capables de prendre en compte plusieurs pages dans leur “attention” statistique. Les vastes corpus d’entraînement fournissent des contextes élargis qui permettent de raffiner le sens des mots et des expressions au-delà de ce qu’un dictionnaire pourrait proposer. On comprend donc que les modèles de langue puissent calculer des corrélations entre signifiants matériels qui impliquent – pour un lecteur humain – les significations immatérielles correspondantes. Mais il faut mobiliser pour cela une puissance de calcul inouïe. Alphabet, Amazon, Apple, Meta, Microsoft, NVIDIA et Tesla ont dépensé plus de 100 milliards de dollars dans la construction de centres de données entre Aout et Octobre 2025. Des centrales nucléaires dédiées vont bientôt alimenter les centres de données en électricité. La puissance de calcul agrégée du monde est plusieurs millions de fois supérieure à ce qu’elle était au début du 21e siècle.
Conclusion
Récapitulons les différents aspects de l’intelligence et du travail humain qui permettent aux IA de nous donner l’impression qu’elles comprennent le sens des textes. Les industriels fabriquent les installations qui supportent la puissance de calcul. Les informaticiens conçoivent et implémentent les logiciels qui effectuent les traitements statistiques. Des ontologistes (dont je suis) créent des règles, des systèmes d’étiquettes sémantiques, des graphes de connaissance et des bases de données spécialisées qui corrigent la dimension purement probabiliste des sytèmes d’IA. Des armées d’employés trient, collectent et préparent les données, puis supervisent l’entraînements des modèles. Des testeurs raffinent les réponses données par les machines, détectent leurs biais et tentent de les réduire. Je n’ai pas encore énuméré les deux facteurs qui expliquent le mieux l’intelligence des modèles de langue. Car c’est l’intelligence collective humaine qui produit les données d’entraînement, données qui enveloppent la solidarité entre les textes et leur sens. Enfin, à partir des images signifiantes générées sur un mode probabiliste par des modèles mécaniques et inconscients, c’est bel et bien l’esprit des utilisateurs vivants qui évoque des concepts, des récits, des intentions référentielles, la cohérence d’un monde réel ou fictif, une intersubjectivité dialogante, des intuitions spatio-temporelles et enfin des émotions, toutes dimensions du sens qui sont le propre de l’intelligence humaine.
En fin de compte, l’IA fonctionne comme une interface mécanique entre l’intelligence collective qui produit les données d’entraînement et les intelligences individuelles qui interrogent les modèles, lisent leurs réponses et les utilisent. Cette interface robotique entre les intelligences personnelles vivantes et l’intelligence collective accumulée augmente aussi bien – et de manière synergique – les unes que l’autre. Tel est le secret de l’intelligence artificielle, bien caché sous la fiction d’une IA autonome, qui “dépasse” l’intelligence humaine, alors qu’elle l’exprime et l’augmente. Dans ses effets concrets, ce nouveau système d’alimentation réciproque de l’intelligence individuelle et de l’intelligence collective peut contribuer à l’abrutissement des masses paresseuses et à l’extension de la banalité, comme il peut démultiplier les capacités créatives des savants et des penseurs originaux. Entre les deux, toutes les nuances de gris sont possibles. Dans l’éventail des possibilités entre ces deux extrêmes se trouve sans doute l’ultime choix éthique qui, bien qu’il concerne chacun d’entre nous, se pose de manière encore plus aiguë pour les éducateurs qui doivent enseigner l’art de lire, d’écrire et de penser. [Voir mon entrée de blog consacrée à ce sujet].
Il s’agit là du texte – simplifié et raccourci – de la communication que j’ai délivrée le 28 octobre 2025 à la PUC-RS à Porto Alegre devant les étudiants en maîtrise et doctorat de sciences humaines accompagnés de leurs professeurs.
Définissons l’humanisme d’abord comme une réflexion sur l’essence de l’Homme qui se caractérise par son abstraction et se situe dans un horizon d’universalité. Deuxièmement, fondé sur cette réflexion, l’humanisme se préoccupe du bien de l’Homme, c’est dire qu’il a une visée normative, éthique.
Karl Jaspers a nommé “période axiale” le milieu du premier millénaire avant notre ère, ce moment de l’histoire où Confucius en Chine, le Bouddha en Inde, Zarathoustra en Perse, les prophètes hébreux en Israel et Socrate en Grèce ont fondé, chacun à leur manière, de grandes traditions humanistes. On notera qu’il s’agit toujours d’une affaire de lettrés, basée sur l’usage de l’alphabet ou d’un système de caractères standardisés comme en Chine. En ce temps là, les chaînes de traditions orales commençaient à être notées, les textes manuscrits, réécrits à chaque copie, étaient fluides, éclatés entre de multiples versions. Quant aux auteurs réels, anonymes et pluriels, ils se dissimulaient souvent sous l’autorité de grands ancêtres mythiques.
La Bible et la littérature gréco-romaine sont les deux grandes racines de l’humanisme occidental. Je laisse de côté la Bible que je n’ose évoquer devant des frères maristes qui en savent plus que moi sur ce sujet et je me contenterai d’évoquer l’humanisme gréco-romain. La païdéia grecque et l’humanitas romaine (qui en est la traduction) reposent sur trois grands piliers: les lettres, l’ouverture d’esprit et le sentiment de la dignité humaine.
Les lettres comprennent ici la maîtrise du langage et de l’écriture (la grammaire), la science du raisonnement et du dialogue contradictoire (la dialectique), l’art de convaincre, enfin, essentiel dans cette culture d’orateurs politiques et d’avocats (la rhétorique). L’encyclopédie lettrée supposait la connaissance des sciences de l’époque et surtout une immersion de l’esprit dans le corpus des auteurs classiques : poètes, dramaturges et philosophes.
L’ouverture d’esprit se manifeste dans cette maxime célèbre tirée d’une pièce de Térence (2e siècle avant notre ère) : “Rien de ce qui est humain ne m’est étranger”. La phrase est elle-même inspirée de Ménandre, auteur de théâtre de l’époque hellénistique.
Le troisième point, qui définit encore aujourd’hui le fondement de l’attitude morale humaniste, est le primat de la dignité humaine. On pourrait prétendre que les romains et les grecs, qui pratiquaient l’esclavage, n’ont pas été à la hauteur de leurs propres principes. Sans doute. Mais il faut rappeler que presque toutes les sociétés ont pratiqué l’esclavage ou le servage, dont l’abolition ne date que du 19e siècle. Or, malgré leur statut juridique inférieur, on pouvait traiter les esclaves de manière “humaine” ou pas. L’auteur de théâtre Térence, que j’ai cité plus haut, et le philosophe stoïcien Épictète sont nés esclaves et ils ont été affranchis par des maîtres qui admiraient leurs talents.
L’histoire des technologies symboliques rythme celle de l’humanisme. À la Renaissance, l’imprimerie, en mécanisant la reproduction des textes, rend disponible les copies et les traductions. L’édition devient une industrie et la littérature moderne se développe. Il en résulte la naissance de l’auteur moderne, source d’un texte original, qui se matérialisera à la fin du 18e et surtout au 19e siècle par l’apparition du droit d’auteur.
Les “humanistes” de la Renaissance éditent, fixent, traduisent et impriment les textes anciens qui appartiennent aux traditions bibliques et gréco-latines. Émerge alors la critique textuelle, à savoir l’établissement des textes à partir de copies divergentes. Les studia humanitatis regroupent alors la connaissance de l’Hébreu, du Grec et du Latin. Au-delà de la compétence linguistique, le métier d’humaniste suppose une intimité avec les grands textes de la littérature et de la philosophie, une nouvelle sensibilité à la philologie, à l’histoire et aux contextes de rédaction qui aboutira au 19e siècle à la naissance de l’herméneutique moderne.
La critique textuelle mène insensiblement à l’esprit critique. Luther initie le schisme de la chrétienté latine en contestant l’autorité de l’Église qu’il déplace sur les Écritures saintes, désormais disponibles en langues vernaculaires: c’est le fameux slogan “Sola scriptura“. Première figure de l’intellectuel européen, Érasme de Rotterdam vit de sa plume grâce à l’imprimerie, navigue dans un réseau intellectuel transnational, n’hésite pas à critiquer la société et les élites de son temps (comme dans son célèbre Éloge de la folie), et s’établit par son œuvre monumentale comme un des principaux éditeurs, philologues, traducteurs, théologiens et pédagogues de l’Europe. Face à la montée des haines religieuses (et contrairement au boute-feu Luther), Érasme défend un humanisme chrétien pacifique.
Au début du 19e siècle un débat, particulièrement illustré par le pédagogue Friedrich Niethammer, partage les esprits en Allemagne. Faut-il centrer l’éducation – qui vise de plus en plus l’ensemble du peuple – sur les matières “utiles” de type scientifique et technique ou bien plutôt sur le développement de l’esprit, du goût, du jugement moral autonome et sur la capacité à s’inscrire dans une culture partagée grâce à l’étude des textes anciens? La première option, plus immédiatement pratique, se nomme alors philanthropie. Quant à la seconde option, qui insiste sur la formation de la personne ou “bildung”, elle est baptisée humanisme. Dans le monde occidental, ce débat va durer jusqu’au 20e siècle inclus, jusqu’à ce que la formation dite humaniste ne soit plus réservée qu’à une petite minorité de spécialistes professionnels et ne constitue plus l’armature de l’éducation de la majorité, ni même celle des élites.
Dans la seconde moitié du 19e siècle, l’historien Jacob Burckhardt redéfinit l’humanisme (qu’il conçoit comme un fruit de la Renaissance européenne) comme une orientation philosophique et pratique vers l’autonomie de l’esprit humain s’émancipant du clan familial, de la classe sociale et de l’autorité de l’église qui étouffent la liberté individuelle. Les idées de Burckhardt auront une grande influence sur Nietzsche, lui-même philologue de profession et fort sensible au caractère historique des manières de vivre et de penser.
Résultant d’une évolution qui avait commencé dès la Renaissance, entre les 19e et 20e siècles, l’humanisme se centre sur la valeur et la dignité de l’Homme, adopte une éthique universaliste, se situe dans une perspective générale d’émancipation ou de gain d’autonomie ; enfin, il accorde une importance privilégiée aux études littéraires et artistiques pour le développement de la personne. Cette approche a fait l’objet de nombreuses critiques en provenance des théologiens chrétiens, des penseurs socialistes et des contempteurs de la morale ordinaire. Mais je ne m’attarderai pas ici à ces nombreuses contestations, qui sont devenues particulièrement vives à partir de la fin de 1ère guerre mondiale, perçue comme un effondrement de l’humanisme européen.
Si l’humanisme naît avec l’alphabet dans un milieu lettré et renaît avec l’imprimerie, que devient-il lorsque le numérique s’affirme comme la technologie symbolique dominante? Déterminons les principaux caractères de la métamorphose du texte au 21e siècle. Toutes les expressions symboliques sont rassemblées et interconnectées dans une mémoire numérique universelle omniprésente. La manipulation des symboles (et non seulement leur reproduction et leur transmission) est automatisée. Les textes peuvent être générés, traduits, et résumés automatiquement. Les masses de données numériques entrainent l’intelligence artificielle générative (IA), qui devient la voix probabiliste de la mémoire collective. Paradoxalement l’IA représente d’autant mieux la tradition qu’on l’interroge sur des textes du canon humaniste souvent édités, traduits et commentés tels que la Bible, les pères de l’Église, Homère, Platon, Aristote, les grandes œuvres littéraires et philosophiques occidentales, sans oublier les œuvres capitales et textes sacrés des autres traditions. En revanche, plus on s’approche d’œuvres et de thèmes contemporains et plus l’IA exprime l’opinion : la rumeur et les échos de la caverne de Platon, désormais numérique.
L’humanisme n’a jamais été autant critiqué qu’en ce 21e siècle. Le posthumanisme dénonce nos illusions sur la permanence d’une humanité désormais obsolète, hybridée ou dépassée par les machines et les biotechnologies. L’écologisme et l’antispécisme critiquent notre anthropocentrisme : ayant pris conscience des ravages de l’anthropocène, du changement climatique et de l’effondrement de la diversité biologique il nous faudrait renoncer à l’humanisme qui voit en l’Homme le « maître et possesseur de la nature ». Enfin, pour les tenants d’une certaine sociologie critique (marxisme, anti-impérialisme, féminisme intersectionnel), l’humanisme universaliste masquerait la domination d’une partie de l’humanité sur une autre.
Mais il ne faut pas confondre l’humanisme avec son invocation hypocrite ou sa caricature. l’humanité n’est pas obsolète. Les derniers développements de la technique confirment, s’il en était besoin, la singularité à la fois terrible et merveilleuse de notre espèce. C’est précisément parce que nous avons – en tant qu’êtres humains – une capacité symbolique qui nous ouvre à la conscience morale que nous devons prendre la responsabilité de la biosphère et défendre la dignité intrinsèque de tous les êtres humains.
Dans le prolongment de son évolution historique et des contre-courants qui s’y sont opposés tout en l’enrichissant, je voudrais maintenant articuler ma propre version de l’humanisme au 21e siècle. Je vais énoncer quelques principes fort simples qui, à mon sens, devraient guider la communauté des “humanités” désormais numériques.
À la racine se trouve un certain rapport à la parole et à la tradition. Un humaniste reconnait le poids existentiel de la parole et considère le langage comme le milieu éminent du sens. À une époque de démystification et de critique tous azimuts, il faut réapprendre à cultiver une révérence pour les textes et les symboles. Plutôt que de rejeter aveuglément les traditions, dans une logique de “table rase”, nous devrions travailler à les recueillir, non pour les réifier ou les maintenir inchangées mais pour les faire vivre au présent, les réinterpréter et les transmettre.
Les trois pratiques humanistes par excellence – lire, écrire, penser – se conditionnent mutuellement.
La lecture est essentiellement un rapport à la bibliothèque, que son support soit l’encre et le papier ou l’écran et l’électron. En tant qu’humaniste, ma vocation est d’accueillir, autant que possible, la source de sens virtuellement infinie de la bibliothèque. En lisant, je dé-couvre sous un texte une parole vivante qui s’adresse à moi. Afin de recueillir le sens du texte, je ne m’enferme pas dans une seule méthodologie mais je mobilise la philologie, les analyses formelles, l’histoire, les influences. Chaque texte peut être interprété sur le fond d’une multiplicité de corpus (celui de l’auteur, de l’époque, du genre, du sujet, etc.) si bien que la figure unique du texte donne lieu à plusieurs formes selon les perspectives. L’IA ne doit jamais se substituer à la lecture. Rien ne remplace la relation directe avec un texte. En revanche, l’IA peut augmenter la lecture par des explications, des commentaires, des références, voire l’évocation d’une littérature secondaire. Ne plus lire à la première personne, c’est cesser d’apprendre et renoncer à comprendre.
Passons maintenant à l’écriture. Écrire, c’est s’incrire dans le temps, entretenir un rapport au passé, au présent et à l’avenir. Dans la relation au passé, l’écriture se confronte aux canons et aux corpus. L’auteur soliste ne chante jamais qu’accompagné par le chœur fantomatique des générations disparues. Dans le présent vivant, je participe à un dialogue de lettrés où se croisent mémoire collective (peut-être portée par l’IA) et mémoire personnelle. J’articule une parole vivante qui s’adresse à l’autre pour faire jaillir un sens contemporain. Dans mon rapport à l’avenir, j’ajoute à une mémoire collective qui contribue à entraîner les IA et qui touchera peut-être l’esprit des générations futures. Quelle responsabilité! Sauf pour les tâches administratives, l’IA ne doit jamais se substituer à l’écriture. Mais elle peut la préparer en rédigeant des fiches ou en organisant des notes, comme le ferait un assistant. Elle peut aussi parfaire un texte en travaillant à son édition ou à sa bibliographie. Ne plus écrire à la première personne, c’est cesser de penser.
Et justement, qu’est-ce que penser en humaniste ? Il s’agit d’abord d’enrichir notre mémoire personnelle, qui est le fondement de la pensée vivante. Ce n’est pas parce que “tout” se trouve sur internet que nous devons cesser de cultiver notre mémoire individuelle. Et cela précisément parce que la pensée est un dialogue des mémoires. Elle se tisse en effet dans une dialectique entre la mémoire collective représentée aujourd’hui par l’IA, la mémoire personnelle de chacun d’entre nous et le dialogue ouvert – contradictoire et complice – avec nos pairs et contemporains. Plus riche est notre mémoire personnelle et mieux nous pouvons exploiter les ressources de l’IA, poser les bonnes questions, repérer les hallucinations, éclairer les angles morts. En aucun cas l’IA ne peut se substituer à l’ignorance. Mais elle peut servir de conseillère et d’entraîneuse pour nos apprentissages. Ignorants, nous serons manipulés et induits en erreur par les modèles de langue. Par contraste, plus nous sommes savants et mieux nous pouvons maîtriser l’IA qui, quoiqu’elle soit aujourd’hui l’environnement de la pensée ou le nouveau sensorium, n’est jamais qu’un outil.
Aujourd’hui, le monde entier se précipite vers l’IA statistique, les modèles neuronaux et/ou l’IA générative. Mais nous savons que, bien que ces modèles soient utiles, nous avons toujours besoin de modèles symboliques ou, si vous préférez, de graphes de connaissances, en particulier dans le domaine de la gestion des connaissances.
Mais pourquoi exactement avons-nous encore besoin de modèles symboliques en plus des modèles neuronaux ? Parce que les modèles symboliques sont capables de représenter la connaissance de manière explicite, ce qui comporte beaucoup d’avantages, notamment la transparence et l’explicabilité. Dans cet exposé, je vais plaider en faveur de l’interopérabilité sémantique (ou conceptuelle) entre les graphes de connaissances, et je présenterai IEML, un langage que j’ai inventé à la Chaire de Recherche du Canada en intelligence collective (2002-2016) avec l’aide de mon équipe d’ingénieurs.
Figure 1
Si vous êtes familier avec le domaine de la gestion des connaissances, vous savez qu’il existe une dialectique entre les connaissances implicites (en bleu sur la Figure 1) et les connaissances explicites (en rouge sur la Figure 1).
Il existe actuellement deux façons principales de traiter les données pour la gestion des connaissances.
Via des modèles neuronaux, basés principalement sur les statistiques, pour l’aide à la décision, la compréhension automatique et la génération de données.
Via des modèles symboliques, basés sur la logique et la sémantique, pour l’aide à la décision et la recherche avancée.
Ces deux approches sont généralement distinctes et correspondent à deux cultures d’ingénieurs différentes. En raison de leurs avantages et de leurs inconvénients, les gens essaient de les combiner.
Clarifions maintenant la différence entre les modèles ” neuronaux ” et ” symboliques ” et comparons-les à la cognition neuronale et symbolique chez les êtres humains.
Le grand avantage des modèles neuronaux est leur capacité à synthétiser et à mobiliser la mémoire numérique “juste à temps”, ou “à la demande”, et à le faire automatiquement, ce qui est impossible pour un cerveau humain. Mais leur processus de reconnaissance et de génération de données est statistique, ce qui signifie qu’ils ne peuvent pas organiser un monde, ils ne maîtrisent pas la conservation des objets, ils n’ont pas de compréhension du temps et de la causalité, ou de l’espace et de la géométrie. Ils ne peuvent pas toujours reconnaître les transformations d’images d’un même objet comme le font les êtres vivants.
En revanche, les neurones vivants peuvent faire des choses que les neurones formels actuels ne peuvent pas faire. Les animaux, même sans modèles symboliques, avec leurs neurones naturels, sont capables de modéliser le monde, d’utiliser des concepts, ils conservent les objets malgré leurs transformations, ils appréhendent le temps, la causalité, l’espace, etc. Et les cerveaux humains ont la capacité de faire fonctionner des systèmes symboliques, comme le langage.
Quels sont les aspects positifs des modèles symboliques de l’IA, ou graphes de connaissances?
Il s’agit de modèles explicites du monde, plus précisément d’un monde pratique local.
Ils sont en principe auto-explicatifs, si le modèle n’est pas trop complexe.
ils ont de fortes capacités de raisonnement.
Tout cela les rend plutôt fiables, comparativement aux modèles neuronaux, qui sont probabilistes. Cependant, les modèles symboliques actuels présentent deux faiblesses.
Leur conception prend du temps. Ils sont coûteux en termes de main-d’œuvre spécialisée.
Ils n’ont ni “conservation des concepts” ni “conservation des relations” entre les ontologies ou domaines. Dans un domaine particulier donné, chaque concept et chaque relation doivent être définis logiquement un par un.
S’il existe une interopérabilité au niveau des formats de fichiers pour les métadonnées sémantiques (ou les systèmes de classification), cette interopérabilité n’existe pas au niveau sémantique des concepts, ce qui cloisonne les graphes de connaissances, et par conséquent l’intelligence collective.
En revanche, dans la vie réelle, des humains issus de métiers ou de domaines de connaissances différents se comprennent en partageant la même langue naturelle. En effet, dans la cognition humaine, un concept est déterminé par un réseau de relations inhérent aux langues naturelles.
Mais qu’est-ce que j’entends par “le sens d’un concept est déterminé par un réseau de relations inhérent aux langues naturelles” ? Quel est ce réseau de relations ? Et pourquoi est-ce que je le souligne dans cet article ? Parce que je crois que l’IA symbolique actuelle passe à côté de l’aspect sémantique des langues. Faisons donc un peu de linguistique pour mieux comprendre.
Figure 2
Toute langue naturelle tisse trois types de relations : l’interdéfinition, la composition et la substitution.
Tout d’abord, le sens de chaque mot est défini par une phrase qui implique d’autres mots, eux-mêmes définis de la même manière. Un dictionnaire englobe notamment une inter-définition circulaire ou enchevêtrée de concepts.
Ensuite, grâce aux règles de grammaire, on peut composer des phrases originales et comprendre de nouveaux sens.
Enfin, tous les mots d’une phrase ne peuvent pas être remplacés par n’importe quel autre ; il existe des règles pour les substitutions possibles qui contribuent au sens des mots et des phrases.
Vous comprenez la phrase “Je peins la petite pièce en bleu” (voir Figure 2) parce que vous connaissez les définitions de chaque mot, vous connaissez les règles grammaticales qui donnent à chaque mot son rôle dans la phrase, et vous savez par quoi les mots actuels pourraient être remplacés. C’est ce qu’on appelle la sémantique linguistique.
Il n’est pas nécessaire de définir une à une ces relations d’inter-définition, de composition et de substitution entre concepts chaque fois que l’on parle de quelque chose. Tout cela est inclus dans la langue. Malheureusement, nous ne disposons d’aucune de ces fonctions sémantiques lorsque nous construisons les graphes de connaissances actuels. Et c’est là qu’IEML pourrait contribuer à améliorer les méthodes de l’IA symbolique et de la gestion des connaissances.
Pour comprendre mon argumentation, il est important de faire la distinction entre la sémantique linguistique et la sémantique référentielle. La sémantique linguistique concerne les relations entre les concepts. La sémantique référentielle concerne les relations entre les propositions et les états de choses ou entre les noms propres et les individus.
Si la sémantique linguistique tisse des relations entre les concepts, pourquoi ne pouvons-nous pas utiliser les langues naturelles dans les modèles symboliques ? Nous connaissons tous la réponse. Les langues naturelles sont ambiguës (grammaticalement et lexicalement) et les machines ne peuvent pas désambiguïser le sens en fonction du contexte. Dans l’IA symbolique actuelle, nous ne pouvons pas compter sur le langage naturel pour susciter organiquement des relations sémantiques.
Alors, comment construit-on un modèle symbolique aujourd’hui ?
Pour définir les concepts, nous devons les relier à des URI (Uniform Resource Identifier) ou à des pages web, selon le modèle de la sémantique référentielle.
Mais comme la sémantique référentielle est insuffisante pour décrire un réseau de relations, au lieu de s’appuyer sur la sémantique linguistique, il faut imposer des relations sémantiques aux concepts un par un.
C’est la raison pour laquelle la conception des graphes de connaissances prend tant de temps et c’est aussi pourquoi il n’existe pas d’interopérabilité sémantique générale des graphes de connaissances entre les ontologies ou les domaines de connaissance. Encore une fois, je parle ici d’interopérabilité au niveau sémantique ou conceptuel et non au niveau du format.
Afin de pallier les insuffisances des modèles symboliques actuels, j’ai construit un métalangage qui présente les mêmes avantages que les langues naturelles, à savoir un mécanisme inhérent de construction de réseaux sémantiques, mais qui n’a pas leurs inconvénients, puisqu’il est sans ambiguïté et calculable.
IEML (le méta-langage de l’économie de l’information), est un métalangage sémantique non ambigu et calculable qui inclut un système d’inter-définition, de composition et de substitution de concepts.
L’objectif de cette invention est de faciliter la conception de graphes de connaissances et d’ontologies, d’assurer leur interopérabilité sémantique et de favoriser leur conception collaborative. La vision qui inspire IEML est une intelligence collective à support numérique et augmentée par l’IA.
IEML a le pouvoir d’expression d’un langage naturel et possède une structure algébrique qui lui permet d’être entièrement calculable. IEML n’est pas seulement calculable dans sa dimension syntaxique, mais aussi dans sa dimension sémantique linguistique, car ses relations sémantiques (en particulier les relations de composition et de substitution) sont des fonctions calculables de ses relations syntaxiques. Il n’existe aujourd’hui aucun autre système symbolique ayant ces propriétés.
IEML dispose d’une grammaire entièrement régulière et récursive ainsi que d’un dictionnaire de trois mille mots organisés en paradigmes (systèmes de substitution) permettant la construction (récursive et grammaticale) de n’importe quel concept. En somme, tout concept peut être construit à partir d’un petit nombre de briques lexicales selon des règles de composition universelles simples.
Comme chaque concept est automatiquement défini par des relations de composition et de substitution avec d’autres concepts et par des explications impliquant les concepts de base du dictionnaire et conformes à la grammaire IEML, IEML est son propre métalangage. Il peut traduire n’importe quelle langue naturelle. Le dictionnaire en IEML est actuellement traduit en français et en anglais.
IEML permet de coupler les modèles symboliques et neuronaux, et de surmonter leurs limitations et séparations dans une architecture innovante et intégrée.
Figure 3
La diapositive ci-dessus (Figure 3) présente la nouvelle architecture sémantique pour la gestion des connaissances qu’IEML rend possible, une architecture qui conjoint les modèles neuronaux et symboliques.
La seule chose qui puisse générer tous les concepts dont nous avons besoin pour exprimer la complexité des domaines de connaissance, tout en maintenant la compréhension mutuelle, est une langue. Mais les langues naturelles sont irrégulières et ambiguës, et leur sémantique ne peut être calculée. IEML étant un langage algébrique univoque et formel (contrairement aux langues naturelles), il peut exprimer tous les concepts possibles (comme dans les langues naturelles), et ses relations sémantiques sont densément tissées grâce à un mécanisme intégré. C’est pourquoi nous pouvons utiliser IEML comme un langage de métadonnées sémantiques pratique pour exprimer n’importe quel modèle symbolique ET nous pouvons le faire de manière interopérable. Encore une fois, je parle d’interopérabilité conceptuelle. En IEML, tous les modèles symboliques peuvent échanger des modules de connaissance et le raisonnement transversal aux ontologies devient la norme.
Comment les modèles neuronaux sont-ils utilisés dans cette nouvelle architecture ? Les modèles neuronaux traduisent automatiquement le langage naturel en IEML, donc pas de travail ou d’apprentissage supplémentaire pour le profane. Ils pourraient même aider à traduire des descriptions informelles en langage naturel en un modèle formel exprimé en IEML.
Les consignes (prompts) seraient exprimées en IEML en coulisse, de sorte que la génération de données soit mieux contrôlée.
Nous pourrions également utiliser des modèles neuronaux pour classer ou étiqueter automatiquement des données en IEML. Les étiquettes exprimées en IEML permettront un apprentissage automatique plus efficace, car les unités ou “tokens” pris en compte ne seraient plus des unités sonores – caractères, syllabes, mots – des langues naturelles, mais des concepts générés par une algèbre sémantique.
Quels seraient les avantages d’une architecture intégrée de gestion des connaissances utilisant IEML comme système de coordonnées sémantiques ?
Les modèles symboliques et neuronaux fonctionneraient ensemble au profit de la gestion des connaissances.
Un système de coordonnées sémantiques commun faciliterait la mutualisation des modèles et des données. Les modèles symboliques seraient interopérables et plus faciles à concevoir et à formaliser. Leur conception serait collaborative, y compris d’un domaine à l’autre. L’usage d’un métalangage sémantique comme IEML amélioreraient également la productivité intellectuelle grâce à une automatisation partielle de la conceptualisation.
Les modèles neuronaux seraient basés sur des étiquettes codées en IEML et donc plus transparents, explicables et fiables. L’avantage serait non seulement technique, mais aussi d’ordre éthique.
Enfin, cette architecture favoriserait la diversité et la liberté de création, puisque les réseaux de concepts, ou graphes de connaissances, formulés en IEML peuvent être différenciés et complexifiés à volonté.
Je viens de terminer la lecture de l’Introduction à la philosophie de l’histoire, de Raymond Aron. Il s’agit de sa “thèse principale” soutenue en 1938 (10 jours après l’Anschluss). Le propos est dense, truffé de références à la philosophie et à la sociologie allemande de la fin du XIXe et du début du XXe siècle. Le livre est organisé en questions auxquelles répondent des thèses opposées dont l’auteur examine systématiquement les arguments avant de trancher à sa manière. Au centre de l’ouvrage: les rapports entre pratique historienne et philosophie pour des savants plongés dans des situations concrètes et qui entretiennent nécessairement des vues politiques, morales et métaphysiques particulières. Sont notamment abordées les notions de temps, de compréhension, de causalité et de scientificité de la discipline historique. L’ouvrage se clôt en interrogeant la validité de quelques grandes philosophies de l’histoire (spécialement l’idée de progrès et le marxisme) et le sens des concepts de liberté et d’engagement pour une humanité inéluctablement vouée à l’histoire. Les quelques mentions du racisme comme philosophie de l’histoire – que Raymond Aron n’endosse nullement – nous rappellent l’ambiance de l’époque où il écrivait. Le sous-titre de l’ouvrage “Essai sur les limites de l’objectivité historique” suggère le principal résultat atteint par Aron : il s’agit d’une leçon d’humilité intellectuelle et de scepticisme critique qui rappelle que le choix des sujets, les découpages conceptuels et les structures narratives de l’historien sont contingents. Malgré la mise en évidence des limites de la connaissance historique, notre auteur fait droit à la recherche de la vérité dans le respect des faits et de la cohérence logique ; il ne verse jamais dans le relativisme ou le nihilisme.
Malgré la difficulté de lecture due au caractère compact de l’argumentation, le lecteur contemporain est frappé par l’absence de jargon. On est encore à l’époque de Bergson et d’Alain. Aron ne prétend pas créer de “nouveaux concepts” en forme de mots d’ordre, ni à “révolutionner” quoi que ce soit ou à proclamer “la fin” de ceci ou de cela. Il étudie minutieusement une multitude de théories dont aucune n’est bonne ou vraie absolument, mais dont chacune exprime une face de la réalité. Plusieurs approches apparemment contradictoires peuvent être valides en même temps, pourvu qu’on les aborde de manière dialectique, en ayant bien conscience que les points de vue surplombants et les totalisations résultent de choix qui ne seront jamais garantis par un savoir absolu, inaccessible à l’humain. Dogmatisme et fanatisme sont fermement condamnés ; positivisme scientiste et relativisme irresponsable sont renvoyés dos à dos. Aron défend un humanisme rationnel et un libéralisme modéré non exempts de tragique. Libres malgré les multiples conditionnements et déterminations qui nous définissent, il nous revient de choisir notre engagement dans l’histoire. Un ouvrage à méditer face à la montée des tensions et à l’inflammation des esprits dont nous sommes témoins aujourd’hui.
Bien que les deux camarades de classe à Normale Sup soient politiquement et philosophiquement opposés, Sartre et Aron ont été tous deux fascinés par les thèmes de la liberté et de l’engagement politique. Cohérent avec ses idées, l’auteur de l’Introduction à la philosophie de l’histoire et de L’Opium des Intellectuels s’engagea dans la France Libre pendant la Seconde Guerre mondiale et s’opposa au totalitarisme soviétique à l’époque de la Guerre Froide, à contre-courant de la majeure partie de l’intelligentsia française de l’époque.
Cette entrée de blog propose le texte de ma conférence d’ouverture du Forum “Montréal Connecte” d’octobre 2023 consacré à l’intelligence collective à support numérique. Pour ceux qui préfèrent la vidéo, elle est là (ça commence à la vingtième minute) : https://www.youtube.com/watch?v=dTMU-j8nYio&t=7s
INTRODUCTION
Il y a maintenant presque 30 ans j’ai publié un livre consacré à l’intelligence collective à support numérique qui était, modestie à part, le premier à traiter ce sujet. Dans cet ouvrage, je prévoyais que l’Internet allait devenir le principal medium de communication, que cela provoquerait un changement de civilisation, et je disais que le meilleur usage que nous pouvions faire des technologies numériques était d’augmenter l’intelligence collective (et j’ajoute : une intelligence collective émergente, de type “bottom up”).
Le public de ma conférence d’ouverture à “Montreal Connecte” le 10 octobre 2023
A cette époque moins de 1% de l’humanité était branchée sur l’Internet alors que nous avons aujourd’hui – en 2023 – dépassé les deux tiers de la population mondiale connectée. Le changement de civilisation semble assez évident, bien qu’il faille attendre normalement plusieurs générations pour confirmer ce type de mutation, sans oublier que nous ne sommes qu’au commencement de la révolution numérique. Quant à l’augmentation de l’intelligence collective, de nombreux pas ont été franchis pour mettre les connaissances à la portée de tous (Wikipédia, le logiciel libre, les bibliothèques et les musées numérisés, les articles scientifiques en accès libre, certains aspects des médias sociaux, etc.). Mais beaucoup reste à faire. Utiliser l’intelligence artificielle pour augmenter l’intelligence collective semble une voie prometteuse, mais comment avancer dans cette direction ? Pour répondre à cette question de manière rigoureuse, je vais devoir définir préalablement quelques concepts.
QU’EST-CE QUE L’INTELLIGENCE?
Avant même de traiter la relation entre l’intelligence collective humaine et l’intelligence artificielle, essayons de définir en quelques mots l’intelligence en général et l’intelligence humaine en particulier. On dit souvent que l’intelligence est la capacité de résoudre des problèmes. A quoi je réponds: oui, mais c’est aussi et surtout la capacité de concevoir ou de construire des problèmes. Or si l’on a un problème c’est que l’on essaye d’obtenir un certain résultat et que l’on est confronté à une difficulté ou à un obstacle. Autrement dit, il y a un soi, un même, qu’on appellera l’« Un », qui est pourvu d’une logique interne, qui doit se maintenir dans certaines limites homéostatiques, qui a des finalités immanentes comme la reproduction, l’alimentation ou le développement et il y a un « Autre », une extériorité, qui obéit à une logique différente, qui se confond avec l’environnement ou qui appartient à l’environnement de l’Un et avec qui l’Un doit transiger. L’entité intelligente doit avoir une certaine autonomie, sinon elle ne serait pas intelligente du tout, mais cette autonomie n’est pas une autarcie ou une indépendance absolue car, dans ce cas, elle n’aurait aucun problème à résoudre et n’aurait pas besoin d’être intelligente.
Figure 1
Le rapport entre l’Un et l’Autre peut se ramener à une communication ou une interaction entre des entités qui sont régies par des manières d’être, des codes, des finalités hétérogènes et qui imposent donc un processus incertain et perfectible de codage et de décodage, processus qui engendre forcément des pertes, des créations et qui est soumis à toutes sortes de bruits et de parasitages.
L’entité intelligente n’est pas forcément un individu, ce peut être une société ou un écosystème. D’ailleurs, à l’analyse, on trouvera souvent à sa place un écosystème de molécules, de cellules, de neurones, de modules cognitifs, et ainsi de suite. Quant au rapport entre l’Un et l’Autre, il constitue la maille élémentaire d’un réseau écosystémique quelconque. L’intelligence est le fait d’un écosystème en relation avec d’autres écosystèmes, elle est collective par nature. En somme le problème revient à optimiser la communication avec un Autre hétérogène en fonction des finalités de l’Un et la solution n’est autre que l’histoire effective de leurs relations.
LES COUCHES DE COMPLEXITÉ DE L’INTELLIGENCE
Nous nous interrogeons principalement sur l’intelligence humaine augmentée par le numérique. N’oublions pas, cependant que notre intelligence repose sur des couches de complexité bien antérieures à l’apparition de l’espèce Homo sur la Terre. Les couches de complexité organique et animale sont toujours actives et indispensables à notre propre intelligence puisque nous sommes des êtres vivants pourvus d’un organisme et des animaux pourvus d’un système nerveux. C’est d’ailleurs pourquoi l’intelligence humaine est toujours incarnée et située.
Figure 2
Avec les organismes, viennent les propriétés bien connues d’autoreproduction, d’auto-référence et d’auto-réparation qui s’appuient sur une communication moléculaire et sans doute aussi des formes de communication électromagnétique complexe. Je ne développerai pas ici le thème de l’intelligence organique. Qu’il suffise de signaler que certains chercheurs en biologie et en écologie parlent désormais d’une “cognition végétale”.
Le développement du système nerveux découle des nécessités de la locomotion. Il s’agit d’abord d’assurer la boucle sensori-motrice. Au cours de l’évolution, cette boucle réflexe s’est complexifiée en simulation de l’environnement, évaluation de la situation et calcul décisionnel menant à l’action. L’intelligence animale résulte d’un pli de l’intelligence organique sur elle-même puisque le système nerveux cartographie et synthétise ce qui se passe dans l’organisme et le contrôle en retour. L’expérience phénoménale naît de cette réflexion.
En effet, le système nerveux produit une expérience phénoménale, ou conscience, qui se caractérise par l’intentionnalité, à savoir le fait de se rapporter à quelque chose qui n’est pas forcément l’animal lui-même. L’intelligence animale se représente l’autre. Elle est habitée par des images sensorielles multimodales (cénesthésie, toucher, goût, odorat, audition, vue), le plaisir et la douleur, les émotions, le cadrage spatio-temporel indispensable à la locomotion, le rapport à un territoire, une communication sociale souvent complexe. Il est clair que les animaux sont capables de reconnaître des proies, des prédateurs ou des partenaires sexuels et d’agir en conséquence. Ceci n’est possible que parce que des circuits neuronaux codent des schémas d’interaction ou concepts qui orientent, coordonnent et donnent sens à l’expérience phénoménale.
L’INTELLIGENCE HUMAINE
Je viens d’évoquer l’intelligence animale, qui repose sur le système nerveux. Comment caractériser l’intelligence humaine, supportée par le codage symbolique ? Les catégories générales, concepts et schémas d’interaction qui étaient simplement codés par des circuits neuronaux dans l’intelligence animale sont maintenant aussi représentés dans l’expérience phénoménale par l’intermédiaire des systèmes symboliques, dont le plus important est le langage. Des images signifiantes (paroles, écrits, représentations visuelles, gestes rituels…) représentent des concepts abstraits et ces concepts peuvent se combiner syntaxiquement pour former des architectures sémantiques complexes.
Figure 3
Dès lors, la plupart des dimensions de l’expérience phénoménale humaine – y compris la sensori-motricité, l’affectivité, la spatio-temporalité et la mémoire – se projettent sur les systèmes symboliques et sont contrôlées en retour par la pensée symbolique. L’intelligence et la conscience humaines sont réflexives. En outre, pour que se forme cette pensée symbolique, il faut que des systèmes symboliques, qui sont toujours d’origine sociale, soient internalisés par les individus, deviennent partie intégrante de leur psychisme et s’inscrivent “en dur” dans leurs systèmes nerveux. Il en résulte que la communication symbolique embraye directement sur les systèmes nerveux humains. Nous ne pouvons pas ne pas comprendre ce que dit quelqu’un si nous connaissons la langue. Et les effets sur nos émotions et nos représentations mentales sont quasi inévitables. On pourrait également prendre l’exemple de la synchronisation psycho-physique et affective produite par la musique. C’est pourquoi la cohésion sociale humaine est au moins aussi forte que celle des animaux eusociaux comme les abeilles et les fourmis.
On remarquera que la figure 3, comme plusieurs des figures qui vont suivre, évoque un partage et une interdépendance entre virtuel et actuel. En 1995, j’ai publié un livre sur le virtuel qui était à la fois une méditation philosophique et anthropologique sur le concept de virtualité et un essai de mise au travail de ce concept sur des objets contemporains. Ma thèse philosophique est simple : ce qui n’est que possible, mais non réalisé, n’existe pas. Par contraste, ce qui n’est que virtuel mais non actualisé existe. Le virtuel, ce qui est en puissance, abstrait, immatériel, informationnel ou idéal pèse sur les situations, conditionne nos choix, provoque des effets et entre dans une dialectique ou dans un rapport d’interdépendance avec l’actuel.
L’ÉCOSYSTÈME DE L’INTELLIGENCE COLLECTIVE
La figure 4 ci-dessous cartographie les principaux pôles de l’intelligence collective humaine ou, si l’on préfère, la culture qui vient avec la pensée symbolique. Le diagramme est organisé par deux symétries qui se croisent. La première symétrie – binaire – est celle du virtuel et de l’actuel. L’actuel est plongé dans l’espace et le temps, il est plutôt concret alors que le virtuel est plutôt abstrait et n’a pas d’adresse spatio-temporelle. La seconde symétrie – ternaire – est celle du signe, de l’être (l’interprétant) et de la chose (le référent), qui est inspiré du triangle sémiotique. La chose est ce que représente le signe et l’être est le sujet pour qui le signe représente la chose. A gauche (signe) se tiennent les systèmes symboliques, le savoir et la communication ; au milieu (être) se dressent la subjectivité, l’éthique et la société ; à droite (chose) s’étendent la capacité de faire, l’économie, la technique, la dimension physique. Il s’agit bien d’intelligence collective parce que les six sommets de l’hexagone sont interdépendants: les lignes vertes (les relations) sont aussi importantes, sinon plus, que les points où elles aboutissent.
Figure 4
Cette grille de lecture est valable pour la société en général mais également pour n’importe quelle communauté particulière. Au passage, virtuel, actuel, signe, être et chose sont (avec le vide) les primitives sémantiques du langage IEML (Information Economy MetaLanguage) que j’ai inventé et dont je dirai quelques mots plus bas.
Les six sommets de l’hexagone ne sont pas seulement les principaux points d’appui de l’intelligence collective humaine, ce sont aussi des univers de problèmes à résoudre:
problèmes de création de connaissance et d’apprentissage
problèmes de communication
problèmes de législation et d’éthique
problèmes sociaux et politiques
problèmes économiques
problèmes techniques, problèmes de santé et d’environnement.
Comment résoudre ces problèmes?
LE CYCLE AUTO-ORGANISATEUR DE L’INTELLIGENCE COLLECTIVE
La Figure 5 ci-dessous représente un cycle de résolution de problème en quatre étapes. Pour chacune des quatre phases du cycle (délibération, décision, action et observation), il existe un grand nombre de procédures différentes selon les traditions et les contextes où opère l’intelligence collective. Vous remarquerez que la délibération représente la phase virtuelle du cycle alors que l’action en représente la phase actuelle. Dans ce modèle, la décision fait la transition entre le virtuel et l’actuel tandis que l’observation passe de l’actuel au virtuel. Je voudrais insister ici sur deux concepts, la délibération et la mémoire, auxquels il arrive qu’on ne prête pas assez attention dans ce contexte.
Figure 5
Soulignons d’abord l’importance de la délibération, qui ne consiste pas seulement à discuter des meilleures solutions pour surmonter les obstacles mais aussi à construire et conceptualiser les problèmes de manière collaborative. Cette phase de conceptualisation va fortement impacter et même définir une bonne part des phases suivantes, elle va aussi déterminer l’organisation de la mémoire.
En effet, vous voyez sur le diagramme de la Figure 5 que la mémoire se trouve au centre du processus d’auto-organisation de l’intelligence collective. La mémoire partagée vient en appui de chacune des phases du cycle et contribue au maintien de la coordination, de la cohérence et de l’identité de l’intelligence collective. La communication indirecte par l’intermédiaire d’un environnement partagé est l’un des principaux mécanismes qui sous-tend l’intelligence collective des sociétés d’insectes, que l’on appelle la communication stigmergique dans le vocabulaire des éthologues. Mais alors que les insectes laissent généralement des traces de phéromones dans leurs environnements physiques pour guider l’action de leurs congénères, nous laissons des traces symboliques et cela non seulement dans le paysage mais aussi dans des dispositifs de mémoire spécialisés comme les archives, les bibliothèques et aujourd’hui les bases de données. Le problème de l’avenir de la mémoire numérique est devant nous : comment concevoir cette mémoire de telle sorte qu’elle soit la plus utile possible à notre intelligence collective?
VERS UNE INTELLIGENCE ARTIFICIELLE AU SERVICE DE L’INTELLIGENCE COLLECTIVE
Ayant acquis quelques notions de l’intelligence en général, des fondements de l’intelligence humaine et de la complexité de notre intelligence collective, nous pouvons maintenant nous interroger sur la relation de notre intelligence avec les machines.
Figure 6
La figure 6 propose une vue d’ensemble de notre situation. Au milieu, le « vivant » : les populations humaines, avec les corps actuels et les esprits virtuels des individus. Immédiatement au contact des individus, les machines matérielles (ou corps mécanique) du côté actuel et, du côté virtuel, les machines logicielles (ou esprit mécanique). Les machines matérielles jouent de plus en plus un rôle d’interface ou de medium entre nous et les écosystèmes terrestres. Quant aux machines logicielles, elles sont en train de devenir le principal intermédiaire – un médium encore une fois – entre les populations humaines et les écosystèmes d’idées avec lesquelles nous vivons en symbiose. Quant à la conscience collective, nous n’y sommes pas encore. Elle représente plus un horizon, une direction d’évolution à viser qu’une réalité. Il faut comprendre la Figure 6 en y ajoutant mentalement des boucles de rétroaction ou d’interdépendance entre les couches adjacentes, entre le virtuel et l’actuel, entre le mécanique et le vivant. Sur un plan éthique, on peut faire l’hypothèse que les collectivités humaines vivantes reçoivent les bienfaits des écosystèmes terrestres et des écosystèmes d’idées en proportion du travail et du soin qu’elles apportent à leur entretien.
L’AUTOMATISATION DE L’INTELLIGENCE
Effectuons un zoom avant sur notre environnement mécanique avec la Figure 7. Une machine est un dispositif technique construit par les humains, un automate qui bouge ou fonctionne “tout seul”. Aujourd’hui les deux types de machines – logicielles et matérielles – sont interdépendantes. Elles ne pourraient pas exister l’une sans l’autre et elles sont en principe contrôlées par les collectivités humaines dont elles augmentent les capacités physiques et mentales. Parce que la technique externalise, socialise et réifie les fonctions organiques et psychiques humaines elle peut parfois paraître autonome ou à risque de s’autonomiser, mais c’est une illusion d’optique. Derrière “la machine” il faut entrevoir l’intelligence collective et les rapports sociaux qu’elle réifie et mobilise.
Figure 7
Les machines mécaniques sont celles qui transforment le mouvement, à commencer par la voile, la roue, la poulie, le levier, les engrenages, les ressorts, etc. Citons comme exemples de machines purement mécaniques les moulins à eau ou à vent, les horloges classiques, les presses à imprimer de la Renaissance ou les premiers métiers à tisser.
Les machines énergétiques sont celles qui transforment l’énergie en impliquant de la chaleur ou de l’électricité. Citons les fours, les forges, les machines à vapeur, les moteurs à explosion, les moteurs électriques, et les procédés contemporains pour produire, transmettre et stocker l’électricité.
Quand aux machines électroniques, elles contrôlent l’énergie et la matière au niveau des champs électromagnétiques et des particules élémentaires et servent bien souvent à contrôler les machines de couches inférieures dont, par ailleurs, elles dépendent. Pour ce qui nous intéresse ici, ce sont principalement les centres de données (le “cloud”), les réseaux et les appareils qui sont directement au contact des utilisateurs finaux (le “edge”) tels qu’ordinateurs, téléphones, consoles de jeux, casques de réalité virtuelle et autres.
Abordons la partie virtuelle qui correspond à la mémoire partagée que nous avions mise au centre de notre description du cycle auto-organisateur de l’action collective. Si l’échange de messages point à point a toujours lieu, la majeure part de la communication sociale s’effectue désormais de manière stigmergique dans la mémoire numérique. Nous communiquons par l’intermédiaire de la masse océanique de données qui nous rassemble. Chaque lien que nous créons, chaque étiquette ou hashtag apposée sur une information, chaque acte d’évaluation ou d’approbation, chaque « j’aime », chaque requête, chaque achat, chaque commentaire, chaque partage, toutes ces opérations modifient subtilement la mémoire commune, c’est-à-dire le magma inextricable des rapports entre les données. Notre comportement en ligne émet un flux continuel de messages et d’indices qui transforment la structure de la mémoire, contribuent à orienter l’attention et l’activité de nos contemporains et entraîne les intelligences artificielles. Mais tout cela se fait aujourd’hui d’une manière plutôt opaque, qui ne rend pas justice à la nécessaire phase de délibération et de conceptualisation consciente qui serait celle d’une intelligence collective idéale.
La mémoire comprend avant tout les données qui sont produites, retrouvées, explorées et exploitées par l’activité humaine. Les interfaces Homme-Machine représentent le “front-end” sans lequel rien n’est possible. Elles déterminent directement ce qu’on appelle l’expérience de l’utilisateur. Entre les interfaces et les données, s’interposent principalement deux types de modèles d’intelligence artificielle, les modèles neuronaux et les modèles symboliques. Nous avons vu plus haut que l’intelligence humaine « naturelle » reposait notamment sur un codage neuronal et sur un codage symbolique. Or nous retrouvons ces deux types de codage, ou plutôt leur transposition électronique, à la couche de la mémoire numérique. Remarquons que ces deux approches, neuronale et symbolique, existaient déjà aux premiers temps de l’IA, dès le milieu du XXe siècle.
Les modèles neuronaux sont entraînés sur la multitude des données numériques disponibles et ils en extraient automatiquement des patterns de patterns qu’aucun programmeur humain n’aurait pu tirer au clair. Conditionnés par leur entraînement, les algorithmes peuvent alors reconnaître et produire des données correspondant aux formes apprises. Mais parce qu’ils ont abstrait des structures plutôt que de tout enregistrer, les voici capables de catégoriser correctement des formes (d’image, de texte, de musique, de code…) qu’ils n’ont jamais rencontrées et de produire une infinité d’arrangements symboliques nouveaux. C’est pourquoi l’on parle d’intelligence artificielle générative. L’IA neuronale synthétise et mobilise la mémoire commune. Bien loin d’être autonome, elle prolonge et amplifie l’intelligence collective qui a produit les données. Ajoutons que des millions d’utilisateurs contribuent au perfectionnement des modèles en leur posant des questions et en commentant les réponses qu’ils en reçoivent. On peut prendre l’exemple de Midjourney, dont les utilisateurs s’échangent leurs consignes (prompts) et améliorent constamment leurs compétences en IA. Les serveurs Discord de Midjourney sont aujourd’hui les plus populeux de la planète, avec plus d’un million d’utilisateurs. On commence à observer un phénomène semblable autour de DALLE 3. Une nouvelle intelligence collective stigmergique émerge de la fusion des médias sociaux, de l’IA et des communautés de créateurs. Ce sont des exemples d’une contribution consciente de l’intelligence collective humaine à des dispositifs d’intelligence artificielle.
De nombreux modèles pré-entraînés généralistes sont open-source et plusieurs méthodes sont aujourd’hui utilisées pour les raffiner ou les ajuster à des contextes particuliers, que ce soit à partir de consignes élaborées, d’un entraînement supplémentaire avec des données spéciales ou au moyen de feed-back humain, ou d’une combinaison de ces méthodes. En somme nous disposons aujourd’hui des premiers balbutiements d’une intelligence collective neuronale, qui émerge à partir d’un calcul statistique sur les données. Observons toutefois que les modèles neuronaux, aussi utiles et pratiques qu’ils soient, ne sont malheureusement pas des bases de connaissance fiables. Ils reflètent forcément l’opinion commune et les biais que charrient les données. Du fait de leur nature probabiliste, ils commettent toutes sortes d’erreurs. Enfin, ils ne savent pas justifier leur résultats et cette opacité n’est pas faite pour inciter à la confiance. L’esprit critique est donc plus que jamais nécessaire, surtout si les données d’entrainement sont de plus en plus produites par l’IA générative, ce qui crée un dangereux cercle vicieux épistémologique.
Intéressons-nous maintenant aux modèles symboliques. On les appelle de différents noms : collections de tags ou d’étiquettes, classifications, ontologies, graphes de connaissance ou réseaux sémantique. Ces modèles peuvent se ramener à des concepts explicites et à des relations tout aussi explicites entre ces concepts, y compris des relations causales. Ils permettent d’organiser les données sur un plan sémantique en fonction des besoins pratiques des communautés utilisatrices et ils autorisent le raisonnement automatique. Avec cette approche, on obtient des connaissances fiables, explicables, directement adaptées à l’usage que l’on vise. Les bases de connaissances symboliques sont de merveilleux moyens de partage des savoirs et des compétences, et donc d’excellents outils d’intelligence collective. Le problème vient de ce que les ontologies ou graphes de connaissances sont créées “à la main”. Or la modélisation formelle de domaines de connaissance complexes est difficile. La construction de ces modèles prend beaucoup de temps à des experts hautement spécialisés et coûte donc cher. La productivité de ce travail intellectuel est faible. D’autre part, s’il existe une interopérabilité au niveau des formats de fichiers pour les métadonnées sémantiques (ou systèmes de classification), cette interopérabilité n’existe pas au niveau proprement sémantique des concepts, ce qui cloisonne l’intelligence collective. On utilise Wikidata pour les applications encyclopédiques, schema.org pour les sites web, le modèle CIDOC-CRM pour les institutions culturelles, etc. Il existe des centaines d’ontologies incompatibles d’un domaine à l’autre et souvent même au sein d’un même domaine.
Cela fait des années que de nombreux chercheurs plaident en faveur de modèles hybrides neuro-symboliques afin de bénéficier des avantages des deux approches. Mon message est le suivant: si nous voulons avancer vers une intelligence collective à support numérique digne de ce nom et qui se tienne à la hauteur de nos possibilités techniques contemporaines, il nous faut :
Renouveler l’IA symbolique en augmentant la productivité du travail de modélisation formelle et en décloisonnant les métadonnées sémantiques.
Coupler cette IA symbolique renouvelée avec l’IA neuronale en plein développement.
Mettre cette IA hybride encore inédite au service de l’intelligence collective.
IEML : VERS UNE BASE DE CONNAISSANCE SÉMANTIQUE
Nous avons automatisé et mutualisé la reconnaissance et la génération automatique de formes, qui est plutôt d’essence neuronale. Comment pouvons-nous automatiser et mutualiser la conceptualisation, qui est plutôt d’essence symbolique? Comment faire travailler ensemble la conceptualisation formelle par des êtres pensants et la reconnaissance de formes qui émerge des statistiques?
Figure 8
Parce que notre intelligence collective repose de plus en plus sur une mémoire numérique commune, cela fait trente ans que je cherche ce que pourrait être un système de coordonnées sémantiques pour la mémoire numérique, un système de métadonnées qui permettrait l’automatisation des opérations de conceptualisation et la mutualisation des modèles conceptuels.
Or la seule chose qui soit capable de générer tous les concepts que l’on voudra tout en maintenant la compréhension réciproque, c’est une langue. Mais les langues naturelles sont irrégulières, ambiguës et leur sémantique n’est pas calculable. J’ai donc construit une langue – IEML (Information Economy MetaLanguage) – dont les relations sémantiques internes sont des fonctions des relations syntaxiques. IEML est à la fois une langue et une algèbre. Cette langue est faite pour faciliter et automatiser autant que possible la construction de modèlessymboliques tout en assurant leur interopérabilité sémantique. En somme c’est un outil permettant d’automatiser et de mutualiser la conceptualisation qui a vocation à servir de système de métadonnées sémantiques universel.
Nous pouvons maintenant répondre à notre question principale : comment utiliser l’intelligence artificielle pour augmenter l’intelligence collective? Il faut imaginer un écosystème de bases de connaissances sémantiques organisées selon l’architecture décrite sur la figure 8. Vous voyez qu’entre l’interface Homme-Machine et les données s’interposent trois couches. Au centre la couche des métadonnées sémantiques organise les données sur un plan symbolique et permet, grâce à sa structure algébrique, toutes sortes de calculs uniformes de type logique, analogique et sémantique. Nous savons que la modélisation symbolique est difficile et les éditeurs d’ontologies contemporains ne facilitent pas vraiment la tâche. C’est pourquoi, sous la couche des métadonnées je propose d’utiliser un modèle neuronal pour traduire les systèmes de signes naturels en IEML et vice versa ce qui favoriserait l’édition et l’inspection la plus intuitive possible des modèles sémantiques. Entre la couche des métadonnées et celle des données se trouve encore un modèle neuronal qui permettra la génération automatique de données à partir de consignes (prompts) en IEML. En sens inverse, le modèle neuronal effectuerait la classification automatique des données et leur intégration dans le modèle sémantique de la communauté utilisatrice. Notons que les propriétés algébriques d’IEML visent notamment un perfectionnement de l’apprentissage neuronal.
L’interface Homme-Machine immersive utilisant des signes naturels permettrait à tout un chacun de collaborer à la conceptualisation des modèles au niveau des métadonnées sémantiques et de générer les données appropriées au moyen de consignes (prompts) transparentes. Enfin, cette base de connaissance automatiserait la catégorisation, l’exploitation et l’exploration multimédia des données.
Une telle approche permettrait à chaque communauté de s’organiser selon son propre modèle sémantique tout en supportant la comparaison et l’échange de concepts et de sous-modèles. En somme, un écosystème de bases de connaissances sémantiques utilisant IEML maximiserait simultanément, (1) l’augmentation de la productivité intellectuelle par l’automatisation partielle de la conceptualisation, (2) la transparence des modèles et l’explicabilité des résultats, si importantes d’un point de vue éthique, (3) la mutualisation des modèles et des données grâce à un système de coordonnées sémantique commun, (4) la diversité et la liberté créative puisque les réseaux de concepts formulés en IEML peuvent se différentier et se complexifier à volonté. Un beau programme pour l’intelligence collective. J’appelle de mes vœux une mémoire numérique qui nous permettra de cultiver des écosystèmes d’idées divers, féconds et d’en récolter le maximum de fruits pour le développement humain.
Pierre Lévy lors de la conférence du 10 Octobre 2023. Photo: Luc Courchesne.
“Ce texte propose quelques réflexions philosophiques sur la relation triangulaire entre l’intelligence collective, l’intelligence artificielle et la noble finalité de mettre la connaissance à la portée de tous.”
La valeur du savoir vérifié à l’heure de l’IA générative
Commençons par une citation de Denny Vrandečić, un des initiateurs de Wikidata, qui avait travaillé sur le graphe de connaissances de Google comme ontologiste et qui est aujourd’hui le chef de file du projet “Abstract Wikipedia”[1] visant à rendre les données des articles de Wikipédia indépendants des langues (c’est-à-dire traductibles dans toutes les langues). Denny a déclaré dans sa communication à la Knowledge Graph Conference de mai 2023[2] “In a world of infinite content, knowledge becomes valuable”. Ce monde où les contenus sont potentiellement infinis résulte évidemment de l’usage désormais massif de l’intelligence artificielle générative. Parmi tous les problèmes que posent cette nouvelle situation, citons-en deux, particulièrement prégnants du point de vue de l’accès à la connaissance. Premièrement, malgré les usages qui sont faits des modèles génératifs pour obtenir rapidement des réponses directes, il faut réaffirmer que, contrairement à l’IA symbolique classique du XXe siècle, l’IA statistique (dite aussi neuronale) d’aujourd’hui – limitée à ses seules capacités – n’offre aucune garantie de vérité. GPT4 comme les autres modèles du même genre ne sont pas des bases de connaissances. Les erreurs de fait et de raisonnement sont nombreuses et il suffit d’être spécialiste d’un domaine pour constater les faiblesses de ces IA, comme nous le faisons d’habitude lorsque nous lisons un article portant sur un de nos domaines de compétence quand il est rédigé par un journaliste pressé qui se contente de reformuler la doxa dans laquelle il baigne. Les réponses – probabilistes – de Chat GPT sont seulement vraisemblables. Deuxièmement, comme les modèles d’IA générative sont entraînés sur les données du Web et que celles-ci sont de plus en plus rédigées et illustrées par les modèles en question, on se trouve en présence d’un dangereux cercle vicieux, et cela d’autant plus que les travailleurs au rabais chargés d’aligner les modèles et de redresser leurs biais ou erreurs utilisent eux-mêmes des IA génératives pour accomplir leur tâche![3] Pour s’extraire de ces sables mouvants épistémologiques, il est donc nécessaire d’investir plus que jamais dans la construction de sources d’information fiables. En d’autres termes, l’explosion des usages de l’IA générative, loin de nous dispenser d’alimenter et d’utiliser Wikipédia, Wikidata et d’autres bases de connaissances vérifiées, rend l’effort d’y contribuer et le plaisir de les consulter encore plus nécessaires! Ceci dit, comme nous le verrons par la suite, l’IA neuronale a néanmoins vocation à jouer un rôle positif dans le partage du savoir.
Ce texte propose quelques réflexions philosophiques sur la relation triangulaire entre l’intelligence collective, l’intelligence artificielle et la noble finalité de mettre la connaissance à la portée de tous.
L’intelligence collective
Étroitement définis comme des moyens de résoudre des problèmes, les processus d’intelligence collective[4] se présentent sous de multiples formes, dont les plus étudiées sont les espèces statistique, délibérative et stigmergique[5].
Au début du XXe siècle, en Angleterre, le savant Francis Galton visitait une foire agricole. Un concours avait été organisé: on demandait aux huit cents participants, la plupart éleveurs, de deviner le poids d’un bœuf. Mais aucun d’eux n’avait trouvé le poids exact. Galton fit la moyenne de toutes les évaluations et trouva qu’elle était beaucoup plus proche du poids réel qu’aucune des estimations individuelles. La “sagesse” de la foule était supérieure à chacune des intelligences isolées[6]. Cette forme d’intelligence collective statistique – ou comptable – suppose que les individus ne communiquent pas entre eux et ne se coordonnent d’aucune manière. Elle fonctionne d’autant mieux que la distribution des choix ou des prédictions s’étend sur un large spectre, de sorte que les erreurs et les biais individuels se compensent. Ce type d’intelligence collective suppose – paradoxalement – l’ignorance mutuelle. Elle s’exprime dans les sondages ou dans les élections, lorsqu’il est interdit de communiquer les résultats partiels avant que tout le monde ait voté. Cette approche de l’intelligence collective statistique sans connexion entre ses membres a été notamment popularisée par James Surowiecki dans son livre « la Sagesse des Foules »[7]
Une seconde forme d’intelligence collective, délibérative, repose au contraire sur la communication directe entre les membres d’une communauté. Elle résulte de l’échange des arguments et des points de vue. Face à un problème commun, elle peut converger sur un consensus ou se partager entre quelques solutions dont on a – tous ensemble – pesé le pour et contre. Pourvu que l’écoute soit au rendez-vous, chacun amène son point de vue, sa compétence particulière, qui enrichit le débat général[8]. Ce type d’intelligence collective, apparemment idéale puisqu’elle est ouverte et réflexive, est d’autant plus difficile à mettre en œuvre que la collectivité est étendue. Il faut alors établir des formes de hiérarchie et de délégation, certes indispensables mais qui troublent la transparence de l’intelligence collective à elle-même.
Je voudrais maintenant introduire une forme d’intelligence collective moins connue mais qui n’en est pas moins à l’œuvre dans nombre de sociétés animales et qui a trouvé son plus haut degré d’achèvement dans l’humanité: la communication stigmergique. L’étymologie grecque explique assez bien le sens du mot « stigmergie » : des marques (stigma) sont laissées dans l’environnement par l’action ou le travail (ergon) de membres d’une collectivité, et ces marques guident en retour – et récursivement – leurs actions[9]. Le cas classique est celui des fourmis qui laissent une traîne de phéromones sur leur passage lorsqu’elles ramènent de la nourriture à la fourmilière. L’odeur des phéromones incite d’autres fourmis à remonter leurs traces pour découvrir le butin et ramener des vivres à la ville souterraine en laissant par terre à leur tour un message parfumé. Le langage confère à l’humanité un haut degré d’intelligence collective, supérieur à celui des autres mammifères et comparable à celui des abeilles ou des fourmis. Comme d’autres espèces eusociales, nous communiquons en grande partie de manière stigmergique, mais au lieu de marquer un territoire physique au moyen de phéromones ou d’autres types de signaux visuels, sonores ou olfactifs, nous laissons des traces symboliques. Au fur et à mesure de l’évolution culturelle, les signifiants s’accumulent dans des mémoires externes de plus en plus perfectionnées : pierres levées, totems, paysages sculptés, monuments, architectures, signes d’écriture, archives, bibliothèques, bases de données. On peut prétendre que toute forme d’écriture qui n’est pas précisément adressée est une forme de communication stigmergique : des traces sont déposées pour une lecture à venir et font office de mémoire externe d’une communauté.
Les différents processus d’intelligence collectives qui viennent d’être évoqués, statistique (sans communication), délibératifs (à communication directe) et stigmergique (à communication indirecte) ne sont évidemment pas exclusives l’une de l’autre et peuvent fort bien se succéder ou se combiner. Par exemple, les wikipédiens se coordonnent par l’intermédiaire de bases de données communes, délibèrent et votent.
A l’échelle de l’espèce, l’intelligence collective humaine se situe dans la continuité de l’intelligence collective animale, mais elle est plus perfectionnée à cause du langage, des techniques et des institutions politiques, économiques, légales et autres qui nous caractérisent. La principale différence entre les intelligences collectives animale et humaine tient à la culture. Dans une dimension diachronique, notre espèce est entraînée par une vitesse d’apprentissage supérieure à celle de l’évolution biologique. Nos savoir-faire s’accumulent et se transmettent d’une génération à l’autre grâce à nos mémoires externes, au moyen de systèmes de signes, de conventions sociales et d’outils. Aucun individu ne serait « intelligent » s’il n’héritait pas des connaissances créées par les ancêtres. Dans une dimension synchronique, nous participons à une intelligence collective coordonnée où résonnent et se relancent l’architecture conceptuelle de nos mémoires communes et l’organisation sociale de nos collectivités. La définition réciproque des identités et la reconnaissance des problèmes se décident à ce méta-niveau de la culture. Au-delà des procédures utiles (stigmergique, statistique et délibérative) pour résoudre des problèmes, il existe donc une intelligence collective plus holistique, qui circonscrit les capacités cognitives d’une société.
L’évolution culturelle a déjà franchi plusieurs seuils d’intelligence collective. En effet, les inventions de l’écriture, de l’imprimerie et des médias électroniques (enregistrement musical, téléphone, radio, télévision) ont déjà augmenté de manière irréversible nos capacités de mémoire et de communication sociale. Le surgissement d’une communication globale par l’intermédiaire de la mémoire numérique est probablement le plus grand changement social des vingt-cinq dernières années. Cette nouvelle forme de communication par lecture-écriture distribuée dans une mémoire numérique collective représente une mutation anthropologique de grande ampleur. Plongés dans le nouvel environnement numérique, nous interagissons par le moyen de la masse océanique de données qui nous rassemble. Les encyclopédistes de Wikipédia et les programmeurs de GitHub collaborent par l’intermédiaire d’une même base de données. A notre insu, chaque lien que nous créons, chaque étiquette ou hashtag apposée sur une information, chaque acte d’évaluation ou d’approbation, chaque « j’aime », chaque requête, chaque achat, chaque commentaire, chaque partage, toutes ces opérations modifient subtilement la mémoire commune, c’est-à-dire le magma inextricable des rapports entre les données. Notre comportement en ligne émet un flux continuel de messages et d’indices qui transforment la structure de la mémoire et contribuent à orienter l’attention et l’activité de nos contemporains. Nous déposons dans l’environnement virtuel des phéromones électroniques qui déterminent en boucle l’action des autres internautes et qui entraînent par-dessus le marché les neurones formels des intelligences artificielles (IA).
L’intelligence artificielle comme augmentation de l’intelligence collective
Abordons maintenant le thème de l’intelligence artificielle, mais sous l’angle – qui paraîtra peut-être insolite à quelques lecteurs – de l’intelligence collective. Les journalistes et le grand public ont tendance à classer dans “l’intelligence artificielle” les applications considérées comme avancées à l’époque où elles apparaissent. Mais quelques années plus tard ces mêmes applications, devenues banales et quotidiennes, seront le plus souvent réinterprétées comme appartenant à l’informatique ordinaire[10]. Par delà les titres apocalyptiques et les images de jeunes femmes au cerveau chromé censées illustrer “l’intelligence artificielle”, nous assistons depuis le milieu du XXe siècle à un processus de réification formelle et d’extériorisation des fonctions cognitives. L’augmentation de puissance et la baisse des coûts du matériel distribuent ces fonctions cognitives objectivées dans l’ensemble de la société. Des machines interconnectées enregistrent et retrouvent de l’information, effectuent des calculs arithmétiques ou algébriques, simulent des phénomènes complexes, raisonnent logiquement, respectent des syntaxes et des systèmes de règles, extraient des formes à partir de distributions statistiques enchevêtrées… L’informatique automatise et socialise nos capacités de communication, nos facultés de mémoire, de perception, d’apprentissage, d’analyse et de synthèse.
Du fait même de son nom, l’intelligence artificielle évoque naturellement l’idée d’une intelligence autonome de la machine, qui se pose en face de l’intelligence humaine, pour la simuler ou la dépasser. Mais si nous observons les usages réels des dispositifs d’intelligence artificielle, force est de constater que, la plupart du temps, ils augmentent, assistent ou accompagnent les opérations de l’intelligence humaine. Déjà, à l’époque des systèmes experts – lors des années 80 et 90 du XXe siècle – j’observais que les savoirs critiques de spécialistes au sein d’une organisation, une fois codifiés sous forme de règles animant des bases de connaissances, pouvaient être mis à la portée des membres qui en avaient le plus besoin, répondant précisément aux situations en cours et toujours disponibles. Plutôt que d’intelligences artificielles prétendument autonomes, il s’agissait de médias de diffusion des savoir-faire pratiques, qui avaient pour principal effet d’augmenter l’intelligence collective des communautés utilisatrices[11].
Dans la phase actuelle du développement de l’IA, le rôle de l’expert est joué par les foules qui produisent les données et le rôle de l’ingénieur cogniticien qui codifie le savoir est joué par les réseaux neuronaux. Au lieu de demander à des linguistes comment traduire ou à des auteurs reconnus comment produire un texte, les modèles statistiques interrogent à leur insu les multitudes de rédacteurs anonymisés du web et ils en extraient automatiquement des patterns de patterns qu’aucun programmeur humain n’aurait pu tirer au clair. Conditionnés par leur entraînement, les algorithmes peuvent alors reconnaître et reproduire des données correspondant aux formes apprises. Mais parce qu’ils ont abstrait des structures plutôt que de tout enregistrer, les voici capables de conceptualiser correctement des formes (d’image, de textes, de musique, de code…) qu’ils n’ont jamais rencontrées et de produire une infinité d’arrangements symboliques nouveaux. C’est pourquoi l’on parle d’intelligence artificielle générative. L’IA neuronale synthétise et mobilise la mémoire commune. Bien loin d’être autonome, elle prolonge et amplifie l’intelligence collective. Des millions d’utilisateurs contribuent au perfectionnement des modèles en leur posant des questions et en commentant les réponses qu’ils en reçoivent. On peut prendre l’exemple de Midjourney, dont les utilisateurs s’échangent leurs consignes (prompts) et améliorent constamment leurs compétences en IA. Les serveurs Discord de Midjourney sont aujourd’hui les plus populeux de la planète, avec plus d’un million d’utilisateurs. Une nouvelle intelligence collective stigmergique émerge de la fusion des médias sociaux, de l’IA et des communautés de créateurs.
L’IA contemporaine fonctionne ainsi comme le conduit d’une boucle de rétroaction entre la mémoire numérique commune et les productions individuelles qui l’exploitent et s’accumulent à leur tour dans les centres de données. Derrière la machine il faut entrevoir l’intelligence collective qu’elle réifie et mobilise.
Le partage du savoir : vers une intelligence collective neurosymbolique
L’intelligence collective aujourd’hui supportée par l’intelligence artificielle n’est encore que partielle. En effet, l’utilisation des données de l’Internet pour entraîner les modèles mobilise les intelligences collectives stigmergique (la boucle de rétroaction entre les comportements individuels et la mémoire commune) et statistique (l’apprentissage neuronal). Au début des années 2020, la connexion et le renforcement mutuel de ces deux formes d’intelligence collective par les nouveaux dispositifs d’intelligence artificielle a provoqué un choc intellectuel – et des émotions fortes – chez ceux qui en ont aperçu la puissance. Mais une intelligence collective délibérative et réflexive manque encore à l’appel. A l’échelle où nous nous situons, cette intelligence collective délibérative doit porter sur l’organisation des données, c’est-à-dire sur la structure conceptuelle de la mémoire, inévitablement couplée aux pratiques des communautés. Comment faire en sorte que les réseaux de concepts qui informent la mémoire numérique puissent faire l’objet d’une conversation ouverte, transparente, attentive aux conséquences de ses choix? Le Web sémantique et son empilement de standards (XML, RDF, OWL, SPARQL) a certes établi une interopérabilité de formats, mais non pas l’interopérabilité proprement sémantique – celle des architectures de concepts – dont nous avons besoin. Les géants du web ont leurs graphes de connaissances, mais ces derniers sont malheureusement privés et secrets. Wikidata propose un exemple de graphe de connaissance ouvert, mais il est encore bien difficile à explorer et utiliser quotidiennement par le grand public. Il se présente de plus comme une ontologie, celle de l’encyclopédie Wikipédia, alors qu’il faudrait mettre en harmonie et en dialogue la multitude des ontologies qui émergent de pratiques aussi diverses que l’on voudra.
C’est pour résoudre ce problème de l’émergence d’une intelligence collective délibérative (ou réflexive) à support numérique que j’ai inventé IEML (Information Economy MetaLanguage) : une langue artificielle pourvue d’une structure algébrique régulière, dont la sémantique est calculable, qui permet de tout dire et qui peut traduire n’importe quel réseau de concept[12]. IEML est un langage à source ouverte, qui se place dans la perspective d’une augmentation des communs de la connaissance, et dont le développement doit faire l’objet d’une gouvernance décentralisée. Aussi hétérogènes ou divers qu’ils soient, IEML projette les ontologies, graphes de connaissances, collections d’étiquettes et modèles de données sur le même système de coordonnées sémantique : un univers virtuellement infini de différences conceptuelles donnant prise aux algorithmes. IEML peut servir de langage pivot entre les langues naturelles, entre les humains et les machines, entre les modèles d’IA. Il va sans dire que la plupart de ses bénéficiaires n’auront pas à l’apprendre puisque les interfaces des applications, y compris l’éditeur lui-même, seront en langues naturelles ou sous forme iconique. La face « code » d’IEML n’est destinée qu’aux ordinateurs. On peut dès lors envisager qu’une multitude de bases de connaissances aux architectures conceptuelles singulières puissent échanger des modules ontologiques et des informations grâce à l’interopérabilité sémantique assurée par ce langage de métadonnées commun.
Considérons maintenant l’idéal des lumières de mettre la connaissance à la portée de tous. Cette finalité dépasse l’objet « encyclopédie » – qui n’est finalement qu’un moyen particulier adapté aux possibilités techniques et culturelles d’une époque – pour ouvrir de vastes horizons et retentir jusque dans un avenir encore inimaginable.
Ce concept se décompose en deux exercices complémentaires: (a) celui de permettre à toutes les connaissances de s’exprimer, de s’accumuler et de communiquer ; (b) celui de faciliter l’exploration et l’appropriation des connaissances selon la gamme étendue des situations pratiques, des parcours d’apprentissage et des styles cognitifs. On voit l’affinité de cet idéal avec celui d’une intelligence collective – diamétralement opposée au “group think” – qui vise à maximiser simultanément la liberté créatrice et l’efficacité collaborative.
On pardonnera au philosophe que je suis l’évocation d’une utopie concrète, sans doute techniquement réalisable, mais qui – à court terme – vise d’abord à faire penser. Imaginons donc un dispositif destiné au partage des connaissances et qui tire le maximum des possibilités techniques contemporaines. Au cœur de ce dispositif évolue un écosystème ouvert de bases de connaissances catégorisées en IEML, qui émergent d’une multitude de communautés de recherche et de pratique. Entre ce noyau de bases de connaissances interopérables et les utilisateurs humains vivants s’interpose une interface neuronale (un écosystème de modèles) « no code » qui donne accès au contrôle, à l’alimentation, à l’exploration et à l’analyse des données. Tout se passe de manière intuitive et directe, selon les modalités sensori-motrices sélectionnées. C’est aussi par l’intermédiaire de ce giga-perceptron – un métavers immersif, social et génératif – que les collectifs échangent et discutent les modèles de données et réseaux sémantiques qui organisent leurs mémoires. En bonne gestion des connaissances, le nouveau dispositif de partage des savoirs favorise l’enregistrement des créations, accompagne les parcours d’apprentissage et présente les informations utiles aux acteurs engagés dans leurs pratiques.
Pour ce qui est commun, chaque base de connaissance – personnelle ou collective – affiche son univers de discours, ses données et ses statistiques, aussi transparente aux algorithmes qu’elle l’est aux regards humains. Mais pour ce qui est privé, notre dispositif de partage des connaissances assure la souveraineté pratique et légale des individus et des groupes sur les données qu’ils produisent et qu’ils ne divulguent qu’aux acteurs choisis.
L’augmentation décisive de la dimension délibérative de l’intelligence collective grâce à l’utilisation d’un langage de métadonnées commun a des effets multiplicateurs sur les intelligences collectives statistique et stigmergique déjà à l’œuvre aujourd’hui. Une nouvelle infrastructure neurosymbolique plonge l’intelligence collective du futur dans l’univers explorable émanant de ses propres activités cognitives. Il faut cependant bien distinguer l’intelligence collective qui anime les personnes et les collectivités humaines vivantes des extensions mécaniques et des représentations médiatiques qui l’augmentent. Ne faisons pas une idole de l’intelligence artificielle.
Citant Ibn Roshd (l’Averroes des latins), Dante écrit au chapitre I, 3 de sa Monarchie : “Le terme extrême proposé à la puissance de l’humanité est la puissance, ou vertu, intellective. Et parce que cette puissance ne peut, d’un seul coup, se réduire toute entière en acte par le moyen d’un seul homme ou d’une communauté particulière, il est nécessaire qu’il règne dans le genre humain une multitude par le moyen de laquelle soit mise en acte cette puissance toute entière.” Que cette multitude devienne transparente à elle-même dans le nouveau médium algorithmique et nous serons passés de la fourmilière à la cité.
[4] Lévy, Pierre. L’Intelligence collective. Pour une anthropologie du cyberespace. Paris: La Découverte, 1994.
[5] Voir par exemple : Baltzersen, Rolf. Cultural-Historical Perspectives on Collective Intelligence: Patterns in Problem Solving and Innovation. Cambridge, Mass: Cambridge University Press, 2022.
[6] Galton, Francis 1907, Vox populi, Nature, 75, 450-451.
[7] Surowiecki, James. The Wisdom of Crowds. Doubleday, 2004
[8] Voir par exemple : Zara, Olivier. Le chef parle toujours en dernier: Manifeste de l’intelligence collective, Axiopole, 2021, et Mulgan, Geoff. Big Mind. How Collective Intelligence Can Change Our World. Princeton: Princeton University Press, 2017.
[9] Heylighen, Francis. “Stigmergy as a Universal Coordination Mechanism I: Definition and Components.” Cognitive Systems Research 38 (2016): 4–13. https://doi.org/10.1016/j.cogsys.2015.12.002
Heylighen, Francis. “Stigmergy as a Universal Coordination Mechanism II: Varieties and Evolution.” Cognitive Systems Research, 2016, 50–59. https://doi.org/10.1016/j.cogsys.2015.12.007
[10] Lévy, Pierre. “Pour un changement de paradigme en Intelligence artificielle”, Giornale di Filosofia (Roma) numéro spécial sur Technology and Constructive Critical Thought, 15 décembre 2021
[11] Lévy, Pierre. “Les systèmes à base de connaissance comme médias de transmission de l’expertise”, Intellectica numéro spécial “Expertise et sciences cognitives”, ed. Violaine Prince. 1991. p. 187 – 219.
[12] Lévy, Pierre. La Sphère Sémantique. Computation, Cognition, Économie de l’information. Paris-London: Hermès-Lavoisier, 2011.
Comment penser la nouvelle sphère publique numérique? Je commencerai par évoquer le contexte anthropologique et démographique du basculement de la sphère publique dans l’environnement numérique. Dans un second temps, j’analyserai les nouvelles formes de mémoire et de communication supportées par le nouveau médium. J’évoquerai ensuite les figures de la domination et de l’aliénation propres à ce milieu de communication. Je terminerai, comme il se doit, par quelques perspectives d’émancipation.
1 Le contexte
Une nouvelle époque de la culture
Un des facteurs principaux de l’évolution des écosystèmes d’idées réside dans le dispositif matériel de production et de reproduction des symboles, mais aussi dans les systèmes « logiciels » d’écriture et de codage de l’information. Au cours de l’histoire, les symboles (avec les idées qu’ils portaient) ont été successivement pérennisés par l’écriture, allégés par l’alphabet et le papier, multipliés par l’imprimerie et les médias électriques.
A chaque étape, de nouvelles formes politiques sont apparues : villes, palais-temples et premiers états avec l’écriture, empires et cités avec l’alphabet ou le papier, états nations avec l’imprimerie et les médias électroniques.
Les symboles sont aujourd’hui numérisés et calculés, c’est-à-dire qu’une foule de robots logiciels – les algorithmes – les enregistrent, les comptent, les traduisent et en extraient des patterns. Les objets symboliques (textes, images fixes ou animées, voix, musiques, programmes, etc.) sont non seulement enregistrés, reproduits et transmis automatiquement, ils sont aussi générés et transformés de manière industrielle. En somme, l’évolution culturelle nous a menés au point où les écosystèmes d’idées se manifestent sous l’avatar de données animées par des algorithmes dans un espace virtuel ubiquitaire. Et c’est dans cet espace que se nouent, se maintiennent et se dénouent les liens sociaux, là que se jouent désormais les drames de la Polis…
Le basculement démographique
L’hypothèse d’une mutation anthropologique rapide et de grande ampleur se fonde sur des données quantitatives qui ne prêtent pas à controverse.
Accès aux ordinateurs
Concernant l’accès aux ordinateurs, on peut considérer que 0,1 pour cent de la population mondiale avait un accès direct à un ordinateur en 1975 (avant la révolution de l’ordinateur personnel). Cette proportion se montait à 20% dans les pays riches en 1990 (avant la révolution du Web). En 2022, pour les pays européens, la proportion oscillait entre 65% (Grèce) et 95% (Luxembourg). A noter que ces derniers chiffres ne prennent pas en compte les téléphones portables.
Accès à l’Internet
La proportion de la population mondiale qui avait accès à l’Internet était d’environ 1% en 1990 (donc avant le Web), de 4% en 1999, de 24% en 2009, de de 51% en 2018 et de 65% en 2023. Selon l’Organisation internationale des télécommunications, environ 5 milliards de personnes sont des internautes. Toujours pour 2023, mais seulement en Europe, la proportion de la population branchée à l’Internet se monte à 93% (ce sont les données de l’Union Européenne).
Prise de connaissance des nouvelles
Pour compléter ces statistiques avec des données concernant plus directement la politique, 40% des européens et 50% des américains et canadiens prennent connaissance des nouvelles par les médias sociaux (je dis bien les médias sociaux et pas l’Internet en général). On dépasse partout les 50% pour les moins de quarante ans. Pour les données spécifiques concernant la lecture des journaux par opposition à la lecture de textesen ligne, les moins de trente ans lisent les nouvelles en ligne à 80% (données du Pew Research Center).
2 Mémoire et communication numérique
La nouvelle sphère publique
En somme, moins d’un siècle après l’invention des premiers ordinateurs, plus de soixante cinq pour cent de la population mondiale est branchée à l’internet et la mémoire du monde est numérisée. Qu’une information se trouve en un point du réseau et la voici partout. Du texte statique sur papier, nous sommes passé à l’hypertexte ubiquitaire, puis à l’Architexte surréaliste qui rassemble tous les symboles. Une mémoire virtuelle s’est mise à croître, secrétée par des milliards de vivants et de morts, fourmillant de langues, de musiques et d’images, grosse de rêves et de fantasmes, mêlant la science et le mensonge. La nouvelle sphère publique est multimédia, interactive, mondiale, fractale, stigmergique et – désormais – médiée par l’intelligence artificielle.
La nouvelle sphère publique est mondiale. Aussi bien le web que les grands médias sociaux comme Facebook, Twitter, LinkedIn, Telegram, Reddit, etc. sont internationaux et multilingues. La traduction automatique a atteint un point ou l’on peut maintenant comprendre, avec quelques erreurs, ce qu’un internaute écrit dans une autre langue. J’ajoute que, parallèlement à la traduction, la synthèse automatique de longs textes progresse, ce qui ajoute à la porosité des diverses bulles cognitives et sémantiques.
La sphère publique numérique est fractale, c’est-à-dire qu’elle se subdivise en sous-groupes, eux-mêmes subdivisés en sous-groupes, et ainsi de suite récursivement, avec toutes les réunions et intersections imaginables. Ces subdivisions recoupent des distinctions de plateformes, de langues, de zones géographiques, de centres d’intérêts, d’orientations politiques, etc. On peut donner comme exemples les groupes Facebook ou LinkedIn, les serveurs Discord, les canaux YouTube ou Telegram, les communautés de Reddit, etc.
L’intelligence collective stigmergique
Si l’échange de messages point à point a toujours lieu, la majeure part de la communication sociale s’effectue désormais de manière stigmergique. La notion de stigmergie est une des clés de la compréhension du fonctionnement de la sphère publique numérique. On distingue traditionnellement trois schémas de communication : un-un, un-plusieurs et plusieurs-plusieurs. Le schéma un-un correspond au dialogue, au courrier postal classique ou au téléphone traditionnel. Le schéma un-plusieurs décrit le dispositif où un éditeur/émetteur central envoie ses messages à une masse de récepteurs dits « passifs ». Ce dernier schéma correspond à la presse, au disque, à la radio et à la télévision. Internet représente une rupture parce qu’il permet à l’ensemble des participants d’émettre pour un grand nombre de récepteurs selon un schéma en réseau décentralisé « plusieurs vers plusieurs ». Cette dernière description est néanmoins trompeuse. En effet, si tout le monde émet pour tout le monde (ce qui est le cas), tout le monde ne peut pas écouter tout le monde. Ce qui se passe en réalité est que les internautes contribuent à alimenter une mémoire commune et prennent connaissance en retour du contenu de cette mémoire par l’intermédiaire de procédures de recherche et de sélection automatisées. Ce sont les fameux algorithmes de Google, (Page Rank), de Facebook, de Twitter, d’Amazon (recommandations), etc.
L’étymologie grecque explique assez bien le sens du mot « stigmergie » : des marques (stigma) sont laissées dans l’environnement par l’action ou le travail (ergon) de membres d’une collectivité, et ces marques guident en retour – et récursivement – leurs actions. Le cas classique est celui des fourmis qui laissent une traîne de phéromones sur leur passage lorsqu’elles ramènent de la nourriture à la fourmilière. L’odeur des phéromones incite d’autres fourmis à remonter leurs traces pour découvrir le butin et ramener des vivres à la ville souterraine en laissant par terre à leur tour un message parfumé.
On peut prétendre que toute forme d’écriture qui n’est pas précisément adressée est une forme de communication stigmergique : des traces sont déposées pour une lecture à venir et font office de mémoire externe d’une communauté. Si le phénomène est fort ancien, il a pris depuis le début du siècle une nouvelle ampleur. Plongés dans la nouvelle sphère publique numérique, nous communiquons par l’intermédiaire de la masse océanique de données qui nous rassemble. Les encyclopédistes de Wikipédia et les programmeurs de GitHub collaborent par l’intermédiaire d’une même base de données. A notre insu, chaque lien que nous créons, chaque étiquette ou hashtag apposée sur une information, chaque acte d’évaluation ou d’approbation, chaque « j’aime », chaque requête, chaque achat, chaque commentaire, chaque partage, toutes ces opérations modifient subtilement la mémoire commune, c’est-à-dire le magma inextricable des rapports entre les données. Notre comportement en ligne émet un flux continuel de messages et d’indices qui transforment la structure de la mémoire et contribuent à orienter l’attention et l’activité de nos contemporains. Nous déposons dans l’environnement virtuel des phéromones électroniques qui déterminent en boucle l’action des autres internautes et qui entraînent par-dessus le marché les neurones formels des intelligences artificielles (IA).
Le rôle de l’Intelligence artificielle dans la nouvelle sphère publique
Le cerveau biologique abstrait le détail des expériences actuelles en schémas d’interactions, ou concepts, codés par des patterns de circuits neuronaux. De la même manière, les modèles neuronaux de l’IA condensent les données innombrables de la mémoire numérique. Ils virtualisent les données actuelles en patterns et en patterns de patterns. Conditionnés par leur entraînement, les algorithmes peuvent alors reconnaître et reproduire des données correspondant aux formes apprises. Mais parce qu’ils ont abstrait des structures plutôt que de tout enregistrer, les voici capables de conceptualiser correctement des formes (d’image, de textes, de musique, de code…) qu’ils n’ont jamais rencontrées et de produire une infinité d’arrangements symboliques nouveaux. C’est pourquoi l’on parle d’intelligence artificielle générative.
La mémoire numérique est détachée de son lieu d’émission et de réception, mise en commun, en attente de lecture, suspendue dans les “nuages” de l’Internet, logicielle. Cette masse de donnée est maintenant compressée par des modèles neuronaux. Et les patterns cachés dans les myriades de couches et de connexions des cerveaux électroniques font retomber en pluie des objets symboliques inédits. Nous ne semons des données que pour récolter du sens.
L’IA nous offre un nouvel accès à la mémoire numérique mondiale. C’est aussi une manière de mobiliser cette mémoire pour automatiser des opérations symboliques de plus en plus complexes, impliquant l’interaction d’univers sémantiques et de systèmes de comptabilité hétérogènes.
3 Le côté obscur
L’état-plateforme et la nouvelle bureaucratie dans les nuages
Si les analyses qui précèdent ont quelque validité, le pouvoir politique se joue pour une bonne part dans la sphère publique numérique. Or son contrôle ultime se trouve « dans les nuages », aux mains des bureaucraties célestes qui calculent les interactions sociales et la mémoire. Les nuages, c’est-à-dire les réseaux de centres de données possédées par l’oligopole des GAFAM, BATX et compagnie. C’est pourquoi les prétendants à l’hégémonie politique mondiale, essentiellement les américains et les chinois, s’allient avec les seigneurs des données – ou les soumettent – parce que les oligarques numériques détiennent le contrôle matériel de la mémoire mondiale et de la sphère publique. Eux seuls ont d’ailleurs la capacité de mémoire et la puissance de calcul nécessaires à l’entraînement des modèles d’IA généraux dits « fondationnels ». Ce que j’appelle un État-Plateforme résulte de l’imbrication d’une super-puissance politique avec une fraction de l’oligarchie numérique.
La bureaucratie des nuages est plus efficace que celle des états-nations, héritée de l’ère de l’imprimerie. Déjà, plusieurs fonctions gouvernementales ou régaliennes sont assurées par les grandes plateformes ou par des réseaux numériques « décentralisés ». La liste qui suit n’est pas close :
Vérification de l’identité des personnes, reconnaissance faciale
Cartographie et cadastre
Création monétaire
Régulation du marché
Éducation et recherche
Fusion de la défense et de la cyberdéfense
Contrôle de la sphère publique, censure, propagande, “nudge” (coup de pouce statitique)
Surveillance
Biosurveillance
Les médias sociaux : addictions et manipulations
Notre allégeance aux seigneurs des données vient de la puissance de leurs centres de calcul, de leur efficacité logicielle et de la simplicité de leurs interfaces. Elle trouve aussi sa source dans notre dépendance à une architecture sociotechnique toxique, qui utilise la stimulation dopaminergique et les renforcements narcissiques addictifs de la communication numérique pour nous faire produire toujours plus de données. On sait combien, de ce point de vue, la santé mentale des populations adolescentes est à risque. En plus de la biopolitique évoquée par Michel Foucault, il faut donc maintenant considérer une psychopolitique à base de neuromarketing, de données personnelles et de gamification du contrôle.
Il faut s’y faire : la Polis a basculé dans la grande base de données mondiale de l’Internet. Dès lors, les luttes de pouvoir – toutes les luttes de pouvoir, qu’elles soient économiques, politiques ou culturelles – sont reconduites et compliquées dans le nouvel espace numérique. Sur le terrain glissant des médias sociaux, les camps qui s’affrontent disposent leurs armées de trolls coordonnées en temps réel, équipées de bots dernier cri, renseignées par l’analyse automatique des données et augmentées par l’apprentissage machine. Dans la guerre civile mondiale qui fait rage, politique intérieure et extérieure inextricablement mêlées, les nouveaux mercenaires sont les influenceurs.
Mais toutes ces nouveautés n’invalident pas les règles classiques de la propagande, toujours d’actualité : répétition continuelle, simplicité des mots d’ordre, images mémorables, provocation affective et résonnance identitaire. Personne n’oublie non plus les conseils avisés de Machiavel pour amener l’ennemi à s’auto-détruire : « La guerre secrète consiste à se mettre dans la confidence d’une ville divisée, à se porter pour médiateur entre les deux partis jusqu’à ce qu’ils en viennent aux armes : et quand l’épée est enfin tirée à donner des secours prudemment dosés au parti le plus faible, autant dans le but de faire durer la guerre et de les laisser se consumer les uns par les autres, que pour se garder, par un secours trop massif, de révéler son dessein de les opprimer et de les maîtriser tous deux également. Si l’on suit soigneusement cette marche, on arrive presque toujours à son but. »[1]
La tête baissée sur nos smartphones, nous faisons tourner en boucle les stéréotypes qui renforcent nos identités éclatées et nos mémoires courtes sous le regard narquois des experts de l’intoxication, communicants stipendiés, spécialistes du marketing et agents d’influence géopolitiques…
IA et domination culturelle
Poursuivons cette revue des côtés obscurs de la nouvelle sphère publique par les enjeux de domination culturelle liés à l’Intelligence artificielle. On parle beaucoup des « biais » de tel ou tel modèle d’intelligence artificielle, comme s’il pouvait exister une IA non-biaisée ou neutre. Cette question est d’autant plus importante que, comme je l’ai suggéré plus haut, l’IA devient notre nouvelle interface avec les objets symboliques : stylo universel, lunettes panoramiques, haut-parleur général, programmeur sans code, assistant personnel. Les grands modèles de langue généralistes produits par les plateformes dominantes s’apparentent désormais à une infrastructure publique, une nouvelle couche du méta-médium numérique. Ces modèles généralistes peuvent être spécialisés à peu de frais avec des jeux de données issues d’un domaine particulier et de méthodes d’ajustement. On peut aussi les munir de bases de connaissances dont les faits ont été vérifiés.
Les résultats fournis par une IA découlent donc de plusieurs facteurs qui contribuent tous à son orientation ou si l’on préfère, à ses « biais ». a) Les algorithmes proprement dits sélectionnent les types de calcul statistique et les structures de réseaux neuronaux. b) Les données d’entraînement favorisent les langues, les cultures, les options philosophiques, les partis-pris politiques et les préjugés de toutes sortes de ceux qui les ont produites. c) Afin d’aligner les réponses de l’IA sur les finalités supposées des utilisateurs, on corrige (ou on accentue!) « à la main » les penchants des données par ce que l’on appelle le RLHF (Reinforcement Learning from Human Feed-back – en français : apprentissage par renforcement à partir d’un retour d’information humain). d) Finalement, comme pour n’importe quel outil, l’utilisateur détermine les résultats au moyen de consignes en langue naturelle (les fameux prompts). Il faut noter que des communautés d’utilisateurs s’échangent et améliorent collaborativement de telles consignes. La puissance de ces systèmes n’a d’égal que leur complexité, leur hétérogénéité et leur opacité. Le contrôle règlementaire de l’IA, sans doute nécessaire, semble difficile.
4 Perspectives d’émancipation
Littéracie numérique et pensée critique
Malgré tout ce qui vient d’être dit, la sphère publique du XXIe siècle est plus ouverte que celle du XXe siècle : les citoyens des pays démocratiques y jouissent d’une grande liberté d’expression et peuvent choisir leurs sources d’information parmi un vaste éventail de spécialisations thématiques, de langues et d’orientations politiques. Cette liberté d’expression et d’information, la nouvelle puissance distribuée de création et d’analyse de données, sans oublier les possibilités de coordination sociale offertes par le nouveau médium, tout cela ne représente que des potentialités émancipatrices. Seule une véritable éducation à la pensée critique dans le nouvel environnement de communication permettra d’actualiser ce potentiel de citoyenneté renouvelée. Pour fixer les idées, une étude de la BBC a récemment montré que 50% des jeunes gens de 12 à 16 ans croient aux nouvelles partagées sur les médias sociaux sans les vérifier. Et nous savons d’expérience que les enfants ne sont pas les seuls sujets crédules. Idéalement, la nouvelle éducation à la pensée critique devrait enseigner aux futurs citoyens à s’organiser comme de petites agences de renseignement autonomes qui rangent leurs centres d’intérêts par ordre de priorité, sélectionnent soigneusement des sources diversifiées, analysent les données à partir d’hypothèses explicites et maintiennent une classification pertinente de leur mémoire numérique personnelle. Il faut apprendre à discerner les sources de données en termes de catégories organisatrices, de récits dominants et d’agendas. On inculquera le réflexe journalistique élémentaire de croiser les sources ainsi identifiées. Enfin, les élèves devraient être entraînés à l’intelligence collective stigmergique et à l’apprentissage collaboratif.
Pour une gouvernance de la sphère publique numérique
Je me contenterai ici d’indiquer quelques grandes orientations d’une nécessaire gouvernance de la nouvelle sphère publique plutôt que de déterminer précisément les moyens d’y parvenir. Si le pilotage par gros temps peut nécessiter de nombreux détours, le cap est clair : il s’agit de perfectionner, autant que possible, la dimension réflexive d’une intelligence collective déjà en acte.
A l’appui de cette finalité, la transparence des processus en ligne semble une condition sine qua non. Je vise en particulier, mais pas seulement, une description claire, brève et en langue naturelle des algorithmes et des données d’entraînement des IA.
A l’exemple de Wikimédia, efforçons-nous de maximiser les « communs » de la connaissance.
Ouvrons les jeux de données et les algorithmes selon la voie tracée par le mouvement du logiciel libre.
Assurons la souveraineté pratique et légale des individus et des groupes sur les données qu’ils produisent.
Enfin, décentralisons la gouvernance des interactions en ligne en favorisant les procédures consensuelles. Le mouvement social qui porte la blockchain indique ici un chemin possible.
Afin d’apporter ma pierre au projet d’une intelligence collective réflexive j’ai inventé une langue (IEML, Information Economy MetaLanguage) ayant la même capacité d’expression et de traduction que les langues naturelles mais qui a aussi la régularité d’une algèbre, permettant ainsi un calcul de la sémantique. Cette langue pourrait servir de système de coordonnées sémantique à la nouvelle sphère publique. Elle contribuerait ainsi à transformer la mémoire numérique en miroir de nos intelligences collectives. Dès lors, une boucle de rétroaction plus fluide entre les écosystèmes d’idées et les communautés qui les entretiennent nous rapprocherait de l’idéal d’une intelligence collective réflexive au service du développement humain et d’une démocratie renouvelée. Il ne s’agit pas d’entretenir quelque illusion sur la possibilité d’une transparence totale, mais plutôt d’ouvrir la voie à l’exploration critique d’un univers de sens infini.
[1] Discours sur la première décade de Tite-Live. La Pléiade, Gallimard, Paris, p. 588
A mi-chemin entre l’impossible et le nécessaire, le possible est un concept logique. Par contraste, le virtuel est un mode d’être qui relève de la physique, de la biologie, de la psychologie et de la technologie. On peut le rapprocher de la notion dynamique de potentiel, quoiqu’il ne s’y réduise pas. La notion de virtuel ne se comprend que dans son opposition dialectique à l’actuel, chacun des deux concepts visant les pôles complémentaires d’un même cycle générateur. La virtualité émane des situations actuelles qu’elle conditionne en retour. A ce titre, et bien qu’il soit intangible, le virtuel existe en droit comme en fait.
Considérons l’exemple paradigmatique du gland qui contient le chêne sur un mode virtuel. La virtualité de l’arbre n’est pas une simple possibilité logique. Elle résulte d’un programme et d’un ensemble de mécanismes qui activent le développement de la plante ligneuse. L’arbre pousse à partir de la graine. Il est néanmoins impossible de prédire exactement la forme du chêne en ne considérant que le gland. Cette forme est partiellement indéterminée parce que les instructions contenues par la graine négocieront la croissance de l’arbre avec nombre de facteurs environnementaux tels que le sol, l’humidité, la lumière, la température, les symbiotes, les parasites et ainsi de suite. Bien que programmée, l’actualisation de l’arbre relève d’une adaptation créative. Si les circonstances sont favorables, l’arbre arrivé à maturation se virtualisera en une multitude de nouvelles graines qui chercheront aventure dans le monde. Vérifions ici l’une des principales propriétés du virtuel : il n’a pas d’adresse spatio-temporelle. On peut certes toucher la graine, mais pas l’arbre virtuel qu’elle promet. Nous voyons sur cet exemple végétal que la dialectique biologique du germen et du soma consonne avec celle du virtuel et de l’actuel.
LE CERVEAU ANIMAL
Passons maintenant à un exemple choisi dans le domaine de l’animalité. Lorsqu’on les compare aux plantes, la grande affaire des animaux est la locomotion, avec la boucle sensori-motrice qu’elle suppose. Le système nerveux, et le cerveau où il se concentre, s’est développé en parallèle dans les différents phylums biologiques comme une interface entre la sensation et le mouvement. Chaque élan entraîne une modification de la position de l’animal, ce qui détermine de nouvelles perceptions, qui appellent une réaction ou un repos provisoire. Au cours de l’évolution, la boucle sensori-motrice réflexe s’est complexifiée en simulation de l’environnement, évaluation de la situation et calcul décisionnel. Le virtuel devient ici un concept pratique. L’acte résout les tensions qui organisent une situation vitale et, ce faisant, il redonne naissance à un nuage de virtualités.
Intéressons-nous maintenant au rôle que joue le cerveau de l’animal dans cette dialectique pratique. Cet organe calcule l’action à accomplir et envoie ses ordres aux muscles par les nerfs efférents. Le mouvement de l’animal s’inscrit dans l’univers physique et possède certainement une adresse spatio-temporelle. Il est donc actuel. Quant à la perception, elle est calculée à partir des impulsions nerveuses venant des organes sensoriels le long des nerfs afférents. Si l’on met de côté le rêve, l’illusion et l’hallucination, la perception se rapporte au monde physique actuel. Mais peut-on dire qu’elle possède une adresse spatio-temporelle ? Selon nos connaissances scientifiques du XXIe siècle, le monde physique est peuplé de champs électromagnétiques, de vibrations atmosphériques et de molécules. Mais où se trouvent exactement la couleur bleue, les trilles du rossignol et l’odeur de la forêt en automne ? Certes, le système nerveux calcule les fameux qualia. Mais ces perceptions sont-elles dans le cerveau ? Une observation attentive de cet organe ne révèlera jamais que des concentrations de neurotransmetteurs et des dynamiques d’états d’excitations des neurones : ni coloris, ni sonorités, ni parfums. Cette remarque ne porte pas que sur les qualités sensibles, elle concerne aussi le plaisir et la douleur, les émotions, les intentions et tout ce qui constitue la vie intérieure de l’animal. L’expérience phénoménale ou, si l’on préfère, la conscience est virtuelle. Sans coordonnées spatiales, elle ne se situe pas dans le monde matériel. Tissée de mémoire et d’attente, d’habitudes et de surprises, l’expérience phénoménale ne s’inscrit pas non plus dans le temps linéaire, objectif et neutre chronométré par les sciences exactes. Elle serait plutôt temporalisante. Tendu vers un futur désiré, épais d’adhérer encore à son passé, loin de se réduire à un point sans dimension, le présent vécu entraîne le monde dans son orbite.
On pourrait objecter que l’expérience phénoménale n’est pas exactement un potentiel qui s’actualise en réalités tangibles. Sans doute. Mais observer quelque chose ici et maintenant arrive forcément dans une conscience, donc à partir du virtuel. Sans organisme animal, pas d’expérience phénoménale mais, symétriquement, l’extériorité actuelle ne se découvre que visée par une intériorité subjective, fut-ce celle d’une cigale. Actuel et virtuel sont chacun la condition de possibilité de l’autre le long d’une boucle étrange de génération ontologique.
Avec le cerveau, le concept – ou la catégorie générale – apparaît dans la nature. En effet, les animaux catégorisent leurs perceptions : voici un congénère, un rival, un partenaire sexuel, une proie, un prédateur, etc. Immanquablement, les séquences d’interactions pertinentes suivent la conceptualisation des situations et des émotions qui les teintent. Pensons aux concepts comme à des schémas d’interaction probabilistes plutôt que comme à des classes logiques nettement découpées. Ils correspondent à des circuits neuronaux plus ou moins plastiques qui mettent en relation des aires perceptives, affectives et motrices. La catégorie “prédateur”, la peur et la réaction de fuite qu’elle entraîne se trouvent codées dans un circuit neuronal du cerveau de la gazelle. Elle a donc un point d’appui dans l’actualité de l’organisme. Mais le concept de prédateur est virtuel dans la mesure même de sa généralité : il s’applique à quantité de rencontres datées et situées sans être lui-même attaché à un moment ou à un lieu précis. Il s’agit d’un schéma abstrait qui donne sens au vécu subjectif de l’animal et conduit son comportement ici et maintenant. En somme, l’expérience phénoménale – elle-même virtuelle par rapport à l’organisme actuel qui la supporte et qu’elle éclaire – se dédouble. Nous avons, d’une part, une expérience actuelle, singulière, au présent de la conscience et, d’autre part, un schéma d’interaction ou concept général, virtuel, sans qui l’expérience actuelle serait dépourvue de signification et d’orientation.
Passons maintenant de la cognition à la communication. Un animal reconnait une situation. Sa conceptualisation déclenche une libération d’hormones, une vocalisation, une posture : un signe est émis. Le concept qui organisait l’expérience actuelle de l’intérieur opaque du cerveau était déjà virtuel comparé à la situation concrète. Le voici maintenant traduit en image sensible et projeté dans le monde, à la merci d’un coup de vent, en attente du décodage d’un congénère pour s’actualiser de nouveau dans une expérience subjective. Le signal est un concept virtualisé. Les odeurs qui saturent l’atmosphère, les empreintes qui tapissent le sol, les paysages sonores des marais ou des forêts entrelacent des réseaux de signes. En un sens, la communication stigmergique est déjà une forme d’écriture. L’étymologie grecque du mot explique assez bien son sens : des marques (stigma) sont laissées dans l’environnement par l’action ou le travail (ergon) de membres d’une collectivité, et ces marques guident en retour – et récursivement – leurs actions. Le cas classique est celui des fourmis qui laissent une traîne de phéromones sur leur passage lorsqu’elles ramènent de la nourriture à la fourmilière. L’odeur des phéromones incite d’autres fourmis à remonter leurs traces pour découvrir le butin et ramener des vivres à la ville souterraine en laissant par terre à leur tour un message parfumé. On saisit l’analogie avec l’écriture : des traces sont déposées pour une lecture à venir et font office de mémoire externe d’une communauté.
Mise en commun par la communication stigmergique, cette mémoire externe est souvent brève, qu’elle soit étroitement localisée, comme le nuage de phéromones qui émane d’un attroupement d’éléphants, ou portant loin, comme le barrissement qui ponctue de sa note cuivrée la symphonie de la savane. Mais elle peut aussi être durable ou réactivée en boucle : l’urine du loup et le hurlement du singe roux marquent leur territoire. Quoiqu’il en soit, les animaux émettent et reconnaissent leurs signes en situation. Un message vise un effet pratique et se rapporte directement au contexte en cours. Performatif, son décodage déclenche quasi automatiquement l’activation d’un comportement. Métonymique, le signe fait lui-même partie du schéma d’interaction qu’il code. Indiciels, les flux de signes entretiennent une contiguïté locale ou causale avec les acteurs qui les échangent et les situations auxquels ils se rapportent.
LE CERVEAU HUMAIN
La sémiotique animale suppose des référents actuels. Voilà qui change avec l’entrée en scène d’Homo Sapiens, puisque nous racontons ce qui nous est arrivé la veille, prenons rendez-vous pour la semaine prochaine, inventons des histoires. Les référents des signes humains n’appartiennent pas nécessairement à la situation présente et nous entretenons une communication avec le monde invisible (ancêtres, esprits, dieux, valeurs…). L’animal symbolique peuple son existence d’objets et d’événements de nature intangible, ou qui ne sont plus là depuis longtemps, ou qui n’arriveront jamais.
Une langue possède généralement des milliers d’unités de sens élémentaires distinctes, ce qui est supérieur de plusieurs ordres de grandeur au répertoire de signaux des espèces animales. Surtout, les symboles s’organisent selon une grammaire récursive (les expressions peuvent s’emboîter les unes dans les autres comme des poupées russes), ce qui permet de construire et de reconnaître une quantité indéfinie de phrases et de textes pourvues de significations distinctes. Le verbe qui évoque l’action et les rôles grammaticaux qui décrivent les actants et les circonstances modélisent une “scène” complexe. Les primates parlants représentent les schémas qui organisent leur expérience avec un luxe de détail hyperréaliste. Les concepts immédiats et massifs des animaux font place aux généalogies, aux classifications fines, aux genres, aux espèces et à leurs différences, aux tissus de notions compliquées dont chaque nœud est un réseau à lui tout seul. Nos récits s’enchâssent et se répondent. Philosophes, nous dialoguons et mettons nos concepts en question. La conscience humaine ne se contente pas de s’organiser par des concepts, elle s’y réfléchit, et cette réflexion ajoute un nouveau tour à la virtualité de notre expérience.
Le symbole linguistique est coupé en deux puisqu’il possède (a) une partie actuelle ou signifiante : une image sonore, visuelle, tactile ou autre, comme le son “arbre”, et (b) une partie virtuelle ou signifiée : un concept général, comme celui de “plante ligneuse possédant des racines, un tronc et des branches”. Le signifiant lui-même se dédouble en forme abstraite (le phonème, le caractère, le geste) sans adresse, intemporelle, et une image concrète, située, datée : ce timbre de voix, cette lettre, une main qui s’agite. Quant au signifié, il possède à son tour une part virtuelle et une part actuelle. Le dictionnaire et la grammaire d’une langue définissent la partie virtuelle, générale, encore flottante, du sens d’une parole qu’on nous adresse. Notre connaissance de la langue nous permet de décoder cette séquence de phonèmes pour la traduire en réseaux de concepts, en récit suscitant des images, des émotions et des souvenirs. Un rhizome de sens illumine un instant l’opacité de notre expérience. Le sens s’est actualisé ainsi pour nous, mais il s’actualiserait différemment dans des circonstances dissemblables pour quelqu’un d’autre, pourvu d’une mémoire singulière.
Notre cerveau a toutes les propriétés de celui des vertébrés supérieurs, avec les capacités cognitives et communicatives que cela implique, mais il possède en plus une capacité de lecture et de production de symboles qui nous fait entrer dans un nouvel univers. En effet, l’évolution biologique qui mène à l’humain a profondément transformé le cerveau du primate initial pour l’ajuster à une spécialisation symbolique unique dans le règne animal : hypertrophie du cortex préfrontal, amplification du cervelet, apparition des aires de Broca et de Wernicke, division du travail plus poussée entre les hémisphères et réorganisation générale des circuits neuronaux. Le cerveau humain fonctionne alors comme un dispositif de codage-décodage entre le monde des idées et celui des corps plongés dans la biosphère. Interface ontologique, il conduit la symbiose et la coévolution des populations de bipèdes parlants et de leurs cultures. Nos sociétés se coordonnent par l’intermédiaire d’un monde virtuel des significations que nos esprits habitent en commun tandis que nos organismes interagissent actuellement dans le monde physique.
Le langage confère à l’humanité un haut degré d’intelligence collective, supérieur à celui des autres mammifères et comparable à celui des abeilles ou des fourmis. Comme d’autres espèces eusociales, nous communiquons en grande partie de manière stigmergique, mais au lieu de marquer un territoire physique au moyen de phéromones ou d’autres types de signaux visuels, sonores ou olfactifs, nous laissons des traces symboliques. Au fur et à mesure de l’évolution culturelle, les signifiants s’accumulent dans des mémoires externes de plus en plus perfectionnées : pierres levées, totems, paysages sculptés, monuments, architectures, signes d’écriture, archives, bibliothèques, bases de données.
LE CERVEAU ÉLECTRONIQUE
Sur le temps long d’une évolution culturelle qui s’accélère, les symboles se détachent de leurs lieux d’origine et survivent de mieux en mieux au moment de leur naissance. Les voici qui s’allègent, se multiplient, se diffusent, se traduisent et se transforment. Mais plus les symboles se font “soft“, logiciels, virtuels, plus ils s’approchent d’une forme omniprésente et malléable échappant à l’inertie de la matière, plus leur inscription nécessite de supports “hard”, d’instruments et d’installations lourdement actuelles. La manipulation symbolique relève d’une longue histoire technique où la virtualisation des codes et l’actualisation des médias s’entraînent mutuellement : tablettes d’argile, rouleaux de papyrus ou de soie, réseaux de routes et de ports des empires antiques, poste à cheval, fabrication du papier, machines à imprimer, bâtiments des écoles et des bibliothèques, transports mécanisés, poteaux télégraphiques au bord des voies ferrées, antennes et satellites, jusqu’aux centres de données qui consomment l’électricité d’une centrale et aux magazines, radios, tourne-disques, télévisions, ordinateurs et téléphones crachés par des usines qui finissent par s’entasser pêle-mêle dans des décharges.
Le virtuel et l’actuel alternent, se compénètrent et compliquent leur enchevêtrement. Chaque circuit de leur tourbillon auto-poïétique dépose une nouvelle couche de complexité qu’entraîne la révolution suivante. Il en est de ces deux modes d’être comme des rapports du Yin et du Yang dans la philosophie chinoise traditionnelle. Un des principaux classiques confucéens, le Yi-King (ou I-Ching) représente la dynamique des transformations cosmiques, politiques et personnelles au moyen de soixante-quatre hexagrammes : six lignes empilées dont certaines sont continues (Yang) et d’autres brisées (Yin). Ce vieux livre oraculaire présente un des premiers alignements entre structure signifiante et situation signifiée : les deux plans des hexagrammes et des configurations pratiques obéissent au même groupe de transformations. Faut-il faire remonter là le codage binaire et la manipulation réglée des signifiés au moyen des signifiants qui caractérise l’informatique ? Ou bien faut-il identifier les débuts du calcul automatique à la formalisation du raisonnement logique par Aristote ? Et que dire des mathématiciens indiens qui ont inventé la numération par position avec neuf chiffres et le zéro, rendant ainsi les calculs arithmétiques simples et uniformes ? Ou du développement de l’algèbre par les mathématiciens arabophones, andalous ou persans, comme Al Khawarizmi, qui a donné son nom à l’algorithme ? Dans tous ces cas, la manipulation réglée, quasi-mécanique, d’éléments visibles et tangibles – donc actuels – entraîne un mouvement d’objets virtuels : tropismes politiques, propositions logiques ou nombres insubstantiels.
Pendant les années cinquante du XXe siècle, on qualifiait les ordinateurs de “cerveaux électroniques”. Des machines à calculer mécaniques avaient été construites dès le XVIIe siècle par Pascal et Leibniz. Charles Babbage et Ada Lovelace ont construit des prototypes de machines à calculer complexes dans la Grande-Bretagne victorienne. Les caisses enregistreuses présentes dans de nombreuses boutiques effectuaient les opérations arithmétiques au début du XXe siècle. Mais pour atteindre des calculatrices électroniques programmables – beaucoup plus rapides et adaptables que les machines précédentes – il a fallu que plusieurs progrès théoriques et techniques soient accomplis au préalable. Du côté théorique, Turing avait dès 1937 décrit un automate abstrait capable d’effectuer n’importe quel calcul défini par un programme. Du côté technique, dès le début du XXe siècle, les diodes, ou tubes à vide, ont permis le contrôle fin des flux d’électrons. Utilisés par les premiers ordinateurs, ces composants volumineux et grands consommateurs d’énergie seront ensuite remplacés par les transistors, puis par les circuits imprimés dans la course à la vitesse et à la miniaturisation qui marque l’industrie électronique. Un pas décisif fut franchi par Claude Shannon en 1938, lorsqu’il démontra la corrélation entre le calcul logique et l’arrangement des circuits électriques, à la confluence du virtuel et de l’actuel. Un interrupteur ouvert ou fermé correspond à “vrai” ou “faux”, un montage des interrupteurs en série correspond à l’opérateur logique “et”, un montage en parallèle à l’opérateur “ou exclusif”. Or les connecteurs non, et, ou suffisent à exprimer l’algèbre de Boole, à savoir la formalisation de la logique ordinaire. L’arithmétique en base deux (0, 1) se prête également fort bien au calcul électronique. Traversant les portes logiques, courant dans le labyrinthe de circuits que forment et reforment les programmes, rapide comme l’éclair, l’électron devient signifiant. Automatiser la manipulation du sens virtuel en mécanisant celle du signe actuel, telle est la puissance du codage informatique.
Moins d’un siècle après l’invention des premiers ordinateurs, la mémoire du monde est numérisée et plus de soixante pour cent de la population mondiale est branchée à l’internet. Qu’une information se trouve en un point du réseau et la voici partout. Du texte statique sur papier, nous sommes passé à l’hypertexte ubiquitaire, puis à l’architexte surréaliste qui rassemble tous les symboles. Une mémoire virtuelle s’est mise à croître, secrétée par des milliards de vivants et de morts, fourmillant de langues, de musiques et d’images, grosse de rêves et de fantasmes, mêlant la science et le mensonge. Si l’échange de messages point à point a toujours lieu, la majeure part de la communication sociale s’effectue désormais de manière stigmergique. Plongés dans l’espace numérique, nous communiquons par l’intermédiaire de la masse océanique de données qui nous rassemble. Chaque lien que nous créons, chaque étiquette ou hashtag apposée sur une information, chaque acte d’évaluation ou d’approbation, chaque « j’aime », chaque requête, chaque achat, chaque commentaire, chaque partage, toutes ces opérations modifient subtilement la mémoire commune, c’est-à-dire le magma inextricable des rapports entre les données. Notre comportement en ligne émet un flux continuel de messages et d’indices qui transforment la structure de la mémoire et contribuent à orienter l’attention et l’activité de nos contemporains. Nous déposons dans l’environnement virtuel des phéromones électroniques qui déterminent en boucle l’action des autres internautes et qui entraînent par-dessus le marché les neurones formels des intelligences artificielles (IA).
Le cerveau biologique abstrait le détail des expériences actuelles en schémas d’interactions, ou concepts, codés par des patterns de circuits neuronaux. De la même manière, les modèles neuronaux de l’IA condensent les données innombrables de la mémoire numérique. Ils virtualisent les données actuelles en patterns et en patterns de patterns. Conditionnés par leur entraînement, les algorithmes peuvent alors reconnaître et reproduire des données correspondant aux formes apprises. Mais parce qu’ils ont abstrait des structures plutôt que de tout enregistrer, les voici capables de conceptualiser correctement des formes (d’image, de textes, de musique, de code…) qu’ils n’ont jamais rencontrées et de produire une infinité d’arrangements symboliques nouveaux. C’est pourquoi l’on parle d’intelligence artificielle générative. La mémoire numérique est virtuelle parce qu’elle est détachée de son lieu d’émission et de réception, mise en commun, en attente de lecture, suspendue dans les “nuages” de l’Internet, logicielle. Mais cette mémoire apparaît désormais comme une masse de données actuelles que virtualisent des modèles neuronaux. Et les patterns cachés dans les myriades de couches et de connexions des cerveaux électroniques font retomber en pluie des actualisations inédites. Nous ne semons des données que pour récolter du sens.
Le calcul électronique qui simule le fonctionnement des neurones donne-t-il naissance à une conscience autonome ? Non, parce que les machines manipulent seulement la partie matérielle des symboles et que les images, les textes, les mélodies n’ont de signification que pour nous lorsqu’elles sont émises aux interfaces. Non, parce que l’expérience phénoménale est la contrepartie d’un organisme animal. Les humains sensibles et intelligents n’ont une âme que parce qu’ils habitent un corps vivant. De l’autre côté du miroir, les signifiants tourbillonnent à l’aveugle, les galets s’entrechoquent sur le grand abaque, une furie électronique insensée se déchaîne dans les centres de données. De ce côté du miroir, les écrans nous présentent le visage d’un autre qui parle, mais c’est une projection anthropomorphe. Une bibliothèque ne se souvient pas plus qu’un algorithme ne pense : les deux virtualisent des fonctions cognitives par externalisation, transformation, mise en commun et ré-internalisation. Les nouveaux cerveaux électroniques synthétisent et mettent à l’œuvre – virtualisent et réactualisent – l’énorme mémoire numérique par l’intermédiaire de laquelle nous nous souvenons, communiquons et pensons ensemble. Derrière “la machine” il faut entrevoir l’intelligence collective qu’elle réifie et mobilise.
La crainte du virtuel qui agitait les esprits lors de la première édition de “Qu’est-ce que le Virtuel?” en 1995 (alors qu’à peine un pour cent de la population mondiale était connectée à l’Internet et que le World Wide Web venait d’éclore), s’est transformée aujourd’hui en grande peur de l’intelligence artificielle. Ni fin de la civilisation, ni fin de l’humanité, il s’agit encore d’une nouvelle étape de l’évolution culturelle, de la poursuite d’une hominisation, d’une virtualisation que nous devons penser avec justesse si nous voulons l’orienter.
IEML est une langue (mathématique) dont la finalité principale est de formaliser la description des concepts et de leurs connexions. On s’en servira pour produire des modèles de données, des systèmes de métadonnées sémantiques, des ontologies, des graphes de connaissances et autres réseaux sémantiques. Je dis que cette langue est “mathématique” parce que les nœuds conceptuels (les entités) et les relations – représentés par des phrases IEML – peuvent être générés de manière fonctionnelle et parce que cette langue non ambiguë instaure une bijection entre séquences de caractères (ou chaines phonétiques) et réseaux de concepts. Le grand avantage d’IEML est de rendre les différentes ontologies ou modèles de données sémantiquement compatibles puisque tous les concepts sont construits au moyen du même dictionnaire compact en utilisant la même grammaire régulière.
IEML ne vise pas principalement les sciences exactes, qui disposent déjà d’une formalisation mathématique adéquate et d’une conceptualisation univoque, mais plutôt les sciences humaines, dont la formalisation et la calculabilité laissent à désirer. À noter que l’ingénierie (notamment la documentation de systèmes complexes) et la médecine sont néanmoins des cas d’usages favorables.
COMMENT CONSTRUIRE UN CONCEPT EN IEML?
Pour construire un concept en IEML, il faut utiliser sa grammaire, résumée dans la figure ci-dessous.
Structure et composants de la phrase IEML, illustrés par un exemple
Après avoir pris connaissance de la grammaire, il faut se donner une définition du concept à construire. Voici ci-dessous une définition possible de la démocratie qui utilise la structure de la phrase en IEML.
@node fr: démocratie en: democracy ( 0 verbe: exercer le pouvoir 1 sujet: tous les citoyens 2 objet: unité politique / cité 4 cause/instrument: suffrage universel 7 intention/contexte: régime politique 8 manière: séparation des pouvoirs et protection des minorités ).
Beaucoup d’autres définitions IEML de la démocratie sont possibles, plus simples, plus complexes ou différentes, mais elles seront toutes explicites et on pourra les comparer.
Pour la définition que nous avons proposée, les concepts nécessaires existent déjà dans le dictionnaire IEML pour les rôles 0, 1, 2 et 7, mais pas pour les rôles 4 et 8. Il faut donc créer les concepts de suffrage universel, de séparation des pouvoirs et de protection des minorités. Ici encore, les définitions ci-dessous auraient pu être différentes. Chaque @node créé peut être réutilisé comme un #concept!
@node fr: protection des minorités en:protection of minorities ( 0 ~indicatif #protéger un groupe, 2 #minorités ).
Voici finalement un concept possible de démocratie formellement défini en IEML.
@node fr: démocratie en: democracy ( 0 #exercer le pouvoir, 1 ~tous #citoyen, 2 #unité politique, 4 *instrument #suffrage universel, 7 *se référant à #organisation politique, 8 *avec &et [ #séparation des pouvoirs #protection des minorités] ).
REMARQUES FINALES
À noter que, pour une utilisation concrète dans une ontologie, on ne construit jamais les concepts isolément (un par un) en IEML mais toujours dans des paradigmes ou champs sémantiques. Dans une ontologie des sciences politiques, un paradigme des régimes politiques conserverait les rôles 0-verbe, 2-objet et 7-contexte/intention, mais ferait varier les rôles 1-sujet, 4-cause/instrument et 8-manière. On construirait ainsi une matrice en 3 dimensions qui pourrait être représentée par plusieurs tables 2 D.
Par ailleurs, le sens (ou sémantique) d’un concept ne se réduit pas à sa définition. Il faut aussi prendre en compte le contexte d’utilisation, c’est-à-dire le réseau de relations auquel renvoie le concept dans une ontologie ou graphe de connaissances.
Pour naviguer dans le dictionnaire IEML et les débuts d’ontologies, aller à https://ieml.intlekt.io/login , choisir « read without account » puis « published projects ». Explorer le menu contextuel pour chaque mot, en particulier la visualisation de la table paradigmatique à laquelle le mot appartient.