Ce texte rend compte de ma communication à l’événement *AI for people summit* [https://ai4people.org/advancing-ethical-ai-governance-summit/] organisé avec le concours de l’Union européenne les 2 et 3 décembre 2025. L’essentiel de mon message est le suivant : oui, il faut se préoccuper d’une IA pour les gens, mais cette préoccupation ne deviendra pertinente et efficace que si l’on n’oublie pas que l’IA est aussi faite par les gens. 

L’expression même d’intelligence artificielle nous trompe parce qu’elle sous-entend l’autonomie de la machine. De nombreux facteurs soutiennent et renforcent l’erreur d’attribuer une autonomie aux modèles de langue. L’expérience naïve du dialogue avec des IA donne l’impression qu’elles sont conscientes ; les journalistes rivalisent d’articles sensationnalistes ; les responsables des grandes compagnies d’IA annoncent “l’intelligence artificielle générale” pour demain ; des chercheurs en IA, parmi lesquels certains ont été récompensés par un prix Turing, lancent à un public affolé des prédictions apocalyptiques. 

Pour surmonter cette erreur de conceptualisation, j’invite mes lecteurs à cesser de considérer les modèles d’IA en isolation. En réalité, ils ne peuvent être séparés de l’écosystème informationnel auquel ils appartiennent et dont ils dépendent. Cet écosystème peut être décrit comme un circuit à trois stations : les personnes, les données et les modèles. Les personnes créent de l’information, ils alimentent ainsi la mémoire numérique, dont les données entraînent les modèles, qui augmentent les capacités de création d’information des personnes, qui alimentent la mémoire et ainsi de suite. Dans cet écosystème informationnel, l’IA permet de mobiliser l’intelligence collective réifiée dans la mémoire numérique au service des personnes vivantes, qui peuvent contribuer à enrichir la masse des données accumulées. L’accès à la mémoire passe désormais par une IA qui la filtre, la distille et la rend opératoire en fonction des besoins particuliers des utilisateurs. Telle est du moins la version optimiste que je défends. Mais cette approche humaniste ne m’empêche pas de remarquer la face d’ombre du nouvel environnement de communication. Beaucoup de réflexions sur l’éthique de l’IA se concentrent sur la production et la réglementation des modèles, ce qui est légitime. Mais on oublie trop souvent la responsabilité des personnes produisant les données – dorénavant la société dans son ensemble. 

Afin de rendre ma démonstration plus convaincante, je vais évoquer quelques cas d’empoisonnement des données particulièrement impressionnants. Plusieurs rapports récents font état d’une entreprise de propagande pro-russe d’abord nommée “Portal Kombat” et intitulée aujourd’hui “Pravda”. Il s’agit d’un réseau de plus de 150 sites web qui se présentent comme des diffuseurs d’information anodins, mais qui répètent constamment les éléments de langage du Kremlin. Les sites sont localisés dans tous les continents et leurs textes sont traduits dans des douzaines de langues, ce qui les rend plus crédibles selon les critères adoptés par les producteurs des modèles d’IA. En moyenne, ce réseau publie 20 273 articles toutes les 48 heures, soit environ 3,6 millions d’articles par an. La production et la traduction des textes est presque entièrement automatisée. Le but n’est pas d’avoir des lecteurs humains (il y en a relativement peu) mais de servir de données d’entraînement pour les IA et donc, par leur intermédiaire, de manipuler leurs utilisateurs. Une étude a établi que les principaux modèles probabilistes tels que ChatGPT d’OpenAI, le Chat de Mistral, Copilot de Microsoft’ Meta AI, Claude d’Anthropic, Gemini de Google et Perplexity AI régurgitent ou confirment les informations fournies par le réseau Pravda dans plus d’un tiers des cas, ce qui n’est déjà pas si mal du point de vue des “mesures actives” russes. Souvenons-nous que, pour Gœbbels, la propagande était basée sur la répétition, la simplicité et l’émotion. Avec les LLM, pas besoin de démonstration, de preuve, de faits, de contextualisation. La répétition et la simplicité fonctionnent parfaitement, il suffit que deux mots soient souvent associés dans les données d’entrainement pour qu’ils le soient aussi dans les réponses de l’IA.

Au lieu de se reposer sur des données éparpillées sur le Web, ne faudrait-il pas plutôt prioriser les données objectives et fiables que l’on trouve dans les revues scientifiques, les encyclopédies et les médias classiques? Et, en effet, Wikipédia est l’une des sources réputées les plus fiables par les responsables des modèles de langue. Or un grand nombre d’articles de Wikipédia ont fait l’objet d’une prise de contrôle par les islamistes et les défenseurs du Hamas, qui ont coordonné leur action en utilisant à leur profit les règles de fonctionnement de l’encyclopédie en ligne. Les choses sont allées si loin que les fondateurs de Wikipédia, Jimmy Wales et Larry Sanger s’en sont inquiétés publiquement. Mais rien n’y fait : authentifié par l’encyclopédie, le point de vue islamiste est maintenant gravé dans les modèles de langue. Une enquête diligentée par la BBC, un média de référence, déplore que les actualités soient mal représentées dans 45% des cas par les intelligences artificielles et que la moitié des jeunes gens (moins de 35 ans) croient à leur exactitude et n’éprouvent pas le besoin de vérifier leur contenu. La BBC pointe un doigt accusateur vers les assistants IA et s’insurge contre l’idée que les erreurs et la désinformation proviendraient des fournisseurs de nouvelles officiels. Hélas, quelques mois plus tard, le directeur général et la directrice de l’information de la BBC étaient obligés de démissionner à la suite d’un scandale de fabrication de fausses nouvelles sur Donald Trump et d’un rapport faisant état d’un biais islamiste systématique dans les émissions de la BBC en arabe. Dans le cas du réseau “Pravda” je mentionnais la théorie de la propagande de Gœbbels basée sur la répétition. Dans le cas de Wikipedia et de la BBC, il faudrait faire appel à une autre théorie de la propagande du 20e siècle, celle d’Edward Bernays, selon qui la manière la plus efficace de convaincre le public était de passer par les leaders d’opinion et les figures d’autorité. Au sujet d’une scientificité garantie par l’Université, souvenons-nous que l’Université allemande (et une bonne part de l’université mondiale) était raciste dans les années trente du 20ᵉ siècle et que l’Université soviétique a entretenu la doctrine anti-génétique de Lyssenko pendant des décennies. N’est-il pas possible que certaines doctrines – notamment dans les sciences humaines – qui se trouvent aujourd’hui majoritaires dans les universités soient considérées avec commisération par nos successeurs? 

Je ne me livrerai pas ici à un exposé sur toutes les techniques dites d’empoisonnement des données ni à un avertissement sur les dangers de l’injection de prompts malicieux dans des sources d’information apparemment innocentes. J’espère seulement avoir attiré l’attention du lecteur sur l’importance des données d’entraînement dans la détermination des réponses des AI.

Une fois ce point acquis, il est clair que les problèmes éthiques ne peuvent se limiter aux modèles mais qu’il doivent s’étendre à la création des données qui les entraînent, c’est à dire à l’ensemble de notre comportement en ligne. Chaque lien que nous créons, chaque étiquette que nous apposons à une information, chaque « like », chaque requête, achat, commentaire ou partage et a fortiori chaque article, entrée de blog, podcast ou vidéo que nous postons, toutes ces opérations produisent des données qui vont entraîner les neurones formels des intelligences artificielles. Nous nous concentrons généralement sur la réception directe de nos messages mais il nous faut garder à l’esprit que nous contribuons indirectement – par l’intermédiaire des modèles que nous entraînons – à répondre aux questions de nos contemporains, à rédiger leurs textes, à instruire des élèves, à orienter des politiques, etc. Cette responsabilité est d’autant plus grande que nous nous trouvons dans une position d’autorité et que nous sommes censés dire le vrai, puisque l’IA accorde un plus grand poids aux informations fournies par les journalistes, professeurs, chercheurs scientifiques, rédacteurs de manuels et producteurs de sites officiels.

Revenons pour finir à l’écosystème informationnel contemporain. Supposons que la tendance que l’on voit se dessiner aujourd’hui se confirme dans les années qui viennent. Les IA représentent alors notre principale interface d’accès à la mémoire accumulée et notre premier médium de communication entre humains, puisqu’elles régissent les réseaux sociaux. Dans ce nouvel environnement, les personnes créent les données, qui entraînent les modèles, qui augmentent les personnes, qui créent les données et ainsi de suite le long d’une boucle autogénérative. Cet écosystème fait simultanément office de champ de bataille des récits et de lieu de création et de mise en commun des connaissances ; il oscille entre manipulation et intelligence collective. Dès lors, un des enjeux essentiels reste la formation des esprits. Quelques mots d’ordre éducatifs à l’âge de l’IA : ne pas renoncer à la mémorisation personnelle, s’exercer à l’abstraction et à la synthèse, questionner longuement au lieu de se contenter des premières réponses, replacer toujours les faits dans les multiples contextes où ils prennent sens, prendre la responsabilité des messages que l’on confie à la mémoire numérique et qui contribuent à forger l’esprit collectif.

RÉFÉRENCES

Le réseau Pravda

https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global?

https://www.fdd.org/analysis/policy_briefs/2025/01/31/russian-malign-influence-campaigns-expand-onto-bluesky/

https://www.sgdsn.gouv.fr/files/files/20240212_NP_SGDSN_VIGINUM_PORTAL-KOMBAT-NETWORK_ENG_VF.pdf

Wikipedia

https://www.detroitnews.com/story/business/2025/03/07/wikipedia-roiled-with-internal-strife-overpage-editsabout-the-middle-east/81935309007/

https://www.thejc.com/opinion/how-the-gaza-coverage-hard-wired-anti-israel-into-ai-snmil3i1

https://www.timesofisrael.com/wikipedia-co-founder-locks-edits-on-gaza-genocide-page-citing-anti-israel-bias/

https://www.adl.org/resources/report/editing-hate-how-anti-israel-and-anti-jewish-bias-undermines-wikipedias-neutrality

https://www.piratewires.com/p/how-wikipedia-s-pro-hamas-editors-hijacked-the-israel-palestine-narrative

https://besacenter.org/debunking-the-genocide-allegationsa-reexamination-of-the-israel-hamas-war-2023-2025/

La BBC

https://www.bbc.co.uk/mediacentre/2025/new-ebu-research-ai-assistants-news-content

https://www.nbcnews.com/news/us-news/bbc-director-resigns-criticism-broadcasters-editing-trump-speech-rcna242858

L’intelligence artificielle est mystérieuse : on lui parle et elle semble comprendre ce qu’on lui dit. La preuve qu’elle comprend c’est qu’elle répond par un texte ou une parole qui a du sens, et parfois plus de sens que ce que pourrait articuler un humain ordinaire. Comment est-ce possible?

Brueghel, le Paradis terrestre.
Le succès des modèles de langue

Certes, les recherches sur l’intelligence artificielle datent du milieu du 20e siècle et, même si le grand public ne peut les manipuler directement que depuis 3 ans, les modèles statistiques ou neuro-mimétiques étaient déjà présents “sous le capot” d’une foule d’applications depuis les années 2010. Mais le type d’application grand public que tout le monde appelle maintenant “l’IA” n’est apparu qu’en 2022. Il faut d’abord prendre la mesure du phénomène sur un plan quantitatif. À la fin de 2025, il y avait déjà 700 millions d’utilisateurs hebdomadaires de ChatGPT et 150 millions d’utilisateurs actifs quotidiens pour l’IA générative en général. On estime que 50% des travailleurs américains utilisent des modèles de langue (ChatGPT, Claude, Perpexity, Gemini, etc.), d’ailleurs sans grande augmentation de leur productivité, sauf pour les tâches de programmation et de bureaucratie interne. Sur le plan des mœurs, l’IA s’est tellement imposée dans le paysage numérique que beaucoup de jeunes gens ont l’impression qu’elle a toujours existé. Les étudiants s’en servent pour faire leurs devoirs. Des millions de personnes ont développé une addiction au dialogue avec une machine désormais amie, confidente ou psychothérapeute. Interagir avec un modèle de langue augmente votre estime de soi!

L’interdépendance des problèmes

Tout ceci pose des problèmes éthico-politiques, géopolitiques et civilisationnels. Il est d’ailleurs possible que, dans les années à venir, de nouvelles avancées scientifiques et techniques rendent ces problèmes encore plus aigus. La puissance de mémoire et de calcul qui supporte l’IA se partage aujourd’hui entre les deux oligarchies numériques américaine et chinoise qui rivalisent d’investissements. Cette concentration économique et géopolitique soulève à juste titre l’inquiétude. Les “biais”, les mauvais usages de toutes sortes et les délires probabilistes des machines poussent à la construction de garde-fous éthiques. C’est bien. Il faut néanmoins rappeler que l’éthique ne se limite pas à apaiser les craintes ou à prévenir les nuisances mais qu’elle invite aussi à penser les bons usages et les directions de développement favorables. Avec l’IA, les questions industrielles, éthiques et cognitives sont étroitement codépendantes. C’est pourquoi il est nécessaire d’élucider l’efficace cognitive de cette technique si l’on veut comprendra pleinement ses enjeux industriels, éthico-politiques et civilisationnels.

La question

Comment se fait-il que des algorithmes statistiques, qui calculent la probabilité du mot suivant, puissent générer des textes pertinents et des dialogues engageants ? À mon sens, la solution de cette énigme se trouve dans une compréhension de ce qu’est l’intelligence humaine. Car ce sont des humains qui produisent les milliards de textes qui servent de données d’entraînement. Ce sont encore des humains qui construisent les centres de calcul, étendent les réseaux et conçoivent les algorithmes. Ce sont toujours des humains qui, par leur lecture, projettent un sens sur les textes aveuglément générés par des machines privées de conscience. Mais puisque le secret de l’IA se trouve selon moi dans l’intelligence humaine, je manquerais à ma tâche si je n’expliquais pas en quoi elle consiste.

Qu’est-ce que l’intelligence humaine ?

L’intelligence humaine est d’abord animale, c’est-à-dire qu’elle est ordonnée à la locomotion qui distingue les bêtes des plantes dépourvues de neurones. Le système nerveux organise une boucle entre la sensibilité et la motricité. Cette interface entre la sensation et le mouvement se complexifie au fur et à mesure de l’évolution, jusqu’à l’apparition du cerveau chez les animaux les plus intelligents. Ces derniers deviennent capables de cartographier leur territoire, de retenir des événements passés (ils ont une mémoire) et de simuler des événements futurs (ils ont une imagination). Le fonctionnement du cerveau produit l’expérience consciente, avec ses plaisirs et ses peines, ses répulsions et ses attractions. De là découle toute la gamme des émotions qui colorent les perceptions et induisent les actions. Assignée au mouvement, l’intelligence animale organise son expérience dans l’espace et le temps. Elle vise des buts et se réfère à des objets du monde environnant. A-t-elle affaire à une proie, à un prédateur, à un partenaire sexuel ? De la catégorisation suit le type d’interaction. Il ne fait aucun doute que l’intelligence animale conceptualise. Enfin, l’animal échange une foule de signes avec la faune et la flore de son milieu de vie et communique intensément avec les membres de son espèce.

[On trouvera un développement sur la complexité de l’expérience animale dans ma récente conférence]

L’IA ne possède aucun des caractères de l’intelligence animale : ni la conscience, ni le sens de l’espace et du temps, ni l’intentionalité de l’expérience (la finalité et la référence à des objets), ni l’aptitude à conceptualiser, ni les émotions, ni la communication. Or l’intelligence humaine comprend l’intelligence animale et possède en plus une capacité symbolique qui s’actualise dans le langage, les institutions sociales complexes et les techniques. Malgré sa singularité dans la nature, n’oublions jamais que la capacité symbolique humaine s’enracine dans une sensibilité animale dont elle ne peut se séparer.

[Pour en savoir plus sur l’ordre symbolique, écouter ma conférence sur ce sujet]

Le langage : entre sensible et intelligible

Je vais examiner plus particulièrement le langage, grâce à qui nous pouvons dialoguer, raconter des histoires, poser des questions, raisonner et spéculer sur l’invisible. Commençons par analyser la composition d’un symbole. Il comprend une partie sensible, une image visuelle ou sonore (le signifiant) et une partie intelligible ou concept (le signifié). On a vu que les animaux avaient des concepts, mais l’Homme seul représente ses concepts par des images, ce qui lui permet de les réfléchir et de les combiner à volonté. Les symboles, et en particulier les symboles linguistiques, ne sont jamais isolés mais font partie de systèmes symboliques qui sont intériorisés par les interlocuteurs. Il faut que la grammaire et le dictionnaire de notre langue commune fasse partie de nos automatismes pour que nous nous comprenions de manière fluide. Les textes appartiennent simultanément à deux mondes qu’ils connectent à leur manière : ils possèdent une adresse spatio-temporelle par leur partie sensible et ils se distribuent en d’invisibles réseaux de concepts par leur partie intelligible.

Que signifie comprendre une phrase? Prenons l’exemple simple qui suit : “Je peins la petite pièce en bleu”. Je fais d’abord correspondre au son de chaque mot son concept. Puis, à partir de la séquence parlée, je construis l’arbre syntaxique de la phrase avec, à la racine, le verbe “peins”, à la feuille-sujet le mot “je”, à la feuille-objet l’expression “la petite pièce” et à la feuille-complément de manière le mot “bleu”. Mais ce n’est pas tout. Pour vraiment comprendre “je”, il me faut savoir que la première personne a été choisie par opposition à la seconde et à la troisième personne. Pour saisir “bleu” je dois savoir que c’est une couleur et qu’elle représente une sélection parmi le paradigme des couleurs (jaune, rouge, vert, violet, etc.). Et ce n’est que par rapport à grand, long ou étroit que “petite” fait sens. Bref, dans une expression symbolique simple telle qu’une courte phrase, chaque mot occupe une place dans un arbre syntaxique et actualise un choix dans un groupe de substitutions possibles.

Les phrases sont généralement proférées par des sujets en situation d’interlocution. Mes automatismes symboliques ne se contentent pas de reconstituer le sens linguistique d’une phrase à partir d’une séquence de sons, ils projettent aussi une subjectivité, une intériorité humaine, à la source de la phrase. La parole s’élève dans le va-et-vient d’un dialogue. Je situe cette phrase dans l’histoire et l’avenir possible d’une relation, au sein d’un contexte pratique particulier. D’autre part, une expression symbolique fait le plus souvent référence à une objectivité, à une réalité extra-linguistique, voir extra-sociale. Enfin, elle éveille en moi une foule de résonnances affectives plus ou moins conscientes.

En somme, l’image symbolique, qui est sensible et matérielle, va déclancher dans l’esprit humain la production et le tissage cohérent d’un sens intelligible à partir d’une multitude de fils sémantiques : un sens conceptuel ; un sens narratif par la reconstitution d’arbres syntaxiques et de groupes de substitution paradigmatiques ; un sens intersubjectif et social ; un sens référentiel objectif ; un sens affectif et mémoriel. C’est dire que, une fois recueilli par l’intelligence humaine, un texte matériel devient solidaire de toute une complexité immatérielle, complexité qui n’est nullement aléatoire mais au contraire fortement structurée par les langues, les rituels de dialogue et les règles sociales, la logique des émotions, la cohérence contextuelle inhérente aux corpus et aux mondes de référence. La capacité des modèles de langue à « raisonner » et à répondre aux requêtes de manière pertinente est un effet de corpus, en rapport avec la priorité accordée aux données d’entraînement dialogiques et à celles qui adoptent un style démonstratif. Les énormes données d’apprentissage permettent une capture statistique des normes de discours.

Or c’est précisément cette solidarité entre la partie matérielle des textes – désormais numérisés – et leur partie immatérielle que va capter l’intelligence artificielle. N’oublions pas que seul le signifiant (les séquences de 0 et de 1) existe pour les machines. Pour elles, il n’y a ni concepts, ni récits, ni sujets, ni mondes de référence réels ou fictifs, ni émotions, ni résonnances liées à une mémoire personnelle et encore moins un quelconque enracinement dans une expérience sensible de type animal. Ce n’est que grâce à la quantité gigantesque des données d’entraînement et à l’énorme puissance des centres de calcul contemporains que les modèles statistiques parviennent à réifier la relation entre la forme sensible des textes et les multiples couches de sens que détecte spontanément un lecteur humain.

Données d’entraînement et puissance de calcul

L’IA contemporaine repose sur quatre piliers :
1) les données d’entraînement,
2) la puissance de calcul,
3) les algorithmes de traitement statistique qui simulent grossièrement des réseaux neuronaux (deep learning),
4) les résultats de divers travaux “manuels” tels que les bases de données spécialisées, les graphes de connaissances qui catégorisent et structurent les données, les retours d’évaluation in vivo qui permettent des réglages fins.

Examinons plus en détail les deux premiers piliers. Les archives et mémoires analogiques ont pour la plupart été numérisées. La plus grande partie de la mémoire collective est maintenant directement produite sous forme numérique. 68% de la population mondiale était connectée à Internet en 2025 (seuls 2% de la population mondiale l’était en 2000). La foule présente en ligne produit et consomme une quantité phénoménale d’information. Or le plus petit geste dans une application, le moindre regard vers un écran alimentent les données d’entraînement des IA. Les algorithmes sont capables de prendre en compte plusieurs pages dans leur “attention” statistique. Les vastes corpus d’entraînement fournissent des contextes élargis qui permettent de raffiner le sens des mots et des expressions au-delà de ce qu’un dictionnaire pourrait proposer. On comprend donc que les modèles de langue puissent calculer des corrélations entre signifiants matériels qui impliquent – pour un lecteur humain – les significations immatérielles correspondantes. Mais il faut mobiliser pour cela une puissance de calcul inouïe. Alphabet, Amazon, Apple, Meta, Microsoft, NVIDIA et Tesla ont dépensé plus de 100 milliards de dollars dans la construction de centres de données entre Aout et Octobre 2025. Des centrales nucléaires dédiées vont bientôt alimenter les centres de données en électricité. La puissance de calcul agrégée du monde est plusieurs millions de fois supérieure à ce qu’elle était au début du 21e siècle.

Conclusion

Récapitulons les différents aspects de l’intelligence et du travail humain qui permettent aux IA de nous donner l’impression qu’elles comprennent le sens des textes. Les industriels fabriquent les installations qui supportent la puissance de calcul. Les informaticiens conçoivent et implémentent les logiciels qui effectuent les traitements statistiques. Des ontologistes (dont je suis) créent des règles, des systèmes d’étiquettes sémantiques, des graphes de connaissance et des bases de données spécialisées qui corrigent la dimension purement probabiliste des sytèmes d’IA. Des armées d’employés trient, collectent et préparent les données, puis supervisent l’entraînements des modèles. Des testeurs raffinent les réponses données par les machines, détectent leurs biais et tentent de les réduire. Je n’ai pas encore énuméré les deux facteurs qui expliquent le mieux l’intelligence des modèles de langue. Car c’est l’intelligence collective humaine qui produit les données d’entraînement, données qui enveloppent la solidarité entre les textes et leur sens. Enfin, à partir des images signifiantes générées sur un mode probabiliste par des modèles mécaniques et inconscients, c’est bel et bien l’esprit des utilisateurs vivants qui évoque des concepts, des récits, des intentions référentielles, la cohérence d’un monde réel ou fictif, une intersubjectivité dialogante, des intuitions spatio-temporelles et enfin des émotions, toutes dimensions du sens qui sont le propre de l’intelligence humaine.

En fin de compte, l’IA fonctionne comme une interface mécanique entre l’intelligence collective qui produit les données d’entraînement et les intelligences individuelles qui interrogent les modèles, lisent leurs réponses et les utilisent. Cette interface robotique entre les intelligences personnelles vivantes et l’intelligence collective accumulée augmente aussi bien – et de manière synergique – les unes que l’autre. Tel est le secret de l’intelligence artificielle, bien caché sous la fiction d’une IA autonome, qui “dépasse” l’intelligence humaine, alors qu’elle l’exprime et l’augmente. Dans ses effets concrets, ce nouveau système d’alimentation réciproque de l’intelligence individuelle et de l’intelligence collective peut contribuer à l’abrutissement des masses paresseuses et à l’extension de la banalité, comme il peut démultiplier les capacités créatives des savants et des penseurs originaux. Entre les deux, toutes les nuances de gris sont possibles. Dans l’éventail des possibilités entre ces deux extrêmes se trouve sans doute l’ultime choix éthique qui, bien qu’il concerne chacun d’entre nous, se pose de manière encore plus aiguë pour les éducateurs qui doivent enseigner l’art de lire, d’écrire et de penser. [Voir mon entrée de blog consacrée à ce sujet].

Il s’agit là du texte – simplifié et raccourci – de la communication que j’ai délivrée le 28 octobre 2025 à la PUC-RS à Porto Alegre devant les étudiants en maîtrise et doctorat de sciences humaines accompagnés de leurs professeurs.

Définissons l’humanisme d’abord comme une réflexion sur l’essence de l’Homme qui se caractérise par son abstraction et se situe dans un horizon d’universalité. Deuxièmement, fondé sur cette réflexion, l’humanisme se préoccupe du bien de l’Homme, c’est dire qu’il a une visée normative, éthique.

Karl Jaspers a nommé “période axiale” le milieu du premier millénaire avant notre ère, ce moment de l’histoire où Confucius en Chine, le Bouddha en Inde, Zarathoustra en Perse, les prophètes hébreux en Israel et Socrate en Grèce ont fondé, chacun à leur manière, de grandes traditions humanistes. On notera qu’il s’agit toujours d’une affaire de lettrés, basée sur l’usage de l’alphabet ou d’un système de caractères standardisés comme en Chine. En ce temps là, les chaînes de traditions orales commençaient à être notées, les textes manuscrits, réécrits à chaque copie, étaient fluides, éclatés entre de multiples versions. Quant aux auteurs réels, anonymes et pluriels, ils se dissimulaient souvent sous l’autorité de grands ancêtres mythiques.

La Bible et la littérature gréco-romaine sont les deux grandes racines de l’humanisme occidental. Je laisse de côté la Bible que je n’ose évoquer devant des frères maristes qui en savent plus que moi sur ce sujet et je me contenterai d’évoquer l’humanisme gréco-romain. La païdéia grecque et l’humanitas romaine (qui en est la traduction) reposent sur trois grands piliers: les lettres, l’ouverture d’esprit et le sentiment de la dignité humaine.

Les lettres comprennent ici la maîtrise du langage et de l’écriture (la grammaire), la science du raisonnement et du dialogue contradictoire (la dialectique), l’art de convaincre, enfin, essentiel dans cette culture d’orateurs politiques et d’avocats (la rhétorique). L’encyclopédie lettrée supposait la connaissance des sciences de l’époque et surtout une immersion de l’esprit dans le corpus des auteurs classiques : poètes, dramaturges et philosophes.

L’ouverture d’esprit se manifeste dans cette maxime célèbre tirée d’une pièce de Térence (2e siècle avant notre ère) : “Rien de ce qui est humain ne m’est étranger”. La phrase est elle-même inspirée de Ménandre, auteur de théâtre de l’époque hellénistique.

Le troisième point, qui définit encore aujourd’hui le fondement de l’attitude morale humaniste, est le primat de la dignité humaine. On pourrait prétendre que les romains et les grecs, qui pratiquaient l’esclavage, n’ont pas été à la hauteur de leurs propres principes. Sans doute. Mais il faut rappeler que presque toutes les sociétés ont pratiqué l’esclavage ou le servage, dont l’abolition ne date que du 19e siècle. Or, malgré leur statut juridique inférieur, on pouvait traiter les esclaves de manière “humaine” ou pas. L’auteur de théâtre Térence, que j’ai cité plus haut, et le philosophe stoïcien Épictète sont nés esclaves et ils ont été affranchis par des maîtres qui admiraient leurs talents.

L’histoire des technologies symboliques rythme celle de l’humanisme. À la Renaissance, l’imprimerie, en mécanisant la reproduction des textes, rend disponible les copies et les traductions. L’édition devient une industrie et la littérature moderne se développe. Il en résulte la naissance de l’auteur moderne, source d’un texte original, qui se matérialisera à la fin du 18e et surtout au 19e siècle par l’apparition du droit d’auteur.

Les “humanistes” de la Renaissance éditent, fixent, traduisent et impriment les textes anciens qui appartiennent aux traditions bibliques et gréco-latines. Émerge alors la critique textuelle, à savoir l’établissement des textes à partir de copies divergentes. Les studia humanitatis regroupent alors la connaissance de l’Hébreu, du Grec et du Latin. Au-delà de la compétence linguistique, le métier d’humaniste suppose une intimité avec les grands textes de la littérature et de la philosophie, une nouvelle sensibilité à la philologie, à l’histoire et aux contextes de rédaction qui aboutira au 19e siècle à la naissance de l’herméneutique moderne.

La critique textuelle mène insensiblement à l’esprit critique. Luther initie le schisme de la chrétienté latine en contestant l’autorité de l’Église qu’il déplace sur les Écritures saintes, désormais disponibles en langues vernaculaires: c’est le fameux slogan “Sola scriptura“. Première figure de l’intellectuel européen, Érasme de Rotterdam vit de sa plume grâce à l’imprimerie, navigue dans un réseau intellectuel transnational, n’hésite pas à critiquer la société et les élites de son temps (comme dans son célèbre Éloge de la folie), et s’établit par son œuvre monumentale comme un des principaux éditeurs, philologues, traducteurs, théologiens et pédagogues de l’Europe. Face à la montée des haines religieuses (et contrairement au boute-feu Luther), Érasme défend un humanisme chrétien pacifique.

Au début du 19e siècle un débat, particulièrement illustré par le pédagogue Friedrich Niethammer, partage les esprits en Allemagne. Faut-il centrer l’éducation – qui vise de plus en plus l’ensemble du peuple – sur les matières “utiles” de type scientifique et technique ou bien plutôt sur le développement de l’esprit, du goût, du jugement moral autonome et sur la capacité à s’inscrire dans une culture partagée grâce à l’étude des textes anciens? La première option, plus immédiatement pratique, se nomme alors philanthropie. Quant à la seconde option, qui insiste sur la formation de la personne ou “bildung”, elle est baptisée humanisme. Dans le monde occidental, ce débat va durer jusqu’au 20e siècle inclus, jusqu’à ce que la formation dite humaniste ne soit plus réservée qu’à une petite minorité de spécialistes professionnels et ne constitue plus l’armature de l’éducation de la majorité, ni même celle des élites.

Dans la seconde moitié du 19e siècle, l’historien Jacob Burckhardt redéfinit l’humanisme (qu’il conçoit comme un fruit de la Renaissance européenne) comme une orientation philosophique et pratique vers l’autonomie de l’esprit humain s’émancipant du clan familial, de la classe sociale et de l’autorité de l’église qui étouffent la liberté individuelle. Les idées de Burckhardt auront une grande influence sur Nietzsche, lui-même philologue de profession et fort sensible au caractère historique des manières de vivre et de penser.

Résultant d’une évolution qui avait commencé dès la Renaissance, entre les 19e et 20e siècles, l’humanisme se centre sur la valeur et la dignité de l’Homme, adopte une éthique universaliste, se situe dans une perspective générale d’émancipation ou de gain d’autonomie ; enfin, il accorde une importance privilégiée aux études littéraires et artistiques pour le développement de la personne. Cette approche a fait l’objet de nombreuses critiques en provenance des théologiens chrétiens, des penseurs socialistes et des contempteurs de la morale ordinaire. Mais je ne m’attarderai pas ici à ces nombreuses contestations, qui sont devenues particulièrement vives à partir de la fin de 1ère guerre mondiale, perçue comme un effondrement de l’humanisme européen.

Si l’humanisme naît avec l’alphabet dans un milieu lettré et renaît avec l’imprimerie, que devient-il lorsque le numérique s’affirme comme la technologie symbolique dominante? Déterminons les principaux caractères de la métamorphose du texte au 21e siècle. Toutes les expressions symboliques sont rassemblées et interconnectées dans une mémoire numérique universelle omniprésente. La manipulation des symboles (et non seulement leur reproduction et leur transmission) est automatisée. Les textes peuvent être générés, traduits, et résumés automatiquement. Les masses de données numériques entrainent l’intelligence artificielle générative (IA), qui devient la voix probabiliste de la mémoire collective. Paradoxalement l’IA représente d’autant mieux la tradition qu’on l’interroge sur des textes du canon humaniste souvent édités, traduits et commentés tels que la Bible, les pères de l’Église, Homère, Platon, Aristote, les grandes œuvres littéraires et philosophiques occidentales, sans oublier les œuvres capitales et textes sacrés des autres traditions. En revanche, plus on s’approche d’œuvres et de thèmes contemporains et plus l’IA exprime l’opinion : la rumeur et les échos de la caverne de Platon, désormais numérique.

L’humanisme n’a jamais été autant critiqué qu’en ce 21e siècle. Le posthumanisme dénonce nos illusions sur la permanence d’une humanité désormais obsolète, hybridée ou dépassée par les machines et les biotechnologies. L’écologisme et l’antispécisme critiquent notre anthropocentrisme : ayant pris conscience des ravages de l’anthropocène, du changement climatique et de l’effondrement de la diversité biologique il nous faudrait renoncer à l’humanisme qui voit en l’Homme le « maître et possesseur de la nature ». Enfin, pour les tenants d’une certaine sociologie critique (marxisme, anti-impérialisme, féminisme intersectionnel), l’humanisme universaliste masquerait la domination d’une partie de l’humanité sur une autre.

Mais il ne faut pas confondre l’humanisme avec son invocation hypocrite ou sa caricature. l’humanité n’est pas obsolète. Les derniers développements de la technique confirment, s’il en était besoin, la singularité à la fois terrible et merveilleuse de notre espèce. C’est précisément parce que nous avons – en tant qu’êtres humains – une capacité symbolique qui nous ouvre à la conscience morale que nous devons prendre la responsabilité de la biosphère et défendre la dignité intrinsèque de tous les êtres humains.

Dans le prolongment de son évolution historique et des contre-courants qui s’y sont opposés tout en l’enrichissant, je voudrais maintenant articuler ma propre version de l’humanisme au 21e siècle. Je vais énoncer quelques principes fort simples qui, à mon sens, devraient guider la communauté des “humanités” désormais numériques.

À la racine se trouve un certain rapport à la parole et à la tradition. Un humaniste reconnait le poids existentiel de la parole et considère le langage comme le milieu éminent du sens. À une époque de démystification et de critique tous azimuts, il faut réapprendre à cultiver une révérence pour les textes et les symboles. Plutôt que de rejeter aveuglément les traditions, dans une logique de “table rase”, nous devrions travailler à les recueillir, non pour les réifier ou les maintenir inchangées mais pour les faire vivre au présent, les réinterpréter et les transmettre.

Les trois pratiques humanistes par excellence – lire, écrire, penser – se conditionnent mutuellement.

La lecture est essentiellement un rapport à la bibliothèque, que son support soit l’encre et le papier ou l’écran et l’électron. En tant qu’humaniste, ma vocation est d’accueillir, autant que possible, la source de sens virtuellement infinie de la bibliothèque. En lisant, je dé-couvre sous un texte une parole vivante qui s’adresse à moi. Afin de recueillir le sens du texte, je ne m’enferme pas dans une seule méthodologie mais je mobilise la philologie, les analyses formelles, l’histoire, les influences. Chaque texte peut être interprété sur le fond d’une multiplicité de corpus (celui de l’auteur, de l’époque, du genre, du sujet, etc.) si bien que la figure unique du texte donne lieu à plusieurs formes selon les perspectives. L’IA ne doit jamais se substituer à la lecture. Rien ne remplace la relation directe avec un texte. En revanche, l’IA peut augmenter la lecture par des explications, des commentaires, des références, voire l’évocation d’une littérature secondaire. Ne plus lire à la première personne, c’est cesser d’apprendre et renoncer à comprendre.

Passons maintenant à l’écriture. Écrire, c’est s’incrire dans le temps, entretenir un rapport au passé, au présent et à l’avenir. Dans la relation au passé, l’écriture se confronte aux canons et aux corpus. L’auteur soliste ne chante jamais qu’accompagné par le chœur fantomatique des générations disparues. Dans le présent vivant, je participe à un dialogue de lettrés où se croisent mémoire collective (peut-être portée par l’IA) et mémoire personnelle. J’articule une parole vivante qui s’adresse à l’autre pour faire jaillir un sens contemporain. Dans mon rapport à l’avenir, j’ajoute à une mémoire collective qui contribue à entraîner les IA et qui touchera peut-être l’esprit des générations futures. Quelle responsabilité! Sauf pour les tâches administratives, l’IA ne doit jamais se substituer à l’écriture. Mais elle peut la préparer en rédigeant des fiches ou en organisant des notes, comme le ferait un assistant. Elle peut aussi parfaire un texte en travaillant à son édition ou à sa bibliographie. Ne plus écrire à la première personne, c’est cesser de penser.

Et justement, qu’est-ce que penser en humaniste ? Il s’agit d’abord d’enrichir notre mémoire personnelle, qui est le fondement de la pensée vivante. Ce n’est pas parce que “tout” se trouve sur internet que nous devons cesser de cultiver notre mémoire individuelle. Et cela précisément parce que la pensée est un dialogue des mémoires. Elle se tisse en effet dans une dialectique entre la mémoire collective représentée aujourd’hui par l’IA, la mémoire personnelle de chacun d’entre nous et le dialogue ouvert – contradictoire et complice – avec nos pairs et contemporains. Plus riche est notre mémoire personnelle et mieux nous pouvons exploiter les ressources de l’IA, poser les bonnes questions, repérer les hallucinations, éclairer les angles morts. En aucun cas l’IA ne peut se substituer à l’ignorance. Mais elle peut servir de conseillère et d’entraîneuse pour nos apprentissages. Ignorants, nous serons manipulés et induits en erreur par les modèles de langue. Par contraste, plus nous sommes savants et mieux nous pouvons maîtriser l’IA qui, quoiqu’elle soit aujourd’hui l’environnement de la pensée ou le nouveau sensorium, n’est jamais qu’un outil.

L’humanisme est aujourd’hui attaqué sur trois fronts. 1) Pour le post-humanisme, l’IA et les biotechnologies signifieraient la fin de l’Homme ou du moins la fin de l’humanisme traditionnel. 2) Pour l’écologisme et l’antispécisme, l’humain doit renoncer à son anthropocentrisme. Au vu des ravages de l’anthropocène, l’idéal biblique et moderne selon lequel nous aurions vocation à devenir « les maîtres et possesseurs de la nature » (Descartes) doit être abandonné. 3) Pour la critique de la domination, l’universalisme et l’essentialisme inhérent à l’humanisme moderne européen masquent les oppressions patriarcales, coloniales et capitalistes.

Comment penser une essence de l’Homme qui échappe aux critiques contemporaines de l’humanisme? Il s’agit de mener ici quelques réflexions préalables au développement d’une anthropologie philosophique à venir. Le but de ces trois conférences est de commencer à repenser l’humain en tant que singularité dans la nature. En effet, je ne crois pas qu’il soit possible de mener une méditation éthique sans s’interroger sur l’essence de l’humain et donc sans mettre en évidence ce qui nous distingue des animaux. On interrogera donc la figure d’un étrange animal à trois faces : parlant, politique et technicien.

Calendrier

  • 16 septembre 2025, de 11h à 12h15 (heure de Montréal) : La sensibilité animale

J’explorerai pour commencer ce qu’il y a de commun entre l’humanité et les autres animaux : le système nerveux, l’expérience consciente, l’émotion, l’objet, le concept, l’image, l’espace, le temps, le territoire, la communication par signes et la stigmergie. On verra qu’une bonne part du sujet transcendantal kantien, des structures phénoménologiques et les modèles de la psychologie cognitive ne sont pas propres à l’humain.
Lien vers l’enregistrement: https://api.nakala.fr/embed/10.34847/nkl.1b7bumx6/3ad9cb49a117d4ab4926a4c55173128547cc5a57

  • 7 octobre 2025, de 11h à 12h15 (heure de Montréal): L’ordre symbolique

L’ordre symbolique distingue l’humain des autres espèces animales. Le symbolisme ne se limite pas au langage ni même à la communication alexique comme la musique. Il enveloppe aussi la complexité sociale et les opérations techniques, dont je montrerai qu’elles obéissent à des structures semblables. Le symbolisme recrée l’espace et le temps comme coordonnées d’un monde et d’une histoire.
Lien vers l’enregistrement: https://nakala.fr/10.34847/nkl.9da2x163

  • 14 octobre 2025, de 11h à 12h15 (heure de Montréal): Le roseau pensant

Dans ce dernier exposé, je tenterai de saisir la singularité humaine à partir de l’analyse des interactions symbiotiques entre populations de primates parlants et écosystèmes symboliques. Il sera question a) de la dépendance réciproque du sensorium sociotechnique et de l’univers intellectuel et b) de la manière dont l’intériorisation des programmes culturels assure l’intégration brinquebalante des sociétés. En conclusion, je reviendrai sur les critiques contemporaines de l’humanisme à la lumière des concepts dégagés dans ces trois conférences, en insistant sur l’universalité du questionnement éthique, propre à l’humain!
Lien vers le troisième enregistrement : https://nakala.fr/10.34847/nkl.ecc8ai9b

Entretien avec Prof. Dr. Pierre Lévy

Voir la publication en portugais et en anglais ici: https://www.pucpress.com.br/wp-content/uploads/2025/05/CADERNOS_DO_CONTEMPORANEO_0000_P.pdf

Vassily Kandinsky, 1913

Q1- Face à l’hyper-connectivité croissante chez les jeunes, de nombreux experts parlent de solitude et de ce qu’ils appellent “l’âge des passions tristes”. Comment voyez-vous cette dichotomie entre proximité et distance que la technologie provoque dans les relations humaines?

R1 – L’hyper-connectivité ne concerne pas seulement les jeunes, elle est partout. Un des facteurs principaux de l’évolution culturelle réside dans le dispositif matériel de production et de reproduction des symboles, mais aussi dans les systèmes logiciels d’écriture et de codage de l’information. Notre intelligence collective prolonge celle des espèces sociales qui nous ont précédées, et particulièrement celle des grands singes. Mais l’usage du langage – et d’autres systèmes symboliques – tout comme la force de nos moyens techniques nous a fait passer du statut d’animal social à celui d’animal politique. Proprement humaine, la Polis émerge de la symbiose entre des écosystèmes d’idées et les populations de primates parlants qui les entretiennent, s’en nourrissent et s’y réfléchissent. L’évolution des idées et celles des peuplements de Sapiens se déterminent mutuellement. Or le facteur principal de l’évolution des idées réside dans le dispositif matériel de reproduction des symboles. Au cours de l’histoire, les symboles (avec les idées qu’ils portaient) ont été successivement pérennisés par l’écriture, allégés par l’alphabet et le papier, multipliés par l’imprimerie et les médias électriques. Les symboles sont aujourd’hui numérisés et calculés, c’est-à-dire qu’une foule de robots logiciels – les algorithmes – les enregistrent, les comptent, les traduisent et en extraient des patterns. Les objets symboliques (textes, images fixes ou animées, voix, musiques, programmes, etc.) sont non seulement enregistrés, reproduits et transmis automatiquement, ils sont aussi générés et transformés de manière industrielle. En somme, l’évolution culturelle nous a menés au point où les écosystèmes d’idées se manifestent sous la forme de données animées par des algorithmes dans un espace virtuel ubiquitaire. Et c’est dans cet espace que se nouent, se maintiennent et se dénouent désormais les liens sociaux. Avant de critiquer ou de déplorer, il faut d’abord reconnaître les faits. Les amitiés des jeunes gens ne peuvent plus se passer des médias sociaux ; les couples se rencontrent sur internet, par exemple sur des applications comme Tinder (voir la Figure 1) ; les familles restent connectées par Facebook ou d’autres applications comme WhatsApp ; les espaces de travail ont basculé dans l’électronique avec Zoom et Teams, particulièrement depuis la pandémie de COVID ; la diplomatie se fait de plus en plus sur X (ex Twitter), etc. On ne reviendra pas en arrière. D’un autre côté, on ne se déplace pas moins de manière physique : en témoignent les embouteillages monstrueux de Sao Paulo et Rio de Janeiro. Dans le même ordre d’idées, la tendance sur les dix dernières années – époque de croissance exponentielle des connexions Internet – montre aussi une augmentation du nombre de passagers aériens, qui continue une tendance séculaire, et cela malgré une baisse importante durant la pandémie de COVID-19.

Je me sentais bien seul lorsque, jeune étudiant, je suis arrivé à Paris du sud de la France, pour faire mes études universitaires. C’était en 1975 et il n’y avait pas d’internet. Les seniors qui vivent seuls et que leurs enfants ne visitent pas doivent-ils blâmer Internet? Le problème de la solitude et de la désagrégation des liens sociaux est bien réel. Mais c’est une tendance déjà ancienne, qui tient à l’urbanisation, aux transformations de la famille et à bien d’autres facteurs. J’invite vos lecteurs à consulter les nombreux travaux sur la question du “capital social” (la quantité et à la qualité des relations humaines). L’internet n’est qu’un des nombreux facteurs à considérer sur cette question.

Figure 1

Q2- Dans vos livres “Collective Intelligence: For an anthropology of cyberspace” (1994) et “Cyberculture: The Culture of the Digital Society” (1997), vous soutenez qu’Internet et les technologies numériques développent l’intelligence collective, permettant de nouvelles formes de collaboration et de partage des connaissances. Cependant, on craint de plus en plus que l’utilisation excessive des médias sociaux et des technologies numériques soit associée à une distraction et à un retard d’apprentissage chez les jeunes. Comment voyez-vous cette apparente contradiction entre le potentiel des technologies à renforcer l’intelligence collective et les effets négatifs qu’elles peuvent avoir sur le développement cognitif et éducatif des jeunes?

R2- Je n’ai jamais soutenu qu’Internet et les technologies numériques, par eux-mêmes et comme si les techniques étaient des sujets autonomes, développent l’intelligence collective. J’ai soutenu que le meilleur usage que nous pouvions faire d’internet et des technologies numériques était de développer l’intelligence collective humaine, ce qui est bien différent. Et c’est d’ailleurs toujours ce que je pense. L’idée d’un « espace du savoir » qui pourrait se déployer au-dessus de l’espace marchand est un idéal régulateur pour l’action, non une prédiction de type factuel. Lorsque j’ai rédigé L’Intelligence Collective – de 1992 à 1993 – moins de 1% de l’humanité était branchée sur l’Internet et le Web n’existait pas. Vous ne trouverez nulle part le mot « web » dans l’ouvrage. Or nous avons aujourd’hui – en 2024 – largement dépassé les deux tiers de la population mondiale connectée à l’Internet. Le contexte est donc complètement différent mais le changement de civilisation que je prévoyais il y a 30 ans semble évident aujourd’hui, bien qu’il faille attendre normalement plusieurs générations pour confirmer ce type de mutation. A mon sens, nous ne sommes qu’au commencement de la révolution numérique.

Quant à l’augmentation de l’intelligence collective, de nombreux pas ont été franchis pour mettre les connaissances à la portée de tous. Wikipédia est l’exemple classique d’une entreprise qui fonctionne en intelligence collective avec des millions de contributeurs bénévoles de tous les pays et des groupes de discussion entre experts pour chaque article. Il y a près de sept millions d’articles en anglais, deux millions et demi d’articles en français et plus d’un million d’articles en portugais. Wikipédia est consulté par plusieurs dizaines de millions de personnes par jour et plusieurs milliards par an! Le logiciel libre – maintenant largement adopté et diffusé, y compris par les grandes entreprises du Web – est un autre grand domaine où l’intelligence collective est au poste de commande. Parmi les plus utilisés des logiciels libres citons le système d’exploitation Linux, les navigateurs Mozilla et Chromium, la suite Open Office, le serveur http Apache (qui est le plus utilisé sur Internet), le système de contrôle des versions GIT, la messagerie Signal, et bien d’autres qu’il serait trop long de citer. J’ajoute que les bibliothèques et les musées numérisés, comme les articles scientifiques en accès libre et les sites de type ArXiv.org, sont monnaie courante, ce qui transforme les pratiques de recherche et de communication scientifique. Tout le monde peut aujourd’hui publier des textes sur son blog, des vidéos et des podcasts sur YouTube ou d’autres sites, ce qui n’était pas le cas il y a trente ans. Les médias sociaux permettent d’échanger des nouvelles et des idées très rapidement, comme on le voit par exemple sur LinkedIn ou X (ex Twitter). Internet a donc réellement permis le développement de nouvelles formes d’expression, de collaboration et de partage des connaissances. Beaucoup reste à faire. Nous ne sommes qu’au tout début de la mutation anthropologique en cours.

Bien entendu, il nous faut prendre en compte les phénomènes d’addiction aux jeux vidéos, aux médias sociaux, à la pornographie en ligne, etc. Mais depuis plus de trente ans, la majorité des journalistes, des hommes politiques, des enseignants et de tous ceux qui font l’opinion ne cessent de dénoncer les dangers de l’informatique, puis de l’Internet et maintenant de l’intelligence artificielle. Je ne ferais rien de très utile si j’ajoutais mes lamentations aux leurs. J’essaye donc de faire prendre conscience d’une mutation de civilisation de grande ampleur qu’on n’arrêtera pas et d’indiquer les meilleurs moyens de diriger cette grande transformation vers les finalités les plus positives pour le développement humain. Ceci dit, il est clair que les phénomènes d’addiction trouvent partiellement leur source dans notre dépendance à l’architecture sociotechnique toxique des grandes compagnies du Web, qui utilise la stimulation dopaminergique et les renforcements narcissiques de la communication numérique pour nous faire produire toujours plus de données et vendre plus de publicité. Malheureusement la santé mentale des populations adolescentes est peut-être une des victimes collatérales des stratégies commerciales de ces grandes entreprises oligopolistiques. Comment s’opposer à la puissance de leurs centres de calcul, à leur efficacité logicielle et à la simplicité de leurs interfaces? Il est plus facile de poser la question que d’y répondre. En plus de la biopolitique évoquée par Michel Foucault, il faut maintenant considérer une psychopolitique à base de neuromarketing, de données personnelles et de gamification du contrôle. Les enseignants doivent avertir les étudiants de ces dangers et les former à la pensée critique.

Q3- Avec le phénomène des “bulles connectives”, où les réseaux sociaux ont tendance à renforcer des croyances et des idées préexistantes, limitant les contacts avec des perspectives différentes, comment voyez-vous l’évolution des liens sociaux à mesure qu’Internet et les plateformes numériques continuent de se développer? Ce type de segmentation pourrait-il affaiblir l’intelligence collective que vous prônez, ou y a-t-il encore de la place pour des connexions plus larges et plus collaboratives à l’avenir?

R3 – Il est clair que si l’on se contente de « liker » instinctivement ce que l’on voit défiler et de réagir émotionnellement aux images et aux messages les plus simplistes, le bénéfice cognitif ne sera pas très grand. Je ne me pose pas en modèle à suivre absolument, je voudrais seulement donner un exemple de ce qu’il est possible de faire si l’on un peu d’imagination et que l’on est prêt à remettre en cause l’inertie des institutions. Lorsque j’étais professeur en communication numérique à l’Université d’Ottawa, je forçais mes étudiants à s’inscrire sur Twitter, à choisir une demi-douzaine de sujets intéressants pour eux et à dresser des listes de comptes à suivre pour chaque sujet. Quelque soit le thème – politique, science, mode, art, sports, etc. – ils devaient construire des listes équilibrées comprenant des experts ou des partisans d’avis opposés afin d’élargir leur sphère cognitive au lieu de la restreindre. Sur les médias sociaux les plus courants comme Facebook et LinkedIn, il est possible de participer à un grand nombre de communautés spécialisées dans des domaines culturels (histoire, philosophie, arts) ou professionnels (affaires, technologie, etc.) afin de se tenir au courant et de discuter avec des experts. Les groupes de discussion locaux par villages ou quartiers sont aussi très utiles. Tout est question de méthode et de pratique. Il faut se détacher du modèle des médias de masse (journaux papier, radio, télévision) dans lequel des récepteurs passifs consomment une programmation faite par d’autres. C’est à chacun de se bricoler sa propre programmation et de se construire ses réseaux personnels d’apprentissage.

Avant l’imprimerie, on ne parlait qu’avec les gens de sa paroisse. Dans les années soixante du XXe siècle on n’avait le choix qu’entre deux ou trois chaines de télévision et deux ou trois journaux. Aujourd’hui nous avons accès à une énorme diversité de sources en provenance de tous les pays et de tous les secteurs de la société. Les enseignants doivent alphabétiser les étudiants, leur apprendre les langues étrangères, leur donner une bonne culture générale et les guider dans ce nouvel univers de communication.

Q4- Actuellement, il y a un débat croissant sur les effets négatifs de la technologie sur la santé mentale des jeunes, en mettant l’accent sur des problèmes tels que l’anxiété, la dépression et l’isolement social. Considérant le rôle central que jouent les technologies numériques dans notre société, comment comprenez-vous cette relation entre l’usage intensif des technologies et l’augmentation des problèmes de santé mentale chez les jeunes? Existe-t-il un moyen d’équilibrer les avantages de la technologie avec la nécessité de préserver le bien-être mental?

R4 – Le problème de la santé mentale des jeunes est bien sûr tout à fait réel, mais il serait réducteur de l’attribuer uniquement aux médias sociaux. Néanmoins je vais essayer d’énumérer quelques problèmes psychologiques qui naissent de l’usage des Technologies numériques.

Il y a d’abord la transformation de l’autoréférence subjective, qui risque de mener à des problèmes de type schizophrénique. Notre champ d’expérience est médiatisé par le support numérique : la boucle d’autoréférence est plus large que jamais. Nous interagissons avec des personnes, des robots, des images, des musiques par le biais de plusieurs interfaces multimédias : écran, écouteurs, manettes… Notre expérience subjective est contrôlée par les algorithmes de multiples applications qui déterminent en boucle (si nous n’avons pas appris à les maîtriser) notre consommation de données et nos actions en retour. Notre mémoire est dispersée dans de nombreux fichiers, bases de données, en local et dans le cloud… Lorsqu’une grande partie de nous-mêmes est ainsi collectivisée et externalisée, le problème des limites et de la détermination de l’identité devient prépondérant. À qui appartiennent les données me concernant, qui les produit ?

Le problème du narcissisme est particulièrement évident sur Instagram et les applications même genre. Notre ego est nourri par l’image que les autres nous renvoient dans le médium algorithmique. L’obsession de l’image atteint des proportions inquiétantes. Combien d’abonnés, combien de likes, combien d’impressions? Pour ceux qui ont sombré dans ce gouffre, la valeur de l’être n’est plus que dans le regard de l’autre. Avant d’être un problème de santé mentale il s’agit d’un problème de sagesse élémentaire.

A l’opposé du narcissisme, nous avons une tendance vers l’autisme. Ici le moi est enfermé dans sa vie intérieure, mais alimenté par des sources d’information en ligne. Le code ou certains aspects de la culture populaire deviennent obsessionnels. C’est le domaine des geeks, des Otakus et des joueurs compulsifs. Il est évidemment malsain de se passer de toute vie sociale en chair et en os.

Il existe un problème de santé mentale si les affects sont constamment euphoriques, ou constamment dysphoriques, ou si un objet exclusif devient addictif. En effet, Internet peut nous rendre dépendants à certains objets (actualités, séries, jeux, pornographie) ou à certaines émotions, qu’elles soient positives (contenu « feel-good » de type chats mignons, danse, humour, etc.) ou négatives (actualités catastrophiques, « doom scrolling ») de manière déséquilibrée. On peut aussi se demander dans quelle mesure il est bon que le langage corporel soit entièrement remplacé par des emojis, des mèmes, des images, des avatars, etc.

L’addiction est créée par l’excitation (dopamine) et la satisfaction (endorphine) que nous voulons reproduire sans arrêt. Or, comme je l’ai dit plus haut, les modèles d’affaire des grandes entreprise du web qui sont axés sur l’engagement (sécrétion de dopamine-endorphine) conduisent presque inévitablement à la dépendance si les utilisateurs ne font pas attention. L’intensité d’engagement élevée pendant de trop longs moments mène inévitablement à une dépression.

Le contrôle des impulsions (agressivité, par exemple) est plus difficile dans les médias sociaux que dans la vie réelle parce que nos interlocuteurs ne se trouvent pas en face de nous. La « gestion des comportements toxiques » est d’ailleurs un problème majeur dans les jeux en ligne et les médias sociaux.

En somme, il faut être vigilant, prévenir les jeunes utilisateurs des dangers encourus et ne pas commettre d’excès.

Q5 – Certains prédisent que les générations futures pourraient ne plus jamais fréquenter l’école. Comment voyez-vous l’avenir de l’éducation dans un monde de plus en plus hyperconnecté et dominé par la technologie?

R5 – Je ne crois pas que l’école va disparaître. Mais elle doit se transformer. Il faut prendre les étudiants où ils sont et de préférence utiliser les produits grands public auxquels ils sont habitués pour en faire quelque chose d’utile sur le plan de l’apprentissage. Les élèves sont des « digital natives » mais cela ne veut pas dire qu’ils ont une véritable maîtrise des outils numériques. Il faut non seulement développer la littéracie numérique mais la littéracie tout court, qui en est indissociable. Je suis un grand partisan de la lecture des classiques et de la culture générale, qui est indispensable pour former l’esprit critique.

Pour revenir à mes propres méthodes pédagogiques, dans les cours que je donnais à l’Université d’Ottawa, je demandais à mes étudiants de participer à un groupe Facebook fermé, de s’enregistrer sur Twitter, d’ouvrir un blog s’ils n’en n’avaient pas déjà un et d’utiliser une plateforme de curation collaborative de données.

L’usage de plateformes de curation de contenu me servait à enseigner aux étudiants comment choisir des catégories ou « tags » pour classer les informations utiles dans une mémoire à long terme, afin de les retrouver facilement par la suite. Cette compétence leur sera fort utile dans le reste de leur carrière.

Les blogs étaient utilisés comme supports de « devoir final » pour les cours gradués (c’est-à-dire avant le master), et comme carnets de recherche pour les étudiants en maîtrise ou en doctorat : notes sur les lectures, formulation d’hypothèses, accumulation de données, première version d’articles scientifiques ou de chapitres des mémoires ou thèses, etc. Le carnet de recherche public facilite la relation avec le superviseur et permet de réorienter à temps les directions de recherche hasardeuses, d’entrer en contact avec les équipes travaillant sur les mêmes sujets, etc.

Le groupe Facebook était utilisé pour partager le Syllabus ou « plan de cours », l’agenda de la classe, les lectures obligatoires, les discussions internes au groupe – par exemple celles qui concernent l’évaluation – ainsi que les adresses électroniques des étudiants (Twitter, blog, plateforme de curation sociale, etc.). Toutes ces informations étaient en ligne et accessibles d’un seul clic, y compris les lectures obligatoires numérisées et gratuites. Les étudiants pouvaient participer à l’écriture de mini-wikis à l’intérieur du groupe Facebook sur des sujets de leur choix, ils étaient invités à suggérer des lectures intéressantes reliées au sujet du cours en ajoutant des liens commentés. J’utilisais Facebook parce que la quasi-totalité des étudiants y étaient déjà abonnés et que la fonctionnalité de groupe de cette plateforme est bien rodée. Mais j’aurais pu utiliser n’importe quel autre support de gestion de groupe collaboratif, comme Slack ou les groupes de LinkedIn.

Sur Twitter (maintenant X), la conversation propre à chaque classe était identifiée par un hashtag. Au début, j’utilisais le médium à l’oiseau bleu de manière ponctuelle. Par exemple, à la fin de chaque classe je demandais aux étudiants de noter l’idée la plus intéressante qu’ils avaient retenu du cours et je faisais défiler leurs tweets en temps réel sur l’écran de la classe. Puis, au bout de quelques semaines, je les invitais à relire leurs traces collectives sur Twitter pour rassembler et résumer ce qu’ils avaient appris et poser des questions – toujours sur Twitter – si quelque chose n’était pas clair, questions auxquelles je répondais par le même canal.

Au bout de quelques années d’utilisation de Twitter en classe, je me suis enhardi et j’ai demandé aux étudiants de prendre directement leurs notes sur ce medium social pendant le cours de manière à obtenir un cahier de notes collectif. Pouvoir regarder comment les autres prennent des notes (que ce soit sur le cours ou sur des textes à lire) permet aux étudiants de comparer leurs compréhensions et de préciser ainsi certaines notions. Ils découvrent ce que les autres ont relevé et qui n’est pas forcément ce qui les a stimulés eux-mêmes… Quand je sentais que l’attention se relâchait un peu, je leur demandais de s’arrêter, de réfléchir à ce qu’ils venaient d’entendre et de noter leurs idées ou leurs questions, même si leurs remarques n’étaient pas directement reliées au sujet du cours. Twitter leur permettait de dialoguer librement entre eux sur les sujets étudiés sans déranger le fonctionnement de la classe. Je consacrais toujours la fin du cours à une période de questions et de réponses qui s’appuyais sur un visionnement collectif du fil Twitter. Cette méthode est particulièrement pertinente dans les groupes trop grands (parfois plus de deux cents personnes) pour permettre à tous les étudiants de s’exprimer oralement. Je pouvais ainsi répondre tranquillement aux questions après la classe en sachant que mes explications restaient inscrites dans le fil du groupe. La conversation pédagogique se poursuit entre les cours. Bien entendu, tout cela n’était possible que parce que l’évaluation (la notation des étudiants) était basée sur leur participation en ligne.

En utilisant Facebook et Twitter en classe, les étudiants n’apprenaient pas seulement la matière du cours mais aussi une façon « cultivée » de se servir des médias sociaux. Documenter ses petits déjeuners ou la dernière fête bien arrosée, disséminer des vidéos de chats et des images comiques, échanger des insultes entre ennemis politiques, s’extasier sur des vedettes du show-business ou faire de la publicité pour telle ou telle entreprise sont certainement des usages légitimes des médias sociaux. Mais on peut également entretenir des dialogues constructifs dans l’étude d’un sujet commun. En somme, je crois que l’éducation doit progresser en direction de l’apprentissage collaborative en utilisant les outils numériques.

Q6 – Quelles sont, selon vous, les principales opportunités qu’Internet et les nouveaux outils d’IA peuvent apporter au domaine de l’éducation? Compte tenu de l’avancée accélérée des technologies numériques et de l’intelligence artificielle, comment voyez-vous évoluer le rôle de l’enseignant dans les années à venir?

R6 – Concernant l’intelligence artificielle (par exemple ChatGPT, MetaAI, Grok ou Gemini, qui sont tous gratuits et assez bons), elle peut être fort utile comme mentor des étudiants ou comme encyclopédie de premier recours, pour donner des réponses et des orientations très rapidement. Les étudiants utilisent déjà ces outils, il ne faut donc pas interdire leur usage mais, une fois encore, le cultiver, le faire passer à un niveau supérieur. Comme l’IA générative est de nature statistique et probabiliste, elle fait régulièrement des erreurs. Il faut donc toujours vérifier les informations sur de véritables encyclopédies, des moteurs de recherche, des sites spécialisés ou même… dans une bibliothèque! J’ajoute que plus on est cultivé et mieux on connaît un sujet et plus l’usage des IA génératives est fructueux, car on est alors capable de poser de bonnes questions et de demander des informations complémentaires lorsque l’on sent que quelque chose manque. L’IA n’est pas un substitut à l’ignorance, elle donne au contraire une prime à ceux qui ont déjà de bonnes connaissances.

Utiliser les IA génératives pour rédiger à notre place ou faire des résumés de texte au lieu de lire des livres n’est pas une bonne idée, au moins dans un usage pédagogique. Sauf bien sûr si cette pratique est encadrée par l’enseignant afin de stimuler l’esprit critique et le goût du beau style. Au moins en 2024, les textes de l’IA sont généralement redondants, banals et facilement reconnaissables. De plus, leurs résumés de documents ne parviennent pas à saisir ce qu’il y a de plus original dans un texte, puisqu’ils n’ont pas été entraînés sur des idées rares mais au contraire sur l’avis général que l’on retrouve partout. On apprend à penser en lisant et en écrivant en personne : donc les IA sont de bons auxiliaires mais en aucun cas de purs et simples remplacements de l’activité intellectuelle humaine.

Q-7- On craint de plus en plus que l’IA puisse supprimer de nombreux emplois à l’avenir. Comment pensez-vous que cela affectera le marché du travail et quelles pourraient être les solutions possibles?

Q-7 Du fait même de son nom, l’intelligence artificielle évoque naturellement l’idée d’une intelligence autonome de la machine, qui se pose en face de l’intelligence humaine, pour la simuler ou la dépasser. Mais si nous observons les usages réels des dispositifs d’intelligence artificielle, force est de constater que, la plupart du temps, ils augmentent, assistent ou accompagnent les opérations de l’intelligence humaine. Déjà, à l’époque des systèmes experts – lors des années 80 et 90 du XXe siècle – j’observais que les savoirs critiques de spécialistes au sein d’une organisation, une fois codifiés sous forme de règles animant des bases de connaissances, pouvaient être mis à la portée des membres qui en avaient le plus besoin, répondant précisément aux situations en cours et toujours disponibles. Plutôt que d’intelligences artificielles prétendument autonomes, il s’agissait de médias de diffusion des savoir-faire pratiques, qui avaient pour principal effet d’augmenter l’intelligence collective des communautés utilisatrices.

Dans la phase actuelle du développement de l’IA, le rôle de l’expert est joué par les foules qui produisent les données et le rôle de l’ingénieur cogniticien qui codifie le savoir est joué par les réseaux neuronaux. Au lieu de demander à des linguistes comment traduire ou à des auteurs reconnus comment produire un texte, les modèles statistiques interrogent à leur insu les multitudes de rédacteurs anonymisés du web et ils en extraient automatiquement des patterns de patterns qu’aucun programmeur humain n’aurait pu tirer au clair. Conditionnés par leur entraînement, les algorithmes peuvent alors reconnaître et reproduire des données correspondant aux formes apprises. Mais parce qu’ils ont abstrait des structures plutôt que de tout enregistrer, les voici capables de conceptualiser correctement des formes (d’image, de textes, de musique, de code…) qu’ils n’ont jamais rencontrées et de produire une infinité d’arrangements symboliques nouveaux. C’est pourquoi l’on parle d’intelligence artificielle générative. Bien loin d’être autonome, cette IA prolonge et amplifie l’intelligence collective. Des millions d’utilisateurs contribuent au perfectionnement des modèles en leur posant des questions et en commentant les réponses qu’ils en reçoivent. On peut prendre l’exemple de Midjourney (qui génère des images), dont les utilisateurs s’échangent leurs consignes (prompts) et améliorent constamment leurs compétences. Les serveurs Discord de Midjourney sont aujourd’hui les plus populeux de la planète, avec plus d’un million d’utilisateurs. Une nouvelle intelligence collective stigmergique émerge de la fusion des médias sociaux, de l’IA et des communautés de créateurs. Derrière « la machine » il faut entrevoir l’intelligence collective qu’elle réifie et mobilise.

L’IA nous offre un nouvel accès à la mémoire numérique mondiale. C’est aussi une manière de mobiliser cette mémoire pour automatiser des opérations symboliques de plus en plus complexes, impliquant l’interaction d’univers sémantiques et de systèmes de comptabilité hétérogènes.

Je ne crois pas une seconde à la fin du travail. L’automatisation fait disparaître certains métiers et en fait naître de nouveaux. Il n’y a plus de maréchaux ferrants, mais les garagistes les ont remplacés. Les porteurs d’eau ont fait place aux plombiers. La complexification de la société augmente le nombre des problèmes à résoudre. Les machines « intelligentes » vont surtout augmenter la productivité du travail cognitif en automatisant ce qui peut l’être. Il y aura toujours besoin de gens intelligents, créatifs et compassionnés mais ils devront apprendre à travailler avec les nouveaux outils.

Q-8 Certains auteurs évoquent l’inversion de “l’effet Flynn”, suggérant que les générations futures auront un niveau cognitif inférieur à celui de leurs parents. Comment voyez-vous cet enjeu dans le contexte des technologies émergentes? Pensez-vous que l’usage intensif des technologies numériques puisse contribuer à cette tendance, ou offrent-elles de nouvelles façons d’élargir nos capacités cognitives?

R-8 La baisse du niveau cognitif (et moral), est déplorée depuis des siècles par chaque génération, alors que l’effet Flynn montre justement l’inverse. Il est normal que l’on assiste à une stabilisation des scores de Quotient Intellectuel (QI) : l’espoir d’une augmentation constante n’est jamais très réaliste et il serait normal d’atteindre une limite ou un palier, comme dans n’importe quel autre phénomène historique ou même biologique. Mais admettons que les jeunes gens d’aujourd’hui aient de moins bons scores de QI que les générations qui les précèdent immédiatement. Il faut d’abord se demander ce que mesurent ces tests : principalement une intelligence scolaire. Ils ne prennent en compte ni l’intelligence émotionnelle, ni l’intelligence relationnelle, ni la sensibilité esthétique, ni les habiletés physiques ou techniques, ni même le bon sens pratique. Donc on ne mesure là quelque chose de limité. D’autre part, si l’on reste sur l’adaptation au fonctionnement scolaire que mesurent les tests de QI, pourquoi accuser d’abord les technologies? Peut-être y-t-il démission des familles face à la tâche éducative (notamment parce que les familles se défont), ou bien défaillance des écoles et des universités qui deviennent de plus en plus laxistes (parce que les étudiants sont devenus des clients à satisfaire à tout prix) ? Quand j’étais étudiant, le « A » aux examens n’était pas encore un droit… Il l’est quasiment devenu aujourd’hui.

Finalement, et il faut le répéter sans cesse, « l’usage des technologies numériques » n’a pas grand sens. Il y a des usages abrutissants, qui glissent sur la pente de la paresse intellectuelle, et des usages qui ouvrent l’esprit, mais qui demandent une prise de responsabilité personnelle, un effort d’autonomie et – oui – du travail. C’est le rôle des éducateurs de favoriser les usages positifs.

Q-9 Existe-t-il des frontières claires entre le monde réel et le monde virtuel? Qu’est-ce qui pourrait nous motiver à continuer dans le monde réel alors que le monde virtuel offre des possibilités d’interaction et de réussite quasi illimitées?

R-9 Il n’y a jamais eu de frontière claire entre le monde virtuel et le monde actuel. Où se trouve la présence humaine? Dès que nous assumons une situation dans l’existence, nous nous retrouvons immanquablement entre deux. Entre le virtuel et l’actuel, entre l’âme et le corps, entre le ciel et la terre, entre le yin et le yang. Notre existence s’étire dans un intervalle et la relation fondamentale entre le virtuel et l’actuel est une transformation réciproque. C’est un morphisme qui projette le sensible sur l’intelligible et inversement.

Une situation pratique comprend un contexte actuel : notre posture, notre position, ce qui se trouve autour de nous en ce moment précis, de nos interlocuteurs à l’environnement matériel. Elle implique aussi un contexte virtuel : le passé dans notre mémoire, nos plans et nos attentes, nos idées de ce qui nous arrive. C’est ainsi que nous discernons les lignes de force et les tensions de la situation, son univers de problèmes, ses obstacles et ses échappées. Les configurations corporelles n’ont de sens que par le paysage virtuel qui les entoure.

Nous ne vivons donc pas seulement dans la réalité physique dite « matérielle », mais aussi dans le monde des significations. C’est ce qui fait de nous des humains. Maintenant, si l’on veut parler des médias dits « numériques » , en plus de leur aspect logiciel (les programmes et les données) ils sont évidemment aussi matériels : les centres de données, les câbles, les modems, les ordinateurs, les smartphones, les écrans, les écouteurs sont tout ce qu’il y a de plus matériels et actuels. Par ailleurs, je ne sais pas très bien à quoi vous faites allusion lorsque vous dites que « le monde virtuel offre des possibilités d’interaction et de réussite quasi illimitées ». Les possibilités d’interactions offertes par le médium numérique sont certes plus diverses que celles qui étaient fournies par l’imprimerie ou la télévision, mais elles ne sont en aucun cas « illimitées » puisque le temps disponible n’est pas extensible à l’infini. Ces possibilités dépendent aussi fortement des capacités et de l’environnement culturel et social des utilisateurs. La toute puissance est toujours une illusion. Par ailleurs, si vous voulez dire que la fiction et le jeu (qu’ils soient ou non à support électronique) offrent des possibilités illimitées, oui, c’est une idée qui a sa part de vérité. Maintenant, si vous sous-entendez qu’il est malsain de passer la plus grande partie de son temps à jouer à des jeux vidéo en ligne au détriment de sa santé, de ses études, de son environnement familial ou de son travail, on ne peut qu’être d’accord avec vous. Mais ce sont ici l’excès et l’addiction qui sont en question, avec leurs causes multiples, et pas « le monde virtuel ».

Q-10 Avec les progrès des technologies numériques, le concept d’immortalité numérique émerge, où nos identités peuvent être préservées indéfiniment en ligne. Comment comprenez-vous la relation entre la spiritualité et cette idée d’immortalité numérique?

R-10 Cette fausse immortalité n’a rien à voir avec la spiritualité. Pourquoi ne pas parler d’immortalité calcaire – ou architecturale – face aux pyramides d’Égypte? Une autre comparaison : Shakespeare ou Victor Hugo, voire Newton ou Einstein, sont probablement plus « immortels » qu’une personne dont on n’a pas supprimé le compte Facebook après la mort. S’il faut absolument rapporter le numérique au sacré, je dirais que les centres de données sont les nouveaux temples et qu’en échange du sacrifice de nos données, nous obtenons les bénédictions pratiques des intelligences artificielles et des médias sociaux.

Q-11 De nombreux experts ont souligné les problèmes moraux présents dans l’organisation et la construction de normes basées sur les données rapportées et exploitées par l’IA (préjugés, racisme et autres formes de déterminisme). Comment contrôler ces problèmes dans le scénario numérique? Qui est responsable ou peut être tenu responsable de problèmes de cette nature? L’IA pourrait-elle avoir des implications juridiques?

R-11 On parle beaucoup des « biais » de tel ou tel modèle d’intelligence artificielle, comme s’il pouvait exister une IA non-biaisée ou neutre. Cette question est d’autant plus importante que l’IA devient notre nouvelle interface avec les objets symboliques : stylo universel, lunettes panoramiques, haut-parleur général, programmeur sans code, assistant personnel. Les grands modèles de langue généralistes produits par les plateformes dominantes s’apparentent désormais à une infrastructure publique, une nouvelle couche du méta-médium numérique. Ces modèles généralistes peuvent être spécialisés à peu de frais avec des jeux de données issues d’un domaine particulier et de méthodes d’ajustement. On peut aussi les munir de bases de connaissances dont les faits ont été vérifiés.

Les résultats fournis par une IA découlent de plusieurs facteurs qui contribuent tous à son orientation ou si l’on préfère, à ses « biais ».

a) Les algorithmes proprement dits sélectionnent les types de calcul statistique et les structures de réseaux neuronaux.

b) Les données d’entraînement favorisent les langues, les cultures, les options philosophiques, les partis-pris politiques et les préjugés de toutes sortes de ceux qui les ont produites.

c) Afin d’aligner les réponses de l’IA sur les finalités supposées des utilisateurs, on corrige (ou on accentue!) « à la main » les penchants des données par ce que l’on appelle le RLHF (Reinforcement Learning from Human Feed-back – en français : apprentissage par renforcement à partir d’un retour d’information humain).

d) Finalement, comme pour n’importe quel outil, l’utilisateur détermine les résultats au moyen de consignes en langue naturelle (les fameux prompts). Comme je l’ai dit plus haut, des communautés d’utilisateurs s’échangent et améliorent collaborativement de telles consignes. La puissance de ces systèmes n’a d’égal que leur complexité, leur hétérogénéité et leur opacité. Le contrôle règlementaire de l’IA, sans doute nécessaire, semble difficile.

La responsabilité est donc partagée entre de nombreux acteurs et processus, mais il me semble que ce sont les utilisateurs qui doivent être tenus pour les responsables principaux, comme pour n’importe quelle technique. Les questions éthiques et juridiques reliées à l’IA sont aujourd’hui passionnément discutées un peu partout. C’est un champ de recherche académique en pleine croissance et de nombreux gouvernements et organismes multinationaux ont émis des lois et règlement pour encadrer le développement et l’utilisation de l’IA.

Compte rendu du livre de François Rastier: L’IA m’a tué. Comprendre un monde post humain. Éditions Intervalles, 2025

En lisant le dernier livre de François Rastier, j’ai retrouvé avec plaisir la langue châtiée, le ton légèrement ironique et la grande érudition d’un des meilleurs spécialistes de la sémantique. L’ouvrage s’ouvre sur la série d’événements qui a donné son titre à l’ouvrage, à savoir l’annonce de la mort de Rastier lui-même, plusieurs fois réitérée par Chat GPT. Le thème du livre est fixé : les LLM sont des menteurs. Non seulement ils affirment impudemment des fausses propositions, mais ils accompagnent sur les plans technique et même idéologique une vague culturelle antihumaniste ou post-humaniste que l’auteur déplore. L’argumentaire de Rastier s’appuie notamment sur ses théories du texte, du contexte et du corpus, théories pertinentes pour comprendre les générateurs automatiques de textes que sont les modèles de langue.

Pourquoi l’IA générative des LLM est-elle plus efficace que les diverses implémentations des grammaires génératives à la Chomsky pour rédiger des textes vraisemblables ? Les théories de Chomsky ne formalisent que le système de la langue, et encore, seulement l’aspect syntaxique. Mais elles négligent de prendre en compte ce qui se trouve entre ce système et les textes actuels. « Entre le système de la langue et les textes produits s’étend l’espace des normes de discours, de genres (ex : la poésie), de sous-genre (le roman policier), voire de style. Par leur masse gigantesque, les corpus d’apprentissage des IA génératives permettent de mettre en œuvre ces normes. » (p. 33)

De plus, l’auto-attention – ou attention au contexte – des « Transformers » (GPT est l’acronyme de Generative Pretrained Transformer) permet de mettre en œuvre (a) le « principe herméneutique que le global (ici, le texte) détermine le local (ici l’occurrence linguistique) » et (b) le « principe linguistique de la récurrence de traits sémantiques que l’on nomme la présomption d’isotopie» (p.40) Un lecteur s’attend à ce qu’un texte parle des mêmes objets ou développe certains thèmes déterminés qui vont revenir avec quelques variations. En somme, la machine tient compte (statistiquement) du contexte et suppose aux textes qu’elle « lit » et produit une certaine cohérence (la présomption d’isotopie).

Selon Rastier, l’efficacité des LLM dans la production de textes lisibles et pertinents s’explique donc par 1) la capture statistique des normes de discours dans les énormes données d’apprentissage et 2) la prise en compte des contextes et la présomption d’isotopie assurée par l’architecture des transformers.

Pourtant, Rastier dénie aux données d’apprentissage la qualification de vrais corpus. Un corpus authentique selon Rastier doit être sélectionné, structuré, étiqueté en fonction 1) de théories au sujet des pratiques discursives et des genres textuels et 2) de finalités pratiques : les applications visées. (p. 34) Or, selon notre auteur, les données d’apprentissage ne répondent pas à ces critères et ne sont donc que de « prétendus corpus ». Nous avons affaire à des « masses hétérogènes opaques et incontrôlables». (p.35) En outre, les documents originaux sont fondus dans une masse et il est impossible d’y faire référence : « Aucun document particulier n’est plus identifiable dans le corpus d’apprentissage ». (p. 138)

Non seulement les données d’apprentissage ne constituent pas de « vrais corpus » mais les textes produits ne sont pas de « vrais textes ». On les prend pour des textes parce qu’ils sont lisibles et respectent des normes de genre. Pourtant, ils ne comportent aucune garantie : on ne sait pas comment les données d’apprentissage ont été sélectionnées. De plus, ils n’ont pas d’auteurs humains : ils ne correspondent à aucune intention ni vouloir dire. Puisqu’ils n’ont pas d’énonciateurs, ce ne sont pas des textes interprétables. (p. 44, 138) Ils ont seulement l’air de textes. Rastier rejoint ici Platon qui, dans le Phèdre, critiquait déjà la technologie intellectuelle de son époque : l’écriture. « Pour Platon, un discours doit pouvoir être assumé par celui qui le prononce et qui doit en répondre. » (p. 132) Face à l’inauthenticité des textes artificiels, Rastier demande « une réglementation, sinon un moratoire, sur leurs usages privés et publics.» (p. 42)

Les dernières générations de LLM permettent l’accès aux références et limitent (sans les éliminer) les fameuses « hallucinations ». Ce livre, sans doute exagérément pessimiste, vaut la peine d’être lu. Pour les travailleurs des sciences de la culture, il serait désastreux de déléguer la pensée – c’est-à-dire la lecture attentive et l’écriture responsable – aux machines. Mais, en les surveillant toujours du coin de l’œil, on pourra certainement les utiliser dans des rôles d’assistants infatigables et d’éditeurs dévoués.

Aujourd’hui, le monde entier se précipite vers l’IA statistique, les modèles neuronaux et/ou l’IA générative. Mais nous savons que, bien que ces modèles soient utiles, nous avons toujours besoin de modèles symboliques ou, si vous préférez, de graphes de connaissances, en particulier dans le domaine de la gestion des connaissances.

Mais pourquoi exactement avons-nous encore besoin de modèles symboliques en plus des modèles neuronaux ? Parce que les modèles symboliques sont capables de représenter la connaissance de manière explicite, ce qui comporte beaucoup d’avantages, notamment la transparence et l’explicabilité. Dans cet exposé, je vais plaider en faveur de l’interopérabilité sémantique (ou conceptuelle) entre les graphes de connaissances, et je présenterai IEML, un langage que j’ai inventé à la Chaire de Recherche du Canada en intelligence collective (2002-2016) avec l’aide de mon équipe d’ingénieurs.

Figure 1

Si vous êtes familier avec le domaine de la gestion des connaissances, vous savez qu’il existe une dialectique entre les connaissances implicites (en bleu sur la Figure 1) et les connaissances explicites (en rouge sur la Figure 1).

Il existe actuellement deux façons principales de traiter les données pour la gestion des connaissances.

  • Via des modèles neuronaux, basés principalement sur les statistiques, pour l’aide à la décision, la compréhension automatique et la génération de données.
  • Via des modèles symboliques, basés sur la logique et la sémantique, pour l’aide à la décision et la recherche avancée.

Ces deux approches sont généralement distinctes et correspondent à deux cultures d’ingénieurs différentes. En raison de leurs avantages et de leurs inconvénients, les gens essaient de les combiner.

Clarifions maintenant la différence entre les modèles ” neuronaux ” et ” symboliques ” et comparons-les à la cognition neuronale et symbolique chez les êtres humains.

Le grand avantage des modèles neuronaux est leur capacité à synthétiser et à mobiliser la mémoire numérique “juste à temps”, ou “à la demande”, et à le faire automatiquement, ce qui est impossible pour un cerveau humain. Mais leur processus de reconnaissance et de génération de données est statistique, ce qui signifie qu’ils ne peuvent pas organiser un monde, ils ne maîtrisent pas la conservation des objets, ils n’ont pas de compréhension du temps et de la causalité, ou de l’espace et de la géométrie. Ils ne peuvent pas toujours reconnaître les transformations d’images d’un même objet comme le font les êtres vivants.

En revanche, les neurones vivants peuvent faire des choses que les neurones formels actuels ne peuvent pas faire. Les animaux, même sans modèles symboliques, avec leurs neurones naturels, sont capables de modéliser le monde, d’utiliser des concepts, ils conservent les objets malgré leurs transformations, ils appréhendent le temps, la causalité, l’espace, etc. Et les cerveaux humains ont la capacité de faire fonctionner des systèmes symboliques, comme le langage.

Quels sont les aspects positifs des modèles symboliques de l’IA, ou graphes de connaissances? 

  • Il s’agit de modèles explicites du monde, plus précisément d’un monde pratique local. 
  • Ils sont en principe auto-explicatifs, si le modèle n’est pas trop complexe.
  • ils ont de fortes capacités de raisonnement. 

Tout cela les rend plutôt fiables, comparativement aux modèles neuronaux, qui sont probabilistes. Cependant, les modèles symboliques actuels présentent deux faiblesses.

  • Leur conception prend du temps. Ils sont coûteux en termes de main-d’œuvre spécialisée.
  • Ils n’ont ni “conservation des concepts” ni  “conservation des relations” entre les ontologies ou domaines. Dans un domaine particulier donné, chaque concept et chaque relation doivent être définis logiquement un par un.

S’il existe une interopérabilité au niveau des formats de fichiers pour les métadonnées sémantiques (ou les systèmes de classification), cette interopérabilité n’existe pas au niveau sémantique des concepts, ce qui cloisonne les graphes de connaissances, et par conséquent l’intelligence collective.

En revanche, dans la vie réelle, des humains issus de métiers ou de domaines de connaissances différents se comprennent en partageant la même langue naturelle. En effet, dans la cognition humaine, un concept est déterminé par un réseau de relations inhérent aux langues naturelles.

Mais qu’est-ce que j’entends par “le sens d’un concept est déterminé par un réseau de relations inhérent aux langues naturelles” ? Quel est ce réseau de relations ? Et pourquoi est-ce que je le souligne dans cet article ? Parce que je crois que l’IA symbolique actuelle passe à côté de l’aspect sémantique des langues. Faisons donc un peu de linguistique pour mieux comprendre.

Figure 2

Toute langue naturelle tisse trois types de relations : l’interdéfinition, la composition et la substitution.

  • Tout d’abord, le sens de chaque mot est défini par une phrase qui implique d’autres mots, eux-mêmes définis de la même manière. Un dictionnaire englobe notamment une inter-définition circulaire ou enchevêtrée de concepts.
  • Ensuite, grâce aux règles de grammaire, on peut composer des phrases originales et comprendre de nouveaux sens.
  • Enfin, tous les mots d’une phrase ne peuvent pas être remplacés par n’importe quel autre ; il existe des règles pour les substitutions possibles qui contribuent au sens des mots et des phrases.

Vous comprenez la phrase “Je peins la petite pièce en bleu” (voir Figure 2) parce que vous connaissez les définitions de chaque mot, vous connaissez les règles grammaticales qui donnent à chaque mot son rôle dans la phrase, et vous savez par quoi les mots actuels pourraient être remplacés. C’est ce qu’on appelle la sémantique linguistique.

Il n’est pas nécessaire de définir une à une ces relations d’inter-définition, de composition et de substitution entre concepts chaque fois que l’on parle de quelque chose. Tout cela est inclus dans la langue. Malheureusement, nous ne disposons d’aucune de ces fonctions sémantiques lorsque nous construisons les graphes de connaissances actuels. Et c’est là qu’IEML pourrait contribuer à améliorer les méthodes de l’IA symbolique et de la gestion des connaissances.

Pour comprendre mon argumentation, il est important de faire la distinction entre la sémantique linguistique et la sémantique référentielle. La sémantique linguistique concerne les relations entre les concepts. La sémantique référentielle concerne les relations entre les propositions et les états de choses ou entre les noms propres et les individus.

Si la sémantique linguistique tisse des relations entre les concepts, pourquoi ne pouvons-nous pas utiliser les langues naturelles dans les modèles symboliques ? Nous connaissons tous la réponse. Les langues naturelles sont ambiguës (grammaticalement et lexicalement) et les machines ne peuvent pas désambiguïser le sens en fonction du contexte. Dans l’IA symbolique actuelle, nous ne pouvons pas compter sur le langage naturel pour susciter organiquement des relations sémantiques.

Alors, comment construit-on un modèle symbolique aujourd’hui ?

  • Pour définir les concepts, nous devons les relier à des URI (Uniform Resource Identifier) ou à des pages web, selon le modèle de la sémantique référentielle.
  • Mais comme la sémantique référentielle est insuffisante pour décrire un réseau de relations, au lieu de s’appuyer sur la sémantique linguistique, il faut imposer des relations sémantiques aux concepts un par un.

C’est la raison pour laquelle la conception des graphes de connaissances prend tant de temps et c’est aussi pourquoi il n’existe pas d’interopérabilité sémantique générale des graphes de connaissances entre les ontologies ou les domaines de connaissance. Encore une fois, je parle ici d’interopérabilité au niveau sémantique ou conceptuel et non au niveau du format.

Afin de pallier les insuffisances des modèles symboliques actuels, j’ai construit un métalangage qui présente les mêmes avantages que les langues naturelles, à savoir un mécanisme inhérent de construction de réseaux sémantiques, mais qui n’a pas leurs inconvénients, puisqu’il est sans ambiguïté et calculable.

IEML (le méta-langage de l’économie de l’information), est un métalangage sémantique non ambigu et calculable qui inclut un système d’inter-définition, de composition et de substitution de concepts.

L’objectif de cette invention est de faciliter la conception de graphes de connaissances et d’ontologies, d’assurer leur interopérabilité sémantique et de favoriser leur conception collaborative. La vision qui inspire IEML est une intelligence collective à support numérique et augmentée par l’IA.

IEML a le pouvoir d’expression d’un langage naturel et possède une structure algébrique qui lui permet d’être entièrement calculable. IEML n’est pas seulement calculable dans sa dimension syntaxique, mais aussi dans sa dimension sémantique linguistique, car ses relations sémantiques (en particulier les relations de composition et de substitution) sont des fonctions calculables de ses relations syntaxiques. Il n’existe aujourd’hui aucun autre système symbolique ayant ces propriétés.

IEML dispose d’une grammaire entièrement régulière et récursive ainsi que d’un dictionnaire de trois mille mots organisés en paradigmes (systèmes de substitution) permettant la construction (récursive et grammaticale) de n’importe quel concept. En somme, tout concept peut être construit à partir d’un petit nombre de briques lexicales selon des règles de composition universelles simples.

Comme chaque concept est automatiquement défini par des relations de composition et de substitution avec d’autres concepts et par des explications impliquant les concepts de base du dictionnaire et conformes à la grammaire IEML, IEML est son propre métalangage. Il peut traduire n’importe quelle langue naturelle. Le dictionnaire en IEML est actuellement traduit en français et en anglais.

 IEML permet de coupler les modèles symboliques et neuronaux, et de surmonter leurs limitations et séparations dans une architecture innovante et intégrée.

Figure 3

La diapositive ci-dessus (Figure 3) présente la nouvelle architecture sémantique pour la gestion des connaissances qu’IEML rend possible, une architecture qui conjoint les modèles neuronaux et symboliques.

La seule chose qui puisse générer tous les concepts dont nous avons besoin pour exprimer la complexité des domaines de connaissance, tout en maintenant la compréhension mutuelle, est une langue. Mais les langues naturelles sont irrégulières et ambiguës, et leur sémantique ne peut être calculée. IEML étant un langage algébrique univoque et formel (contrairement aux langues naturelles), il peut exprimer tous les concepts possibles (comme dans les langues naturelles), et ses relations sémantiques sont densément tissées grâce à un mécanisme intégré. C’est pourquoi nous pouvons utiliser IEML comme un langage de métadonnées sémantiques pratique pour exprimer n’importe quel modèle symbolique ET nous pouvons le faire de manière interopérable. Encore une fois, je parle d’interopérabilité conceptuelle. En IEML, tous les modèles symboliques peuvent échanger des modules de connaissance et le raisonnement transversal aux ontologies devient la norme.

Comment les modèles neuronaux sont-ils utilisés dans cette nouvelle architecture ? Les modèles neuronaux traduisent automatiquement le langage naturel en IEML, donc pas de travail ou d’apprentissage supplémentaire pour le profane. Ils pourraient même aider à traduire des descriptions informelles en langage naturel en un modèle formel exprimé en IEML.

Les consignes (prompts) seraient exprimées en IEML en coulisse, de sorte que la génération de données soit mieux contrôlée.

Nous pourrions également utiliser des modèles neuronaux pour classer ou étiqueter automatiquement des données en IEML. Les étiquettes exprimées en IEML permettront un apprentissage automatique plus efficace, car les unités ou “tokens” pris en compte ne seraient plus des unités sonores – caractères, syllabes, mots – des langues naturelles, mais des concepts générés par une algèbre sémantique.

Quels seraient les avantages d’une architecture intégrée de gestion des connaissances utilisant IEML comme système de coordonnées sémantiques ?

  • Les modèles symboliques et neuronaux fonctionneraient ensemble au profit de la gestion des connaissances.
  • Un système de coordonnées sémantiques commun faciliterait la mutualisation des modèles et des données. Les modèles symboliques seraient interopérables et plus faciles à concevoir et à formaliser. Leur conception serait collaborative, y compris d’un domaine à l’autre. L’usage d’un métalangage sémantique comme IEML amélioreraient également la productivité intellectuelle grâce à une automatisation partielle de la conceptualisation.
  • Les modèles neuronaux seraient basés sur des étiquettes codées en IEML et donc plus transparents, explicables et fiables. L’avantage serait non seulement technique, mais aussi d’ordre éthique.
  • Enfin, cette architecture favoriserait la diversité et la liberté de création, puisque les réseaux de concepts, ou graphes de connaissances, formulés en IEML peuvent être différenciés et complexifiés à volonté.

RÉFÉRENCES POUR IEML

Scientific paper (English) in Collective Intelligence Journal,2023 https://journals.sagepub.com/doi/full/10.1177/26339137231207634

Article scientifique (Français) in Humanités numériques, 2023 https://journals.openedition.org/revuehn/3836

Website / site web: https://intlekt.io/

Book: The Semantic Sphere, Computation, Cognition and Information Economy. Wiley, 2011

Livre: La Sphère sémantique. Computation, cognition, économie de l’information. Lavoisier, 2011

Je viens de terminer la lecture de l’Introduction à la philosophie de l’histoire, de Raymond Aron. Il s’agit de sa “thèse principale” soutenue en 1938 (10 jours après l’Anschluss). Le propos est dense, truffé de références à la philosophie et à la sociologie allemande de la fin du XIXe et du début du XXe siècle. Le livre est organisé en questions auxquelles répondent des thèses opposées dont l’auteur examine systématiquement les arguments avant de trancher à sa manière. Au centre de l’ouvrage: les rapports entre pratique historienne et philosophie pour des savants plongés dans des situations concrètes et qui entretiennent nécessairement des vues politiques, morales et métaphysiques particulières. Sont notamment abordées les notions de temps, de compréhension, de causalité et de scientificité de la discipline historique. L’ouvrage se clôt en interrogeant la validité de quelques grandes philosophies de l’histoire (spécialement l’idée de progrès et le marxisme) et le sens des concepts de liberté et d’engagement pour une humanité inéluctablement vouée à l’histoire. Les quelques mentions du racisme comme philosophie de l’histoire – que Raymond Aron n’endosse nullement – nous rappellent l’ambiance de l’époque où il écrivait. Le sous-titre de l’ouvrage “Essai sur les limites de l’objectivité historique” suggère le principal résultat atteint par Aron : il s’agit d’une leçon d’humilité intellectuelle et de scepticisme critique qui rappelle que le choix des sujets, les découpages conceptuels et les structures narratives de l’historien sont contingents. Malgré la mise en évidence des limites de la connaissance historique, notre auteur fait droit à la recherche de la vérité dans le respect des faits et de la cohérence logique ; il ne verse jamais dans le relativisme ou le nihilisme. 

Malgré la difficulté de lecture due au caractère compact de l’argumentation, le lecteur contemporain est frappé par l’absence de jargon. On est encore à l’époque de Bergson et d’Alain. Aron ne prétend pas créer de “nouveaux concepts” en forme de mots d’ordre, ni à “révolutionner” quoi que ce soit ou à proclamer “la fin” de ceci ou de cela. Il étudie minutieusement une multitude de théories dont aucune n’est bonne ou vraie absolument, mais dont chacune exprime une face de la réalité. Plusieurs approches apparemment contradictoires peuvent être valides en même temps, pourvu qu’on les aborde de manière dialectique, en ayant bien conscience que les points de vue surplombants et les totalisations résultent de choix qui ne seront jamais garantis par un savoir absolu, inaccessible à l’humain. Dogmatisme et fanatisme sont fermement condamnés ; positivisme scientiste et relativisme irresponsable sont renvoyés dos à dos. Aron défend un humanisme rationnel et un libéralisme modéré non exempts de tragique. Libres malgré les multiples conditionnements et déterminations qui nous définissent, il nous revient de choisir notre engagement dans l’histoire. Un ouvrage à méditer face à la montée des tensions et à l’inflammation des esprits dont nous sommes témoins aujourd’hui.

Bien que les deux camarades de classe à Normale Sup soient politiquement et philosophiquement opposés, Sartre et Aron ont été tous deux fascinés par les thèmes de la liberté et de l’engagement politique. Cohérent avec ses idées, l’auteur de l’Introduction à la philosophie de l’histoire et de L’Opium des Intellectuels s’engagea dans la France Libre pendant la Seconde Guerre mondiale et s’opposa au totalitarisme soviétique à l’époque de la Guerre Froide, à contre-courant de la majeure partie de l’intelligentsia française de l’époque.

Article publié le 5 janvier 2024 dans le « Nouvel Obs »

Lien : https://www.nouvelobs.com/bibliobs/20240105.OBS82896/eloge-d-un-pionnier-de-l-intelligence-artificielle.html

Auteur: Arnaud Sagnard

Parmi les précurseurs de l’intelligence artificielle, il y a incontestablement Pierre Lévy. Le philosophe a pensé dès 1987 la révolution à venir dans son essai « la Machine univers » et travaille désormais à un métalangage qui permettrait aux humains de se servir de l’IA, et non l’inverse.

Au risque d’user un peu plus la célèbre formule de Jacques Derrida employée jadis au sujet du communisme, un spectre hante non pas l’Europe mais le monde intellectuel. Depuis quelques mois, tel un monolithe noir apparu soudainement aux quatre coins de l’univers, deux voyelles sont sur toutes les lèvres et dans toutes les consciences. Ce I et ce A ne cessent en effet de se manifester avec, pour dernière occurrence, l’annonce que la plateforme Amazon limite désormais à trois par jour la publication de livres produits au moyen d’intelligences artificielles sur son outil Kindle Direct Publishing. Afin, nous fait-elle savoir, de ne pas être totalement submergée par la production de livres sans auteur, générés automatiquement, donc.

On ne reviendra pas sur le fait qu’il ne s’agit ni d’intelligence ni même d’artifice, nous préférons saluer ici une œuvre totalement humaine, ancienne et malheureusement en grande partie oubliée bien qu’elle constitue aujourd’hui un outil indispensable pour comprendre le monde dans lequel nous venons d’entrer. En 1987, un chercheur en sciences de l’information et de la communication nommé Pierre Lévy publiait un essai de philosophie au titre prémonitoire « la Machine univers »(La Découverte), allusion à l’ordinateur alors en train de s’installer dans les foyers des Français et à un vieux rêve de l’humanité : calculer la totalité du monde.

Pierre Lévy en 2023

Lire cet ouvrage aujourd’hui provoque un électrochoc car tout y est : la prise de pouvoir actuelle du calcul sur le langage au cours de laquelle « le réel est ici pratiquement appréhendé comme un modèle parmi une prolifération de modèles possibles », « la mathématisation des phénomènes » entraînant la création de « micromondes numériques » et de « systèmes experts », totem actuel des promoteurs de l’IA, prémices d’un « univers omnicalculant » capable de « goûter les capacités sensibles de l’homme ». Il y est question de Wittgenstein, d’Aristote et de Turing et cela reste parfaitement compréhensible pour les personnes qui, comme moi, ont mis un certain temps à comprendre le principe du copier-coller.

On peut également y lire des phrases sublimes comme « l’éternité d’un singe dactylographe produira peut-être les œuvres complètes de Shakespeare » ou « il reste que le virtuel disloque partout la banquise des possibles ». Bien sûr, on sent l’auteur fasciné par le phénomène à venir : la naissance d’un « logos anonyme, une même et intarissable voix derrière les masques de l’histoire, un souffle au gré de qui se lèvent ou vont mourir des armées de mots, d’hommes et de dieux », vent sombre qui, maintenant qu’il nous frôle, plonge une partie des lecteurs dont je suis dans la peur ou l’expectative.

Trois décennies plus tard, il reste à savoir à quoi cet auteur, ancien élève de Michel Serres et de Cornelius Castoriadis, occupe désormais ses journées. Ayant pris le sujet de l’intelligence artificielle à bras-le-corps, il construit depuis 2006 un métalangage baptisé IEML, pour Information Economy Meta Language, afin que l’intelligence collective humaine, c’est-à-dire vous et moi, puisse se nourrir de la puissance de calcul des IA et non l’inverse. Eu égard à notre capacité réduite de compréhension de certains enjeux tels que la création d’un « protocole sémantique », nous préférons lui laisser la parole dans cette vidéo à partir de 20 minutes.

Lire la vidéo, (ça commence à la vingtième minute) : https://www.youtube.com/watch?v=dTMU-j8nYio&t=7s

Et nous accrocher à ces mots de Pierre Lévy, écrits en 1990 : alors que « l’utopie technicienne rêve d’un monde synchrone, sans délais, sans frictions ni perte » mû par le calcul, nous préférons jurer fidélité à la langue « toile infiniment compliquée où se propagent, se divisent et se perdent les fulgurations lumineuses du sens ».

Première réflexion au sujet d’un IEML_GPT à venir.

Rappel : ” Je travaille dans une perspective d’intelligence artificielle dédiée à l’augmentation de l’intelligence collective. J’ai conçu IEML pour servir de protocole sémantique, permettant la communication des significations et des connaissances dans la mémoire numérique, tout en optimisant l’apprentissage automatique et le raisonnement automatique.”

Pour tout savoir sur IEML, l’article scientifique définitif : https://journals.sagepub.com/doi/10.1177/26339137231207634

L’article scientifique sur IEML en français:
https://journals.openedition.org/revuehn/3836

Au sujet du GPT Builder : https://help.openai.com/en/articles/8554397-creating-a-gpt

Le Dictionnaire d’IEML

La Grammaire d’IEML

VISION

Imaginons un dispositif destiné au partage des connaissances et qui tire le maximum des possibilités techniques contemporaines. Au cœur de ce dispositif évolue un écosystème ouvert de bases de connaissances catégorisées en IEML, qui émergent d’une multitude de communautés de recherche et de pratique. Entre ce noyau de bases de connaissances interopérables et les utilisateurs humains vivants s’interpose une interface neuronale (un écosystème de modèles) « no code » qui donne accès au contrôle, à l’alimentation, à l’exploration et à l’analyse des données. Tout se passe de manière intuitive et directe, selon les modalités sensorimotrices sélectionnées. C’est aussi par l’intermédiaire de ce giga-perceptron – un métavers immersif, social et génératif – que les collectifs échangent et discutent les modèles de données et réseaux sémantiques qui organisent leurs mémoires. En bonne gestion des connaissances, le nouveau dispositif de partage des savoirs favorise l’enregistrement des créations, accompagne les parcours d’apprentissage et présente les informations utiles aux acteurs engagés dans leurs pratiques. Le modèle IEML_GPT évoqué ici se veut un premier pas dans cette direction.

Maintenant que l’IA a été déchaînée sur Internet et qu’elle se couple aux médias sociaux, il nous faut apprivoiser et harnacher le monstre. Comment rendre l’IA raisonnable? Comment faire en sorte qu’elle « comprenne » ce qu’on lui dit et ce qu’elle nous dit, plutôt que de seulement calculer les probabilités d’apparition des mots à partir des données d’entraînement? Il faudrait lui apprendre le sens des mots et des phrases de telle sorte qu’elle (l’IA) se fasse une représentation abstraite *compréhensible pour elle* non seulement du monde physique (je laisse la tâche à Yann LeCun), mais aussi une représentation du monde humain et, plus généralement, du monde des idées.

En d’autres termes, comment greffer des capacités de codage et décodage symbolique sur un modèle neuronal qui ne peut au départ que reconnaître et générer des formes sensibles ou des agrégats de signifiants? Ce défi rappelle le processus de l’hominisation – quand des réseaux de neurones biologiques sont devenus capables de manipuler des systèmes symboliques – ce qui n’est pas pour me déplaire.

COMPRÉHENSION / CONNAISSANCE / INTEROPÉRABILITÉ

Comprendre une phrase, c’est l’inclure dans la dynamique auto-définitionnelle d’une langue, et cela avant même de saisir la référence extralinguistique de la phrase. L’IA comprendra ce qu’on lui dit lorsqu’elle sera capable de transformer automatiquement une chaîne de caractères en un réseau sémantique qui plonge dans la boucle auto-référentielle et auto-définitoire d’une langue. Le dictionnaire d’une langue, avec ses définitions, est un élément crucial de cette boucle. De même qu’une déduction représente en fin de compte une tautologie logique, le dictionnaire d’une langue exhibe une *tautologie sémantique*. C’est pourquoi IEML_GPT doit contenir un fichier avec le dictionnaire IEML-français-anglais (et peut-être d’autres langues) avec l’ensemble des relations entre les mots sous forme de phrases IEML. Le dictionnaire est une méta-ontologie qui est la même pour tous les utilisateurs. D’autres fichiers pourront contenir des modèles locaux ou ontologies correspondant aux écosystèmes de pratiques des communautés d’utilisateurs.
1) Compréhension linguistique. Les agents raisonnables sont capables de reconnaître et de générer des séquences de caractères IEML syntaxiquement valides, notamment au moyen d’un parseur. Ils ont une compréhension d’IEML : ils reconstituent les arbres syntagmatiques récursivement enchâssés et les relations entre concepts qui découlent du dictionnaire et des matrices paradigmatiques (ou groupes de substitution) qui organisent les concepts. Chaque concept (représenté par un mot ou une phrase IEML) se trouve ainsi au centre d’une étoile de relations syntaxiques et sémantiques.  
2) Connaissance des domaines pratiques. Les agents raisonnables sont animés par des bases de connaissances qui leur permettent de comprendre (localement) le monde où ils sont amenés à intervenir. Ils disposent de modèles (ontologies ou graphes de connaissances en IEML) des situations pratiques auxquelles leurs utilisateurs sont confrontés. Ils sont capables de raisonner à partir de ces modèles. Ils sont capables de rapporter les données qu’ils acquièrent et les questions qu’on leur pose à ces modèles.
3) Interopérabilité sémantique. Les agents raisonnables partagent la même langue (IEML) et donc se comprennent entre eux. Ils peuvent s’échanger des modèles ou des sous-modèles. Ils transforment les expressions en langues naturelles en IEML et les expressions IEML en langues naturelles : ils peuvent donc comprendre les humains et se faire comprendre d’eux.

TÂCHE 1 : LE DICTIONNAIRE

1.0 Je dispose déjà d’environ trois mille mots du dictionnaire organisés en paradigmes, d’une grammaire formelle, d’un parseur pour valider les phrases et de fonctions pour générer des paradigmes.

1.1 La première étape consiste à créer des concepts-phrases pour exprimer les *ensembles de mots* (familles lexicales et champs sémantiques) que sont les paradigmes, leurs colonnes, leurs rangées, etc. Appelons les concepts définissant ces ensembles de mots des « concepts lexicaux ». Les mots d’une même famille lexicale ont des traits syntaxiques communs et appartiennent souvent aux mêmes paradigmes-racines. Ils devront être créés systématiquement au moyen de paradigmes.

Il me faut trouver les moyens de générer les paradigmes de concepts lexicaux automatiquement en langue naturelle avec IEML_GPT plutôt qu’au moyen de l’éditeur actuel qui n’est pas facile à utiliser.

1.2 La seconde étape consiste à créer toutes les « propositions analytiques » qui définissent les mots du dictionnaire et explicitent leurs relations au moyen de mots et de concepts lexicaux. Par exemple : « Une montagne est plus grande qu’une colline » ; « La sociologie appartient aux sciences humaines ». Les propositions analytiques de ce type sont toujours vraies et définissent une méta-ontologie. Il faudra donc créer les paradigmes des *relations du dictionnaire*. Et les faire générer par IEML_GPT à partir d’instructions en langues naturelles.

1.3 Toutes les relations internes au dictionnaire, matérialisées par des liens hypertextes, sont créés par des phrases. Sur le plan de l’interface utilisateur, cela revient à créer des liens hypertexte internes au dictionnaire (entre les mots et les concepts lexicaux) de telle sorte que leurs relations grammaticales soient les plus claires possibles. Le document dictionnaire-hypertexte doit également être généré automatiquement par IEML_GPT.

Pour chaque mot, on obtiendra une liste (une « page? ») de phrases justes contenant le mot. Cette liste sera organisée par rôle grammatical : mot défini en rôle de racine, mot défini en rôle d’objet, etc.

Ces phrases serviront non seulement à définir les mots, mais aussi à commencer à accumuler des exemples, voire des données d’entraînement, avec la correspondance entre phrases IEML formelles et traductions littéraires en français et en anglais. En somme, le premier produit fini sera un dictionnaire complet, avec mots, concepts lexicaux et relations d’inter-définition sous forme hypertextuelle, le tout en IEML, anglais et français.

TÂCHE 2 : L’ÉDITEUR D’ONTOLOGIES

La tâche 1 aura permis de tester les meilleurs moyens de créer des paradigmes au moyen de consignes en langues naturelles, voire au moyen de formulaires permettant de mâcher le travail des concepteurs d’ontologies.

L’output de l’éditeur d’ontologie pourra être en RDF, JSON-LD, ou sous forme d’un document hypertexte. On peut aussi imaginer un document multimédia interactif : tables, arbres, réseaux de concepts explorables, illustrations verbales/sonores…

Idéalement, l’ontologie créée devrait contenir nativement un moteur d’inférence et donc supporter le raisonnement automatique. La propriété intellectuelle des créateurs d’ontologies devra être reconnue.

IEML_GPT sera capable de faire fonctionner n’importe quelle ontologie ou ensemble d’ontologies IEML.

TÂCHE 3 LA CATÉGORISATION AUTOMATIQUE

L’étape suivante devra viser la construction d’un outil intégré de catégorisation automatique de données en IEML. On donne à l’IA un jeu de données et une ontologie IEML (idéalement sous forme de fichier de référence) et le résultat est un ensemble de données catégorisées selon les termes de l’ontologie. L’exécution de la tâche 3 ouvre la voie à la création d’un écosystème de bases de connaissances tel que décrit dans la vision plus haut et la figure ci-dessous.

Toutes ces étapes devront être d’abord réalisées « en petit » (preuves de concepts et méthode agile) avant de l’être intégralement.