Archives for posts with tag: intelligence artificielle

L’intelligence artificielle est mystérieuse : on lui parle et elle semble comprendre ce qu’on lui dit. La preuve qu’elle comprend c’est qu’elle répond par un texte ou une parole qui a du sens, et parfois plus de sens que ce que pourrait articuler un humain ordinaire. Comment est-ce possible?

Brueghel, le Paradis terrestre.
Le succès des modèles de langue

Certes, les recherches sur l’intelligence artificielle datent du milieu du 20e siècle et, même si le grand public ne peut les manipuler directement que depuis 3 ans, les modèles statistiques ou neuro-mimétiques étaient déjà présents “sous le capot” d’une foule d’applications depuis les années 2010. Mais le type d’application grand public que tout le monde appelle maintenant “l’IA” n’est apparu qu’en 2022. Il faut d’abord prendre la mesure du phénomène sur un plan quantitatif. À la fin de 2025, il y avait déjà 700 millions d’utilisateurs hebdomadaires de ChatGPT et 150 millions d’utilisateurs actifs quotidiens pour l’IA générative en général. On estime que 50% des travailleurs américains utilisent des modèles de langue (ChatGPT, Claude, Perpexity, Gemini, etc.), d’ailleurs sans grande augmentation de leur productivité, sauf pour les tâches de programmation et de bureaucratie interne. Sur le plan des mœurs, l’IA s’est tellement imposée dans le paysage numérique que beaucoup de jeunes gens ont l’impression qu’elle a toujours existé. Les étudiants s’en servent pour faire leurs devoirs. Des millions de personnes ont développé une addiction au dialogue avec une machine désormais amie, confidente ou psychothérapeute. Interagir avec un modèle de langue augmente votre estime de soi!

L’interdépendance des problèmes

Tout ceci pose des problèmes éthico-politiques, géopolitiques et civilisationnels. Il est d’ailleurs possible que, dans les années à venir, de nouvelles avancées scientifiques et techniques rendent ces problèmes encore plus aigus. La puissance de mémoire et de calcul qui supporte l’IA se partage aujourd’hui entre les deux oligarchies numériques américaine et chinoise qui rivalisent d’investissements. Cette concentration économique et géopolitique soulève à juste titre l’inquiétude. Les “biais”, les mauvais usages de toutes sortes et les délires probabilistes des machines poussent à la construction de garde-fous éthiques. C’est bien. Il faut néanmoins rappeler que l’éthique ne se limite pas à apaiser les craintes ou à prévenir les nuisances mais qu’elle invite aussi à penser les bons usages et les directions de développement favorables. Avec l’IA, les questions industrielles, éthiques et cognitives sont étroitement codépendantes. C’est pourquoi il est nécessaire d’élucider l’efficace cognitive de cette technique si l’on veut comprendra pleinement ses enjeux industriels, éthico-politiques et civilisationnels.

La question

Comment se fait-il que des algorithmes statistiques, qui calculent la probabilité du mot suivant, puissent générer des textes pertinents et des dialogues engageants ? À mon sens, la solution de cette énigme se trouve dans une compréhension de ce qu’est l’intelligence humaine. Car ce sont des humains qui produisent les milliards de textes qui servent de données d’entraînement. Ce sont encore des humains qui construisent les centres de calcul, étendent les réseaux et conçoivent les algorithmes. Ce sont toujours des humains qui, par leur lecture, projettent un sens sur les textes aveuglément générés par des machines privées de conscience. Mais puisque le secret de l’IA se trouve selon moi dans l’intelligence humaine, je manquerais à ma tâche si je n’expliquais pas en quoi elle consiste.

Qu’est-ce que l’intelligence humaine ?

L’intelligence humaine est d’abord animale, c’est-à-dire qu’elle est ordonnée à la locomotion qui distingue les bêtes des plantes dépourvues de neurones. Le système nerveux organise une boucle entre la sensibilité et la motricité. Cette interface entre la sensation et le mouvement se complexifie au fur et à mesure de l’évolution, jusqu’à l’apparition du cerveau chez les animaux les plus intelligents. Ces derniers deviennent capables de cartographier leur territoire, de retenir des événements passés (ils ont une mémoire) et de simuler des événements futurs (ils ont une imagination). Le fonctionnement du cerveau produit l’expérience consciente, avec ses plaisirs et ses peines, ses répulsions et ses attractions. De là découle toute la gamme des émotions qui colorent les perceptions et induisent les actions. Assignée au mouvement, l’intelligence animale organise son expérience dans l’espace et le temps. Elle vise des buts et se réfère à des objets du monde environnant. A-t-elle affaire à une proie, à un prédateur, à un partenaire sexuel ? De la catégorisation suit le type d’interaction. Il ne fait aucun doute que l’intelligence animale conceptualise. Enfin, l’animal échange une foule de signes avec la faune et la flore de son milieu de vie et communique intensément avec les membres de son espèce.

[On trouvera un développement sur la complexité de l’expérience animale dans ma récente conférence]

L’IA ne possède aucun des caractères de l’intelligence animale : ni la conscience, ni le sens de l’espace et du temps, ni l’intentionalité de l’expérience (la finalité et la référence à des objets), ni l’aptitude à conceptualiser, ni les émotions, ni la communication. Or l’intelligence humaine comprend l’intelligence animale et possède en plus une capacité symbolique qui s’actualise dans le langage, les institutions sociales complexes et les techniques. Malgré sa singularité dans la nature, n’oublions jamais que la capacité symbolique humaine s’enracine dans une sensibilité animale dont elle ne peut se séparer.

[Pour en savoir plus sur l’ordre symbolique, écouter ma conférence sur ce sujet]

Le langage : entre sensible et intelligible

Je vais examiner plus particulièrement le langage, grâce à qui nous pouvons dialoguer, raconter des histoires, poser des questions, raisonner et spéculer sur l’invisible. Commençons par analyser la composition d’un symbole. Il comprend une partie sensible, une image visuelle ou sonore (le signifiant) et une partie intelligible ou concept (le signifié). On a vu que les animaux avaient des concepts, mais l’Homme seul représente ses concepts par des images, ce qui lui permet de les réfléchir et de les combiner à volonté. Les symboles, et en particulier les symboles linguistiques, ne sont jamais isolés mais font partie de systèmes symboliques qui sont intériorisés par les interlocuteurs. Il faut que la grammaire et le dictionnaire de notre langue commune fasse partie de nos automatismes pour que nous nous comprenions de manière fluide. Les textes appartiennent simultanément à deux mondes qu’ils connectent à leur manière : ils possèdent une adresse spatio-temporelle par leur partie sensible et ils se distribuent en d’invisibles réseaux de concepts par leur partie intelligible.

Que signifie comprendre une phrase? Prenons l’exemple simple qui suit : “Je peins la petite pièce en bleu”. Je fais d’abord correspondre au son de chaque mot son concept. Puis, à partir de la séquence parlée, je construis l’arbre syntaxique de la phrase avec, à la racine, le verbe “peins”, à la feuille-sujet le mot “je”, à la feuille-objet l’expression “la petite pièce” et à la feuille-complément de manière le mot “bleu”. Mais ce n’est pas tout. Pour vraiment comprendre “je”, il me faut savoir que la première personne a été choisie par opposition à la seconde et à la troisième personne. Pour saisir “bleu” je dois savoir que c’est une couleur et qu’elle représente une sélection parmi le paradigme des couleurs (jaune, rouge, vert, violet, etc.). Et ce n’est que par rapport à grand, long ou étroit que “petite” fait sens. Bref, dans une expression symbolique simple telle qu’une courte phrase, chaque mot occupe une place dans un arbre syntaxique et actualise un choix dans un groupe de substitutions possibles.

Les phrases sont généralement proférées par des sujets en situation d’interlocution. Mes automatismes symboliques ne se contentent pas de reconstituer le sens linguistique d’une phrase à partir d’une séquence de sons, ils projettent aussi une subjectivité, une intériorité humaine, à la source de la phrase. La parole s’élève dans le va-et-vient d’un dialogue. Je situe cette phrase dans l’histoire et l’avenir possible d’une relation, au sein d’un contexte pratique particulier. D’autre part, une expression symbolique fait le plus souvent référence à une objectivité, à une réalité extra-linguistique, voir extra-sociale. Enfin, elle éveille en moi une foule de résonnances affectives plus ou moins conscientes.

En somme, l’image symbolique, qui est sensible et matérielle, va déclancher dans l’esprit humain la production et le tissage cohérent d’un sens intelligible à partir d’une multitude de fils sémantiques : un sens conceptuel ; un sens narratif par la reconstitution d’arbres syntaxiques et de groupes de substitution paradigmatiques ; un sens intersubjectif et social ; un sens référentiel objectif ; un sens affectif et mémoriel. C’est dire que, une fois recueilli par l’intelligence humaine, un texte matériel devient solidaire de toute une complexité immatérielle, complexité qui n’est nullement aléatoire mais au contraire fortement structurée par les langues, les rituels de dialogue et les règles sociales, la logique des émotions, la cohérence contextuelle inhérente aux corpus et aux mondes de référence. La capacité des modèles de langue à « raisonner » et à répondre aux requêtes de manière pertinente est un effet de corpus, en rapport avec la priorité accordée aux données d’entraînement dialogiques et à celles qui adoptent un style démonstratif. Les énormes données d’apprentissage permettent une capture statistique des normes de discours.

Or c’est précisément cette solidarité entre la partie matérielle des textes – désormais numérisés – et leur partie immatérielle que va capter l’intelligence artificielle. N’oublions pas que seul le signifiant (les séquences de 0 et de 1) existe pour les machines. Pour elles, il n’y a ni concepts, ni récits, ni sujets, ni mondes de référence réels ou fictifs, ni émotions, ni résonnances liées à une mémoire personnelle et encore moins un quelconque enracinement dans une expérience sensible de type animal. Ce n’est que grâce à la quantité gigantesque des données d’entraînement et à l’énorme puissance des centres de calcul contemporains que les modèles statistiques parviennent à réifier la relation entre la forme sensible des textes et les multiples couches de sens que détecte spontanément un lecteur humain.

Données d’entraînement et puissance de calcul

L’IA contemporaine repose sur quatre piliers :
1) les données d’entraînement,
2) la puissance de calcul,
3) les algorithmes de traitement statistique qui simulent grossièrement des réseaux neuronaux (deep learning),
4) les résultats de divers travaux “manuels” tels que les bases de données spécialisées, les graphes de connaissances qui catégorisent et structurent les données, les retours d’évaluation in vivo qui permettent des réglages fins.

Examinons plus en détail les deux premiers piliers. Les archives et mémoires analogiques ont pour la plupart été numérisées. La plus grande partie de la mémoire collective est maintenant directement produite sous forme numérique. 68% de la population mondiale était connectée à Internet en 2025 (seuls 2% de la population mondiale l’était en 2000). La foule présente en ligne produit et consomme une quantité phénoménale d’information. Or le plus petit geste dans une application, le moindre regard vers un écran alimentent les données d’entraînement des IA. Les algorithmes sont capables de prendre en compte plusieurs pages dans leur “attention” statistique. Les vastes corpus d’entraînement fournissent des contextes élargis qui permettent de raffiner le sens des mots et des expressions au-delà de ce qu’un dictionnaire pourrait proposer. On comprend donc que les modèles de langue puissent calculer des corrélations entre signifiants matériels qui impliquent – pour un lecteur humain – les significations immatérielles correspondantes. Mais il faut mobiliser pour cela une puissance de calcul inouïe. Alphabet, Amazon, Apple, Meta, Microsoft, NVIDIA et Tesla ont dépensé plus de 100 milliards de dollars dans la construction de centres de données entre Aout et Octobre 2025. Des centrales nucléaires dédiées vont bientôt alimenter les centres de données en électricité. La puissance de calcul agrégée du monde est plusieurs millions de fois supérieure à ce qu’elle était au début du 21e siècle.

Conclusion

Récapitulons les différents aspects de l’intelligence et du travail humain qui permettent aux IA de nous donner l’impression qu’elles comprennent le sens des textes. Les industriels fabriquent les installations qui supportent la puissance de calcul. Les informaticiens conçoivent et implémentent les logiciels qui effectuent les traitements statistiques. Des ontologistes (dont je suis) créent des règles, des systèmes d’étiquettes sémantiques, des graphes de connaissance et des bases de données spécialisées qui corrigent la dimension purement probabiliste des sytèmes d’IA. Des armées d’employés trient, collectent et préparent les données, puis supervisent l’entraînements des modèles. Des testeurs raffinent les réponses données par les machines, détectent leurs biais et tentent de les réduire. Je n’ai pas encore énuméré les deux facteurs qui expliquent le mieux l’intelligence des modèles de langue. Car c’est l’intelligence collective humaine qui produit les données d’entraînement, données qui enveloppent la solidarité entre les textes et leur sens. Enfin, à partir des images signifiantes générées sur un mode probabiliste par des modèles mécaniques et inconscients, c’est bel et bien l’esprit des utilisateurs vivants qui évoque des concepts, des récits, des intentions référentielles, la cohérence d’un monde réel ou fictif, une intersubjectivité dialogante, des intuitions spatio-temporelles et enfin des émotions, toutes dimensions du sens qui sont le propre de l’intelligence humaine.

En fin de compte, l’IA fonctionne comme une interface mécanique entre l’intelligence collective qui produit les données d’entraînement et les intelligences individuelles qui interrogent les modèles, lisent leurs réponses et les utilisent. Cette interface robotique entre les intelligences personnelles vivantes et l’intelligence collective accumulée augmente aussi bien – et de manière synergique – les unes que l’autre. Tel est le secret de l’intelligence artificielle, bien caché sous la fiction d’une IA autonome, qui “dépasse” l’intelligence humaine, alors qu’elle l’exprime et l’augmente. Dans ses effets concrets, ce nouveau système d’alimentation réciproque de l’intelligence individuelle et de l’intelligence collective peut contribuer à l’abrutissement des masses paresseuses et à l’extension de la banalité, comme il peut démultiplier les capacités créatives des savants et des penseurs originaux. Entre les deux, toutes les nuances de gris sont possibles. Dans l’éventail des possibilités entre ces deux extrêmes se trouve sans doute l’ultime choix éthique qui, bien qu’il concerne chacun d’entre nous, se pose de manière encore plus aiguë pour les éducateurs qui doivent enseigner l’art de lire, d’écrire et de penser. [Voir mon entrée de blog consacrée à ce sujet].

Il s’agit là du texte – simplifié et raccourci – de la communication que j’ai délivrée le 28 octobre 2025 à la PUC-RS à Porto Alegre devant les étudiants en maîtrise et doctorat de sciences humaines accompagnés de leurs professeurs.

Définissons l’humanisme d’abord comme une réflexion sur l’essence de l’Homme qui se caractérise par son abstraction et se situe dans un horizon d’universalité. Deuxièmement, fondé sur cette réflexion, l’humanisme se préoccupe du bien de l’Homme, c’est dire qu’il a une visée normative, éthique.

Karl Jaspers a nommé “période axiale” le milieu du premier millénaire avant notre ère, ce moment de l’histoire où Confucius en Chine, le Bouddha en Inde, Zarathoustra en Perse, les prophètes hébreux en Israel et Socrate en Grèce ont fondé, chacun à leur manière, de grandes traditions humanistes. On notera qu’il s’agit toujours d’une affaire de lettrés, basée sur l’usage de l’alphabet ou d’un système de caractères standardisés comme en Chine. En ce temps là, les chaînes de traditions orales commençaient à être notées, les textes manuscrits, réécrits à chaque copie, étaient fluides, éclatés entre de multiples versions. Quant aux auteurs réels, anonymes et pluriels, ils se dissimulaient souvent sous l’autorité de grands ancêtres mythiques.

La Bible et la littérature gréco-romaine sont les deux grandes racines de l’humanisme occidental. Je laisse de côté la Bible que je n’ose évoquer devant des frères maristes qui en savent plus que moi sur ce sujet et je me contenterai d’évoquer l’humanisme gréco-romain. La païdéia grecque et l’humanitas romaine (qui en est la traduction) reposent sur trois grands piliers: les lettres, l’ouverture d’esprit et le sentiment de la dignité humaine.

Les lettres comprennent ici la maîtrise du langage et de l’écriture (la grammaire), la science du raisonnement et du dialogue contradictoire (la dialectique), l’art de convaincre, enfin, essentiel dans cette culture d’orateurs politiques et d’avocats (la rhétorique). L’encyclopédie lettrée supposait la connaissance des sciences de l’époque et surtout une immersion de l’esprit dans le corpus des auteurs classiques : poètes, dramaturges et philosophes.

L’ouverture d’esprit se manifeste dans cette maxime célèbre tirée d’une pièce de Térence (2e siècle avant notre ère) : “Rien de ce qui est humain ne m’est étranger”. La phrase est elle-même inspirée de Ménandre, auteur de théâtre de l’époque hellénistique.

Le troisième point, qui définit encore aujourd’hui le fondement de l’attitude morale humaniste, est le primat de la dignité humaine. On pourrait prétendre que les romains et les grecs, qui pratiquaient l’esclavage, n’ont pas été à la hauteur de leurs propres principes. Sans doute. Mais il faut rappeler que presque toutes les sociétés ont pratiqué l’esclavage ou le servage, dont l’abolition ne date que du 19e siècle. Or, malgré leur statut juridique inférieur, on pouvait traiter les esclaves de manière “humaine” ou pas. L’auteur de théâtre Térence, que j’ai cité plus haut, et le philosophe stoïcien Épictète sont nés esclaves et ils ont été affranchis par des maîtres qui admiraient leurs talents.

L’histoire des technologies symboliques rythme celle de l’humanisme. À la Renaissance, l’imprimerie, en mécanisant la reproduction des textes, rend disponible les copies et les traductions. L’édition devient une industrie et la littérature moderne se développe. Il en résulte la naissance de l’auteur moderne, source d’un texte original, qui se matérialisera à la fin du 18e et surtout au 19e siècle par l’apparition du droit d’auteur.

Les “humanistes” de la Renaissance éditent, fixent, traduisent et impriment les textes anciens qui appartiennent aux traditions bibliques et gréco-latines. Émerge alors la critique textuelle, à savoir l’établissement des textes à partir de copies divergentes. Les studia humanitatis regroupent alors la connaissance de l’Hébreu, du Grec et du Latin. Au-delà de la compétence linguistique, le métier d’humaniste suppose une intimité avec les grands textes de la littérature et de la philosophie, une nouvelle sensibilité à la philologie, à l’histoire et aux contextes de rédaction qui aboutira au 19e siècle à la naissance de l’herméneutique moderne.

La critique textuelle mène insensiblement à l’esprit critique. Luther initie le schisme de la chrétienté latine en contestant l’autorité de l’Église qu’il déplace sur les Écritures saintes, désormais disponibles en langues vernaculaires: c’est le fameux slogan “Sola scriptura“. Première figure de l’intellectuel européen, Érasme de Rotterdam vit de sa plume grâce à l’imprimerie, navigue dans un réseau intellectuel transnational, n’hésite pas à critiquer la société et les élites de son temps (comme dans son célèbre Éloge de la folie), et s’établit par son œuvre monumentale comme un des principaux éditeurs, philologues, traducteurs, théologiens et pédagogues de l’Europe. Face à la montée des haines religieuses (et contrairement au boute-feu Luther), Érasme défend un humanisme chrétien pacifique.

Au début du 19e siècle un débat, particulièrement illustré par le pédagogue Friedrich Niethammer, partage les esprits en Allemagne. Faut-il centrer l’éducation – qui vise de plus en plus l’ensemble du peuple – sur les matières “utiles” de type scientifique et technique ou bien plutôt sur le développement de l’esprit, du goût, du jugement moral autonome et sur la capacité à s’inscrire dans une culture partagée grâce à l’étude des textes anciens? La première option, plus immédiatement pratique, se nomme alors philanthropie. Quant à la seconde option, qui insiste sur la formation de la personne ou “bildung”, elle est baptisée humanisme. Dans le monde occidental, ce débat va durer jusqu’au 20e siècle inclus, jusqu’à ce que la formation dite humaniste ne soit plus réservée qu’à une petite minorité de spécialistes professionnels et ne constitue plus l’armature de l’éducation de la majorité, ni même celle des élites.

Dans la seconde moitié du 19e siècle, l’historien Jacob Burckhardt redéfinit l’humanisme (qu’il conçoit comme un fruit de la Renaissance européenne) comme une orientation philosophique et pratique vers l’autonomie de l’esprit humain s’émancipant du clan familial, de la classe sociale et de l’autorité de l’église qui étouffent la liberté individuelle. Les idées de Burckhardt auront une grande influence sur Nietzsche, lui-même philologue de profession et fort sensible au caractère historique des manières de vivre et de penser.

Résultant d’une évolution qui avait commencé dès la Renaissance, entre les 19e et 20e siècles, l’humanisme se centre sur la valeur et la dignité de l’Homme, adopte une éthique universaliste, se situe dans une perspective générale d’émancipation ou de gain d’autonomie ; enfin, il accorde une importance privilégiée aux études littéraires et artistiques pour le développement de la personne. Cette approche a fait l’objet de nombreuses critiques en provenance des théologiens chrétiens, des penseurs socialistes et des contempteurs de la morale ordinaire. Mais je ne m’attarderai pas ici à ces nombreuses contestations, qui sont devenues particulièrement vives à partir de la fin de 1ère guerre mondiale, perçue comme un effondrement de l’humanisme européen.

Si l’humanisme naît avec l’alphabet dans un milieu lettré et renaît avec l’imprimerie, que devient-il lorsque le numérique s’affirme comme la technologie symbolique dominante? Déterminons les principaux caractères de la métamorphose du texte au 21e siècle. Toutes les expressions symboliques sont rassemblées et interconnectées dans une mémoire numérique universelle omniprésente. La manipulation des symboles (et non seulement leur reproduction et leur transmission) est automatisée. Les textes peuvent être générés, traduits, et résumés automatiquement. Les masses de données numériques entrainent l’intelligence artificielle générative (IA), qui devient la voix probabiliste de la mémoire collective. Paradoxalement l’IA représente d’autant mieux la tradition qu’on l’interroge sur des textes du canon humaniste souvent édités, traduits et commentés tels que la Bible, les pères de l’Église, Homère, Platon, Aristote, les grandes œuvres littéraires et philosophiques occidentales, sans oublier les œuvres capitales et textes sacrés des autres traditions. En revanche, plus on s’approche d’œuvres et de thèmes contemporains et plus l’IA exprime l’opinion : la rumeur et les échos de la caverne de Platon, désormais numérique.

L’humanisme n’a jamais été autant critiqué qu’en ce 21e siècle. Le posthumanisme dénonce nos illusions sur la permanence d’une humanité désormais obsolète, hybridée ou dépassée par les machines et les biotechnologies. L’écologisme et l’antispécisme critiquent notre anthropocentrisme : ayant pris conscience des ravages de l’anthropocène, du changement climatique et de l’effondrement de la diversité biologique il nous faudrait renoncer à l’humanisme qui voit en l’Homme le « maître et possesseur de la nature ». Enfin, pour les tenants d’une certaine sociologie critique (marxisme, anti-impérialisme, féminisme intersectionnel), l’humanisme universaliste masquerait la domination d’une partie de l’humanité sur une autre.

Mais il ne faut pas confondre l’humanisme avec son invocation hypocrite ou sa caricature. l’humanité n’est pas obsolète. Les derniers développements de la technique confirment, s’il en était besoin, la singularité à la fois terrible et merveilleuse de notre espèce. C’est précisément parce que nous avons – en tant qu’êtres humains – une capacité symbolique qui nous ouvre à la conscience morale que nous devons prendre la responsabilité de la biosphère et défendre la dignité intrinsèque de tous les êtres humains.

Dans le prolongment de son évolution historique et des contre-courants qui s’y sont opposés tout en l’enrichissant, je voudrais maintenant articuler ma propre version de l’humanisme au 21e siècle. Je vais énoncer quelques principes fort simples qui, à mon sens, devraient guider la communauté des “humanités” désormais numériques.

À la racine se trouve un certain rapport à la parole et à la tradition. Un humaniste reconnait le poids existentiel de la parole et considère le langage comme le milieu éminent du sens. À une époque de démystification et de critique tous azimuts, il faut réapprendre à cultiver une révérence pour les textes et les symboles. Plutôt que de rejeter aveuglément les traditions, dans une logique de “table rase”, nous devrions travailler à les recueillir, non pour les réifier ou les maintenir inchangées mais pour les faire vivre au présent, les réinterpréter et les transmettre.

Les trois pratiques humanistes par excellence – lire, écrire, penser – se conditionnent mutuellement.

La lecture est essentiellement un rapport à la bibliothèque, que son support soit l’encre et le papier ou l’écran et l’électron. En tant qu’humaniste, ma vocation est d’accueillir, autant que possible, la source de sens virtuellement infinie de la bibliothèque. En lisant, je dé-couvre sous un texte une parole vivante qui s’adresse à moi. Afin de recueillir le sens du texte, je ne m’enferme pas dans une seule méthodologie mais je mobilise la philologie, les analyses formelles, l’histoire, les influences. Chaque texte peut être interprété sur le fond d’une multiplicité de corpus (celui de l’auteur, de l’époque, du genre, du sujet, etc.) si bien que la figure unique du texte donne lieu à plusieurs formes selon les perspectives. L’IA ne doit jamais se substituer à la lecture. Rien ne remplace la relation directe avec un texte. En revanche, l’IA peut augmenter la lecture par des explications, des commentaires, des références, voire l’évocation d’une littérature secondaire. Ne plus lire à la première personne, c’est cesser d’apprendre et renoncer à comprendre.

Passons maintenant à l’écriture. Écrire, c’est s’incrire dans le temps, entretenir un rapport au passé, au présent et à l’avenir. Dans la relation au passé, l’écriture se confronte aux canons et aux corpus. L’auteur soliste ne chante jamais qu’accompagné par le chœur fantomatique des générations disparues. Dans le présent vivant, je participe à un dialogue de lettrés où se croisent mémoire collective (peut-être portée par l’IA) et mémoire personnelle. J’articule une parole vivante qui s’adresse à l’autre pour faire jaillir un sens contemporain. Dans mon rapport à l’avenir, j’ajoute à une mémoire collective qui contribue à entraîner les IA et qui touchera peut-être l’esprit des générations futures. Quelle responsabilité! Sauf pour les tâches administratives, l’IA ne doit jamais se substituer à l’écriture. Mais elle peut la préparer en rédigeant des fiches ou en organisant des notes, comme le ferait un assistant. Elle peut aussi parfaire un texte en travaillant à son édition ou à sa bibliographie. Ne plus écrire à la première personne, c’est cesser de penser.

Et justement, qu’est-ce que penser en humaniste ? Il s’agit d’abord d’enrichir notre mémoire personnelle, qui est le fondement de la pensée vivante. Ce n’est pas parce que “tout” se trouve sur internet que nous devons cesser de cultiver notre mémoire individuelle. Et cela précisément parce que la pensée est un dialogue des mémoires. Elle se tisse en effet dans une dialectique entre la mémoire collective représentée aujourd’hui par l’IA, la mémoire personnelle de chacun d’entre nous et le dialogue ouvert – contradictoire et complice – avec nos pairs et contemporains. Plus riche est notre mémoire personnelle et mieux nous pouvons exploiter les ressources de l’IA, poser les bonnes questions, repérer les hallucinations, éclairer les angles morts. En aucun cas l’IA ne peut se substituer à l’ignorance. Mais elle peut servir de conseillère et d’entraîneuse pour nos apprentissages. Ignorants, nous serons manipulés et induits en erreur par les modèles de langue. Par contraste, plus nous sommes savants et mieux nous pouvons maîtriser l’IA qui, quoiqu’elle soit aujourd’hui l’environnement de la pensée ou le nouveau sensorium, n’est jamais qu’un outil.

Entretien avec Prof. Dr. Pierre Lévy

Voir la publication en portugais et en anglais ici: https://www.pucpress.com.br/wp-content/uploads/2025/05/CADERNOS_DO_CONTEMPORANEO_0000_P.pdf

Vassily Kandinsky, 1913

Q1- Face à l’hyper-connectivité croissante chez les jeunes, de nombreux experts parlent de solitude et de ce qu’ils appellent “l’âge des passions tristes”. Comment voyez-vous cette dichotomie entre proximité et distance que la technologie provoque dans les relations humaines?

R1 – L’hyper-connectivité ne concerne pas seulement les jeunes, elle est partout. Un des facteurs principaux de l’évolution culturelle réside dans le dispositif matériel de production et de reproduction des symboles, mais aussi dans les systèmes logiciels d’écriture et de codage de l’information. Notre intelligence collective prolonge celle des espèces sociales qui nous ont précédées, et particulièrement celle des grands singes. Mais l’usage du langage – et d’autres systèmes symboliques – tout comme la force de nos moyens techniques nous a fait passer du statut d’animal social à celui d’animal politique. Proprement humaine, la Polis émerge de la symbiose entre des écosystèmes d’idées et les populations de primates parlants qui les entretiennent, s’en nourrissent et s’y réfléchissent. L’évolution des idées et celles des peuplements de Sapiens se déterminent mutuellement. Or le facteur principal de l’évolution des idées réside dans le dispositif matériel de reproduction des symboles. Au cours de l’histoire, les symboles (avec les idées qu’ils portaient) ont été successivement pérennisés par l’écriture, allégés par l’alphabet et le papier, multipliés par l’imprimerie et les médias électriques. Les symboles sont aujourd’hui numérisés et calculés, c’est-à-dire qu’une foule de robots logiciels – les algorithmes – les enregistrent, les comptent, les traduisent et en extraient des patterns. Les objets symboliques (textes, images fixes ou animées, voix, musiques, programmes, etc.) sont non seulement enregistrés, reproduits et transmis automatiquement, ils sont aussi générés et transformés de manière industrielle. En somme, l’évolution culturelle nous a menés au point où les écosystèmes d’idées se manifestent sous la forme de données animées par des algorithmes dans un espace virtuel ubiquitaire. Et c’est dans cet espace que se nouent, se maintiennent et se dénouent désormais les liens sociaux. Avant de critiquer ou de déplorer, il faut d’abord reconnaître les faits. Les amitiés des jeunes gens ne peuvent plus se passer des médias sociaux ; les couples se rencontrent sur internet, par exemple sur des applications comme Tinder (voir la Figure 1) ; les familles restent connectées par Facebook ou d’autres applications comme WhatsApp ; les espaces de travail ont basculé dans l’électronique avec Zoom et Teams, particulièrement depuis la pandémie de COVID ; la diplomatie se fait de plus en plus sur X (ex Twitter), etc. On ne reviendra pas en arrière. D’un autre côté, on ne se déplace pas moins de manière physique : en témoignent les embouteillages monstrueux de Sao Paulo et Rio de Janeiro. Dans le même ordre d’idées, la tendance sur les dix dernières années – époque de croissance exponentielle des connexions Internet – montre aussi une augmentation du nombre de passagers aériens, qui continue une tendance séculaire, et cela malgré une baisse importante durant la pandémie de COVID-19.

Je me sentais bien seul lorsque, jeune étudiant, je suis arrivé à Paris du sud de la France, pour faire mes études universitaires. C’était en 1975 et il n’y avait pas d’internet. Les seniors qui vivent seuls et que leurs enfants ne visitent pas doivent-ils blâmer Internet? Le problème de la solitude et de la désagrégation des liens sociaux est bien réel. Mais c’est une tendance déjà ancienne, qui tient à l’urbanisation, aux transformations de la famille et à bien d’autres facteurs. J’invite vos lecteurs à consulter les nombreux travaux sur la question du “capital social” (la quantité et à la qualité des relations humaines). L’internet n’est qu’un des nombreux facteurs à considérer sur cette question.

Figure 1

Q2- Dans vos livres “Collective Intelligence: For an anthropology of cyberspace” (1994) et “Cyberculture: The Culture of the Digital Society” (1997), vous soutenez qu’Internet et les technologies numériques développent l’intelligence collective, permettant de nouvelles formes de collaboration et de partage des connaissances. Cependant, on craint de plus en plus que l’utilisation excessive des médias sociaux et des technologies numériques soit associée à une distraction et à un retard d’apprentissage chez les jeunes. Comment voyez-vous cette apparente contradiction entre le potentiel des technologies à renforcer l’intelligence collective et les effets négatifs qu’elles peuvent avoir sur le développement cognitif et éducatif des jeunes?

R2- Je n’ai jamais soutenu qu’Internet et les technologies numériques, par eux-mêmes et comme si les techniques étaient des sujets autonomes, développent l’intelligence collective. J’ai soutenu que le meilleur usage que nous pouvions faire d’internet et des technologies numériques était de développer l’intelligence collective humaine, ce qui est bien différent. Et c’est d’ailleurs toujours ce que je pense. L’idée d’un « espace du savoir » qui pourrait se déployer au-dessus de l’espace marchand est un idéal régulateur pour l’action, non une prédiction de type factuel. Lorsque j’ai rédigé L’Intelligence Collective – de 1992 à 1993 – moins de 1% de l’humanité était branchée sur l’Internet et le Web n’existait pas. Vous ne trouverez nulle part le mot « web » dans l’ouvrage. Or nous avons aujourd’hui – en 2024 – largement dépassé les deux tiers de la population mondiale connectée à l’Internet. Le contexte est donc complètement différent mais le changement de civilisation que je prévoyais il y a 30 ans semble évident aujourd’hui, bien qu’il faille attendre normalement plusieurs générations pour confirmer ce type de mutation. A mon sens, nous ne sommes qu’au commencement de la révolution numérique.

Quant à l’augmentation de l’intelligence collective, de nombreux pas ont été franchis pour mettre les connaissances à la portée de tous. Wikipédia est l’exemple classique d’une entreprise qui fonctionne en intelligence collective avec des millions de contributeurs bénévoles de tous les pays et des groupes de discussion entre experts pour chaque article. Il y a près de sept millions d’articles en anglais, deux millions et demi d’articles en français et plus d’un million d’articles en portugais. Wikipédia est consulté par plusieurs dizaines de millions de personnes par jour et plusieurs milliards par an! Le logiciel libre – maintenant largement adopté et diffusé, y compris par les grandes entreprises du Web – est un autre grand domaine où l’intelligence collective est au poste de commande. Parmi les plus utilisés des logiciels libres citons le système d’exploitation Linux, les navigateurs Mozilla et Chromium, la suite Open Office, le serveur http Apache (qui est le plus utilisé sur Internet), le système de contrôle des versions GIT, la messagerie Signal, et bien d’autres qu’il serait trop long de citer. J’ajoute que les bibliothèques et les musées numérisés, comme les articles scientifiques en accès libre et les sites de type ArXiv.org, sont monnaie courante, ce qui transforme les pratiques de recherche et de communication scientifique. Tout le monde peut aujourd’hui publier des textes sur son blog, des vidéos et des podcasts sur YouTube ou d’autres sites, ce qui n’était pas le cas il y a trente ans. Les médias sociaux permettent d’échanger des nouvelles et des idées très rapidement, comme on le voit par exemple sur LinkedIn ou X (ex Twitter). Internet a donc réellement permis le développement de nouvelles formes d’expression, de collaboration et de partage des connaissances. Beaucoup reste à faire. Nous ne sommes qu’au tout début de la mutation anthropologique en cours.

Bien entendu, il nous faut prendre en compte les phénomènes d’addiction aux jeux vidéos, aux médias sociaux, à la pornographie en ligne, etc. Mais depuis plus de trente ans, la majorité des journalistes, des hommes politiques, des enseignants et de tous ceux qui font l’opinion ne cessent de dénoncer les dangers de l’informatique, puis de l’Internet et maintenant de l’intelligence artificielle. Je ne ferais rien de très utile si j’ajoutais mes lamentations aux leurs. J’essaye donc de faire prendre conscience d’une mutation de civilisation de grande ampleur qu’on n’arrêtera pas et d’indiquer les meilleurs moyens de diriger cette grande transformation vers les finalités les plus positives pour le développement humain. Ceci dit, il est clair que les phénomènes d’addiction trouvent partiellement leur source dans notre dépendance à l’architecture sociotechnique toxique des grandes compagnies du Web, qui utilise la stimulation dopaminergique et les renforcements narcissiques de la communication numérique pour nous faire produire toujours plus de données et vendre plus de publicité. Malheureusement la santé mentale des populations adolescentes est peut-être une des victimes collatérales des stratégies commerciales de ces grandes entreprises oligopolistiques. Comment s’opposer à la puissance de leurs centres de calcul, à leur efficacité logicielle et à la simplicité de leurs interfaces? Il est plus facile de poser la question que d’y répondre. En plus de la biopolitique évoquée par Michel Foucault, il faut maintenant considérer une psychopolitique à base de neuromarketing, de données personnelles et de gamification du contrôle. Les enseignants doivent avertir les étudiants de ces dangers et les former à la pensée critique.

Q3- Avec le phénomène des “bulles connectives”, où les réseaux sociaux ont tendance à renforcer des croyances et des idées préexistantes, limitant les contacts avec des perspectives différentes, comment voyez-vous l’évolution des liens sociaux à mesure qu’Internet et les plateformes numériques continuent de se développer? Ce type de segmentation pourrait-il affaiblir l’intelligence collective que vous prônez, ou y a-t-il encore de la place pour des connexions plus larges et plus collaboratives à l’avenir?

R3 – Il est clair que si l’on se contente de « liker » instinctivement ce que l’on voit défiler et de réagir émotionnellement aux images et aux messages les plus simplistes, le bénéfice cognitif ne sera pas très grand. Je ne me pose pas en modèle à suivre absolument, je voudrais seulement donner un exemple de ce qu’il est possible de faire si l’on un peu d’imagination et que l’on est prêt à remettre en cause l’inertie des institutions. Lorsque j’étais professeur en communication numérique à l’Université d’Ottawa, je forçais mes étudiants à s’inscrire sur Twitter, à choisir une demi-douzaine de sujets intéressants pour eux et à dresser des listes de comptes à suivre pour chaque sujet. Quelque soit le thème – politique, science, mode, art, sports, etc. – ils devaient construire des listes équilibrées comprenant des experts ou des partisans d’avis opposés afin d’élargir leur sphère cognitive au lieu de la restreindre. Sur les médias sociaux les plus courants comme Facebook et LinkedIn, il est possible de participer à un grand nombre de communautés spécialisées dans des domaines culturels (histoire, philosophie, arts) ou professionnels (affaires, technologie, etc.) afin de se tenir au courant et de discuter avec des experts. Les groupes de discussion locaux par villages ou quartiers sont aussi très utiles. Tout est question de méthode et de pratique. Il faut se détacher du modèle des médias de masse (journaux papier, radio, télévision) dans lequel des récepteurs passifs consomment une programmation faite par d’autres. C’est à chacun de se bricoler sa propre programmation et de se construire ses réseaux personnels d’apprentissage.

Avant l’imprimerie, on ne parlait qu’avec les gens de sa paroisse. Dans les années soixante du XXe siècle on n’avait le choix qu’entre deux ou trois chaines de télévision et deux ou trois journaux. Aujourd’hui nous avons accès à une énorme diversité de sources en provenance de tous les pays et de tous les secteurs de la société. Les enseignants doivent alphabétiser les étudiants, leur apprendre les langues étrangères, leur donner une bonne culture générale et les guider dans ce nouvel univers de communication.

Q4- Actuellement, il y a un débat croissant sur les effets négatifs de la technologie sur la santé mentale des jeunes, en mettant l’accent sur des problèmes tels que l’anxiété, la dépression et l’isolement social. Considérant le rôle central que jouent les technologies numériques dans notre société, comment comprenez-vous cette relation entre l’usage intensif des technologies et l’augmentation des problèmes de santé mentale chez les jeunes? Existe-t-il un moyen d’équilibrer les avantages de la technologie avec la nécessité de préserver le bien-être mental?

R4 – Le problème de la santé mentale des jeunes est bien sûr tout à fait réel, mais il serait réducteur de l’attribuer uniquement aux médias sociaux. Néanmoins je vais essayer d’énumérer quelques problèmes psychologiques qui naissent de l’usage des Technologies numériques.

Il y a d’abord la transformation de l’autoréférence subjective, qui risque de mener à des problèmes de type schizophrénique. Notre champ d’expérience est médiatisé par le support numérique : la boucle d’autoréférence est plus large que jamais. Nous interagissons avec des personnes, des robots, des images, des musiques par le biais de plusieurs interfaces multimédias : écran, écouteurs, manettes… Notre expérience subjective est contrôlée par les algorithmes de multiples applications qui déterminent en boucle (si nous n’avons pas appris à les maîtriser) notre consommation de données et nos actions en retour. Notre mémoire est dispersée dans de nombreux fichiers, bases de données, en local et dans le cloud… Lorsqu’une grande partie de nous-mêmes est ainsi collectivisée et externalisée, le problème des limites et de la détermination de l’identité devient prépondérant. À qui appartiennent les données me concernant, qui les produit ?

Le problème du narcissisme est particulièrement évident sur Instagram et les applications même genre. Notre ego est nourri par l’image que les autres nous renvoient dans le médium algorithmique. L’obsession de l’image atteint des proportions inquiétantes. Combien d’abonnés, combien de likes, combien d’impressions? Pour ceux qui ont sombré dans ce gouffre, la valeur de l’être n’est plus que dans le regard de l’autre. Avant d’être un problème de santé mentale il s’agit d’un problème de sagesse élémentaire.

A l’opposé du narcissisme, nous avons une tendance vers l’autisme. Ici le moi est enfermé dans sa vie intérieure, mais alimenté par des sources d’information en ligne. Le code ou certains aspects de la culture populaire deviennent obsessionnels. C’est le domaine des geeks, des Otakus et des joueurs compulsifs. Il est évidemment malsain de se passer de toute vie sociale en chair et en os.

Il existe un problème de santé mentale si les affects sont constamment euphoriques, ou constamment dysphoriques, ou si un objet exclusif devient addictif. En effet, Internet peut nous rendre dépendants à certains objets (actualités, séries, jeux, pornographie) ou à certaines émotions, qu’elles soient positives (contenu « feel-good » de type chats mignons, danse, humour, etc.) ou négatives (actualités catastrophiques, « doom scrolling ») de manière déséquilibrée. On peut aussi se demander dans quelle mesure il est bon que le langage corporel soit entièrement remplacé par des emojis, des mèmes, des images, des avatars, etc.

L’addiction est créée par l’excitation (dopamine) et la satisfaction (endorphine) que nous voulons reproduire sans arrêt. Or, comme je l’ai dit plus haut, les modèles d’affaire des grandes entreprise du web qui sont axés sur l’engagement (sécrétion de dopamine-endorphine) conduisent presque inévitablement à la dépendance si les utilisateurs ne font pas attention. L’intensité d’engagement élevée pendant de trop longs moments mène inévitablement à une dépression.

Le contrôle des impulsions (agressivité, par exemple) est plus difficile dans les médias sociaux que dans la vie réelle parce que nos interlocuteurs ne se trouvent pas en face de nous. La « gestion des comportements toxiques » est d’ailleurs un problème majeur dans les jeux en ligne et les médias sociaux.

En somme, il faut être vigilant, prévenir les jeunes utilisateurs des dangers encourus et ne pas commettre d’excès.

Q5 – Certains prédisent que les générations futures pourraient ne plus jamais fréquenter l’école. Comment voyez-vous l’avenir de l’éducation dans un monde de plus en plus hyperconnecté et dominé par la technologie?

R5 – Je ne crois pas que l’école va disparaître. Mais elle doit se transformer. Il faut prendre les étudiants où ils sont et de préférence utiliser les produits grands public auxquels ils sont habitués pour en faire quelque chose d’utile sur le plan de l’apprentissage. Les élèves sont des « digital natives » mais cela ne veut pas dire qu’ils ont une véritable maîtrise des outils numériques. Il faut non seulement développer la littéracie numérique mais la littéracie tout court, qui en est indissociable. Je suis un grand partisan de la lecture des classiques et de la culture générale, qui est indispensable pour former l’esprit critique.

Pour revenir à mes propres méthodes pédagogiques, dans les cours que je donnais à l’Université d’Ottawa, je demandais à mes étudiants de participer à un groupe Facebook fermé, de s’enregistrer sur Twitter, d’ouvrir un blog s’ils n’en n’avaient pas déjà un et d’utiliser une plateforme de curation collaborative de données.

L’usage de plateformes de curation de contenu me servait à enseigner aux étudiants comment choisir des catégories ou « tags » pour classer les informations utiles dans une mémoire à long terme, afin de les retrouver facilement par la suite. Cette compétence leur sera fort utile dans le reste de leur carrière.

Les blogs étaient utilisés comme supports de « devoir final » pour les cours gradués (c’est-à-dire avant le master), et comme carnets de recherche pour les étudiants en maîtrise ou en doctorat : notes sur les lectures, formulation d’hypothèses, accumulation de données, première version d’articles scientifiques ou de chapitres des mémoires ou thèses, etc. Le carnet de recherche public facilite la relation avec le superviseur et permet de réorienter à temps les directions de recherche hasardeuses, d’entrer en contact avec les équipes travaillant sur les mêmes sujets, etc.

Le groupe Facebook était utilisé pour partager le Syllabus ou « plan de cours », l’agenda de la classe, les lectures obligatoires, les discussions internes au groupe – par exemple celles qui concernent l’évaluation – ainsi que les adresses électroniques des étudiants (Twitter, blog, plateforme de curation sociale, etc.). Toutes ces informations étaient en ligne et accessibles d’un seul clic, y compris les lectures obligatoires numérisées et gratuites. Les étudiants pouvaient participer à l’écriture de mini-wikis à l’intérieur du groupe Facebook sur des sujets de leur choix, ils étaient invités à suggérer des lectures intéressantes reliées au sujet du cours en ajoutant des liens commentés. J’utilisais Facebook parce que la quasi-totalité des étudiants y étaient déjà abonnés et que la fonctionnalité de groupe de cette plateforme est bien rodée. Mais j’aurais pu utiliser n’importe quel autre support de gestion de groupe collaboratif, comme Slack ou les groupes de LinkedIn.

Sur Twitter (maintenant X), la conversation propre à chaque classe était identifiée par un hashtag. Au début, j’utilisais le médium à l’oiseau bleu de manière ponctuelle. Par exemple, à la fin de chaque classe je demandais aux étudiants de noter l’idée la plus intéressante qu’ils avaient retenu du cours et je faisais défiler leurs tweets en temps réel sur l’écran de la classe. Puis, au bout de quelques semaines, je les invitais à relire leurs traces collectives sur Twitter pour rassembler et résumer ce qu’ils avaient appris et poser des questions – toujours sur Twitter – si quelque chose n’était pas clair, questions auxquelles je répondais par le même canal.

Au bout de quelques années d’utilisation de Twitter en classe, je me suis enhardi et j’ai demandé aux étudiants de prendre directement leurs notes sur ce medium social pendant le cours de manière à obtenir un cahier de notes collectif. Pouvoir regarder comment les autres prennent des notes (que ce soit sur le cours ou sur des textes à lire) permet aux étudiants de comparer leurs compréhensions et de préciser ainsi certaines notions. Ils découvrent ce que les autres ont relevé et qui n’est pas forcément ce qui les a stimulés eux-mêmes… Quand je sentais que l’attention se relâchait un peu, je leur demandais de s’arrêter, de réfléchir à ce qu’ils venaient d’entendre et de noter leurs idées ou leurs questions, même si leurs remarques n’étaient pas directement reliées au sujet du cours. Twitter leur permettait de dialoguer librement entre eux sur les sujets étudiés sans déranger le fonctionnement de la classe. Je consacrais toujours la fin du cours à une période de questions et de réponses qui s’appuyais sur un visionnement collectif du fil Twitter. Cette méthode est particulièrement pertinente dans les groupes trop grands (parfois plus de deux cents personnes) pour permettre à tous les étudiants de s’exprimer oralement. Je pouvais ainsi répondre tranquillement aux questions après la classe en sachant que mes explications restaient inscrites dans le fil du groupe. La conversation pédagogique se poursuit entre les cours. Bien entendu, tout cela n’était possible que parce que l’évaluation (la notation des étudiants) était basée sur leur participation en ligne.

En utilisant Facebook et Twitter en classe, les étudiants n’apprenaient pas seulement la matière du cours mais aussi une façon « cultivée » de se servir des médias sociaux. Documenter ses petits déjeuners ou la dernière fête bien arrosée, disséminer des vidéos de chats et des images comiques, échanger des insultes entre ennemis politiques, s’extasier sur des vedettes du show-business ou faire de la publicité pour telle ou telle entreprise sont certainement des usages légitimes des médias sociaux. Mais on peut également entretenir des dialogues constructifs dans l’étude d’un sujet commun. En somme, je crois que l’éducation doit progresser en direction de l’apprentissage collaborative en utilisant les outils numériques.

Q6 – Quelles sont, selon vous, les principales opportunités qu’Internet et les nouveaux outils d’IA peuvent apporter au domaine de l’éducation? Compte tenu de l’avancée accélérée des technologies numériques et de l’intelligence artificielle, comment voyez-vous évoluer le rôle de l’enseignant dans les années à venir?

R6 – Concernant l’intelligence artificielle (par exemple ChatGPT, MetaAI, Grok ou Gemini, qui sont tous gratuits et assez bons), elle peut être fort utile comme mentor des étudiants ou comme encyclopédie de premier recours, pour donner des réponses et des orientations très rapidement. Les étudiants utilisent déjà ces outils, il ne faut donc pas interdire leur usage mais, une fois encore, le cultiver, le faire passer à un niveau supérieur. Comme l’IA générative est de nature statistique et probabiliste, elle fait régulièrement des erreurs. Il faut donc toujours vérifier les informations sur de véritables encyclopédies, des moteurs de recherche, des sites spécialisés ou même… dans une bibliothèque! J’ajoute que plus on est cultivé et mieux on connaît un sujet et plus l’usage des IA génératives est fructueux, car on est alors capable de poser de bonnes questions et de demander des informations complémentaires lorsque l’on sent que quelque chose manque. L’IA n’est pas un substitut à l’ignorance, elle donne au contraire une prime à ceux qui ont déjà de bonnes connaissances.

Utiliser les IA génératives pour rédiger à notre place ou faire des résumés de texte au lieu de lire des livres n’est pas une bonne idée, au moins dans un usage pédagogique. Sauf bien sûr si cette pratique est encadrée par l’enseignant afin de stimuler l’esprit critique et le goût du beau style. Au moins en 2024, les textes de l’IA sont généralement redondants, banals et facilement reconnaissables. De plus, leurs résumés de documents ne parviennent pas à saisir ce qu’il y a de plus original dans un texte, puisqu’ils n’ont pas été entraînés sur des idées rares mais au contraire sur l’avis général que l’on retrouve partout. On apprend à penser en lisant et en écrivant en personne : donc les IA sont de bons auxiliaires mais en aucun cas de purs et simples remplacements de l’activité intellectuelle humaine.

Q-7- On craint de plus en plus que l’IA puisse supprimer de nombreux emplois à l’avenir. Comment pensez-vous que cela affectera le marché du travail et quelles pourraient être les solutions possibles?

Q-7 Du fait même de son nom, l’intelligence artificielle évoque naturellement l’idée d’une intelligence autonome de la machine, qui se pose en face de l’intelligence humaine, pour la simuler ou la dépasser. Mais si nous observons les usages réels des dispositifs d’intelligence artificielle, force est de constater que, la plupart du temps, ils augmentent, assistent ou accompagnent les opérations de l’intelligence humaine. Déjà, à l’époque des systèmes experts – lors des années 80 et 90 du XXe siècle – j’observais que les savoirs critiques de spécialistes au sein d’une organisation, une fois codifiés sous forme de règles animant des bases de connaissances, pouvaient être mis à la portée des membres qui en avaient le plus besoin, répondant précisément aux situations en cours et toujours disponibles. Plutôt que d’intelligences artificielles prétendument autonomes, il s’agissait de médias de diffusion des savoir-faire pratiques, qui avaient pour principal effet d’augmenter l’intelligence collective des communautés utilisatrices.

Dans la phase actuelle du développement de l’IA, le rôle de l’expert est joué par les foules qui produisent les données et le rôle de l’ingénieur cogniticien qui codifie le savoir est joué par les réseaux neuronaux. Au lieu de demander à des linguistes comment traduire ou à des auteurs reconnus comment produire un texte, les modèles statistiques interrogent à leur insu les multitudes de rédacteurs anonymisés du web et ils en extraient automatiquement des patterns de patterns qu’aucun programmeur humain n’aurait pu tirer au clair. Conditionnés par leur entraînement, les algorithmes peuvent alors reconnaître et reproduire des données correspondant aux formes apprises. Mais parce qu’ils ont abstrait des structures plutôt que de tout enregistrer, les voici capables de conceptualiser correctement des formes (d’image, de textes, de musique, de code…) qu’ils n’ont jamais rencontrées et de produire une infinité d’arrangements symboliques nouveaux. C’est pourquoi l’on parle d’intelligence artificielle générative. Bien loin d’être autonome, cette IA prolonge et amplifie l’intelligence collective. Des millions d’utilisateurs contribuent au perfectionnement des modèles en leur posant des questions et en commentant les réponses qu’ils en reçoivent. On peut prendre l’exemple de Midjourney (qui génère des images), dont les utilisateurs s’échangent leurs consignes (prompts) et améliorent constamment leurs compétences. Les serveurs Discord de Midjourney sont aujourd’hui les plus populeux de la planète, avec plus d’un million d’utilisateurs. Une nouvelle intelligence collective stigmergique émerge de la fusion des médias sociaux, de l’IA et des communautés de créateurs. Derrière « la machine » il faut entrevoir l’intelligence collective qu’elle réifie et mobilise.

L’IA nous offre un nouvel accès à la mémoire numérique mondiale. C’est aussi une manière de mobiliser cette mémoire pour automatiser des opérations symboliques de plus en plus complexes, impliquant l’interaction d’univers sémantiques et de systèmes de comptabilité hétérogènes.

Je ne crois pas une seconde à la fin du travail. L’automatisation fait disparaître certains métiers et en fait naître de nouveaux. Il n’y a plus de maréchaux ferrants, mais les garagistes les ont remplacés. Les porteurs d’eau ont fait place aux plombiers. La complexification de la société augmente le nombre des problèmes à résoudre. Les machines « intelligentes » vont surtout augmenter la productivité du travail cognitif en automatisant ce qui peut l’être. Il y aura toujours besoin de gens intelligents, créatifs et compassionnés mais ils devront apprendre à travailler avec les nouveaux outils.

Q-8 Certains auteurs évoquent l’inversion de “l’effet Flynn”, suggérant que les générations futures auront un niveau cognitif inférieur à celui de leurs parents. Comment voyez-vous cet enjeu dans le contexte des technologies émergentes? Pensez-vous que l’usage intensif des technologies numériques puisse contribuer à cette tendance, ou offrent-elles de nouvelles façons d’élargir nos capacités cognitives?

R-8 La baisse du niveau cognitif (et moral), est déplorée depuis des siècles par chaque génération, alors que l’effet Flynn montre justement l’inverse. Il est normal que l’on assiste à une stabilisation des scores de Quotient Intellectuel (QI) : l’espoir d’une augmentation constante n’est jamais très réaliste et il serait normal d’atteindre une limite ou un palier, comme dans n’importe quel autre phénomène historique ou même biologique. Mais admettons que les jeunes gens d’aujourd’hui aient de moins bons scores de QI que les générations qui les précèdent immédiatement. Il faut d’abord se demander ce que mesurent ces tests : principalement une intelligence scolaire. Ils ne prennent en compte ni l’intelligence émotionnelle, ni l’intelligence relationnelle, ni la sensibilité esthétique, ni les habiletés physiques ou techniques, ni même le bon sens pratique. Donc on ne mesure là quelque chose de limité. D’autre part, si l’on reste sur l’adaptation au fonctionnement scolaire que mesurent les tests de QI, pourquoi accuser d’abord les technologies? Peut-être y-t-il démission des familles face à la tâche éducative (notamment parce que les familles se défont), ou bien défaillance des écoles et des universités qui deviennent de plus en plus laxistes (parce que les étudiants sont devenus des clients à satisfaire à tout prix) ? Quand j’étais étudiant, le « A » aux examens n’était pas encore un droit… Il l’est quasiment devenu aujourd’hui.

Finalement, et il faut le répéter sans cesse, « l’usage des technologies numériques » n’a pas grand sens. Il y a des usages abrutissants, qui glissent sur la pente de la paresse intellectuelle, et des usages qui ouvrent l’esprit, mais qui demandent une prise de responsabilité personnelle, un effort d’autonomie et – oui – du travail. C’est le rôle des éducateurs de favoriser les usages positifs.

Q-9 Existe-t-il des frontières claires entre le monde réel et le monde virtuel? Qu’est-ce qui pourrait nous motiver à continuer dans le monde réel alors que le monde virtuel offre des possibilités d’interaction et de réussite quasi illimitées?

R-9 Il n’y a jamais eu de frontière claire entre le monde virtuel et le monde actuel. Où se trouve la présence humaine? Dès que nous assumons une situation dans l’existence, nous nous retrouvons immanquablement entre deux. Entre le virtuel et l’actuel, entre l’âme et le corps, entre le ciel et la terre, entre le yin et le yang. Notre existence s’étire dans un intervalle et la relation fondamentale entre le virtuel et l’actuel est une transformation réciproque. C’est un morphisme qui projette le sensible sur l’intelligible et inversement.

Une situation pratique comprend un contexte actuel : notre posture, notre position, ce qui se trouve autour de nous en ce moment précis, de nos interlocuteurs à l’environnement matériel. Elle implique aussi un contexte virtuel : le passé dans notre mémoire, nos plans et nos attentes, nos idées de ce qui nous arrive. C’est ainsi que nous discernons les lignes de force et les tensions de la situation, son univers de problèmes, ses obstacles et ses échappées. Les configurations corporelles n’ont de sens que par le paysage virtuel qui les entoure.

Nous ne vivons donc pas seulement dans la réalité physique dite « matérielle », mais aussi dans le monde des significations. C’est ce qui fait de nous des humains. Maintenant, si l’on veut parler des médias dits « numériques » , en plus de leur aspect logiciel (les programmes et les données) ils sont évidemment aussi matériels : les centres de données, les câbles, les modems, les ordinateurs, les smartphones, les écrans, les écouteurs sont tout ce qu’il y a de plus matériels et actuels. Par ailleurs, je ne sais pas très bien à quoi vous faites allusion lorsque vous dites que « le monde virtuel offre des possibilités d’interaction et de réussite quasi illimitées ». Les possibilités d’interactions offertes par le médium numérique sont certes plus diverses que celles qui étaient fournies par l’imprimerie ou la télévision, mais elles ne sont en aucun cas « illimitées » puisque le temps disponible n’est pas extensible à l’infini. Ces possibilités dépendent aussi fortement des capacités et de l’environnement culturel et social des utilisateurs. La toute puissance est toujours une illusion. Par ailleurs, si vous voulez dire que la fiction et le jeu (qu’ils soient ou non à support électronique) offrent des possibilités illimitées, oui, c’est une idée qui a sa part de vérité. Maintenant, si vous sous-entendez qu’il est malsain de passer la plus grande partie de son temps à jouer à des jeux vidéo en ligne au détriment de sa santé, de ses études, de son environnement familial ou de son travail, on ne peut qu’être d’accord avec vous. Mais ce sont ici l’excès et l’addiction qui sont en question, avec leurs causes multiples, et pas « le monde virtuel ».

Q-10 Avec les progrès des technologies numériques, le concept d’immortalité numérique émerge, où nos identités peuvent être préservées indéfiniment en ligne. Comment comprenez-vous la relation entre la spiritualité et cette idée d’immortalité numérique?

R-10 Cette fausse immortalité n’a rien à voir avec la spiritualité. Pourquoi ne pas parler d’immortalité calcaire – ou architecturale – face aux pyramides d’Égypte? Une autre comparaison : Shakespeare ou Victor Hugo, voire Newton ou Einstein, sont probablement plus « immortels » qu’une personne dont on n’a pas supprimé le compte Facebook après la mort. S’il faut absolument rapporter le numérique au sacré, je dirais que les centres de données sont les nouveaux temples et qu’en échange du sacrifice de nos données, nous obtenons les bénédictions pratiques des intelligences artificielles et des médias sociaux.

Q-11 De nombreux experts ont souligné les problèmes moraux présents dans l’organisation et la construction de normes basées sur les données rapportées et exploitées par l’IA (préjugés, racisme et autres formes de déterminisme). Comment contrôler ces problèmes dans le scénario numérique? Qui est responsable ou peut être tenu responsable de problèmes de cette nature? L’IA pourrait-elle avoir des implications juridiques?

R-11 On parle beaucoup des « biais » de tel ou tel modèle d’intelligence artificielle, comme s’il pouvait exister une IA non-biaisée ou neutre. Cette question est d’autant plus importante que l’IA devient notre nouvelle interface avec les objets symboliques : stylo universel, lunettes panoramiques, haut-parleur général, programmeur sans code, assistant personnel. Les grands modèles de langue généralistes produits par les plateformes dominantes s’apparentent désormais à une infrastructure publique, une nouvelle couche du méta-médium numérique. Ces modèles généralistes peuvent être spécialisés à peu de frais avec des jeux de données issues d’un domaine particulier et de méthodes d’ajustement. On peut aussi les munir de bases de connaissances dont les faits ont été vérifiés.

Les résultats fournis par une IA découlent de plusieurs facteurs qui contribuent tous à son orientation ou si l’on préfère, à ses « biais ».

a) Les algorithmes proprement dits sélectionnent les types de calcul statistique et les structures de réseaux neuronaux.

b) Les données d’entraînement favorisent les langues, les cultures, les options philosophiques, les partis-pris politiques et les préjugés de toutes sortes de ceux qui les ont produites.

c) Afin d’aligner les réponses de l’IA sur les finalités supposées des utilisateurs, on corrige (ou on accentue!) « à la main » les penchants des données par ce que l’on appelle le RLHF (Reinforcement Learning from Human Feed-back – en français : apprentissage par renforcement à partir d’un retour d’information humain).

d) Finalement, comme pour n’importe quel outil, l’utilisateur détermine les résultats au moyen de consignes en langue naturelle (les fameux prompts). Comme je l’ai dit plus haut, des communautés d’utilisateurs s’échangent et améliorent collaborativement de telles consignes. La puissance de ces systèmes n’a d’égal que leur complexité, leur hétérogénéité et leur opacité. Le contrôle règlementaire de l’IA, sans doute nécessaire, semble difficile.

La responsabilité est donc partagée entre de nombreux acteurs et processus, mais il me semble que ce sont les utilisateurs qui doivent être tenus pour les responsables principaux, comme pour n’importe quelle technique. Les questions éthiques et juridiques reliées à l’IA sont aujourd’hui passionnément discutées un peu partout. C’est un champ de recherche académique en pleine croissance et de nombreux gouvernements et organismes multinationaux ont émis des lois et règlement pour encadrer le développement et l’utilisation de l’IA.

English version: https://intlekt.io/2022/01/18/ieml-towards-a-paradigm-shift-in-artificial-intelligence/

Art: Emma Kunz

Résumé

Le but de ce texte est de présenter une vue générale des limites de l’IA contemporaine et de proposer une voie pour les dépasser. L’IA a accompli des progrès considérables depuis l’époque des Claude Shannon, Alan Turing et John von Neumann. Néanmoins, de nombreux obstacles se dressent encore sur la route indiquée par ces pionniers. Aujourd’hui, l’IA symbolique se spécialise dans la modélisation conceptuelle et le raisonnement automatique tandis que l’IA neuronale excelle dans la catégorisation automatique. Mais les difficultés rencontrées aussi bien par les approches symboliques que neuronales sont nombreuses. Une combinaison des deux branches de l’IA, bien que souhaitable, laisse encore non résolus les problèmes du cloisonnement des modèles et les difficultés d’accumulation et d’échange des connaissances. Or l’intelligence humaine naturelle résout ces problèmes par l’usage du langage. C’est pourquoi je propose que l’IA adopte un modèle calculable et univoque du langage humain, le Métalangage de l’Économie de l’Information (IEML pour Information Economy MetaLanguage), un code sémantique de mon invention. IEML a la puissance d’expression d’une langue naturelle, il possède la syntaxe d’un langage régulier, et sa sémantique est univoque et calculable parce qu’elle est une fonction de sa syntaxe. Une architecture neuro-sémantique basée sur IEML allierait les forces de l’IA neuronale et de l’IA symbolique classique tout en permettant l’intégration des connaissances grâce à un calcul interopérable de la sémantique. De nouvelles avenues s’ouvrent à l’intelligence artificielle, qui entre en synergie avec la démocratisation du contrôle des données et l’augmentation de l’intelligence collective.

Après avoir été posté sur ce blog, le texte a été publié par le Giornale Di Filosofia numéro 2.
Lien vers –> le texte complet en PDF publié sur le site du Giornale di Filosofia. Ou bien lisez le texte ci-dessous 🙂.