Ce texte rend compte de ma communication à l’événement *AI for people summit* [https://ai4people.org/advancing-ethical-ai-governance-summit/] organisé avec le concours de l’Union européenne les 2 et 3 décembre 2025. L’essentiel de mon message est le suivant : oui, il faut se préoccuper d’une IA pour les gens, mais cette préoccupation ne deviendra pertinente et efficace que si l’on n’oublie pas que l’IA est aussi faite par les gens.
L’expression même d’intelligence artificielle nous trompe parce qu’elle sous-entend l’autonomie de la machine. De nombreux facteurs soutiennent et renforcent l’erreur d’attribuer une autonomie aux modèles de langue. L’expérience naïve du dialogue avec des IA donne l’impression qu’elles sont conscientes ; les journalistes rivalisent d’articles sensationnalistes ; les responsables des grandes compagnies d’IA annoncent “l’intelligence artificielle générale” pour demain ; des chercheurs en IA, parmi lesquels certains ont été récompensés par un prix Turing, lancent à un public affolé des prédictions apocalyptiques.
Pour surmonter cette erreur de conceptualisation, j’invite mes lecteurs à cesser de considérer les modèles d’IA en isolation. En réalité, ils ne peuvent être séparés de l’écosystème informationnel auquel ils appartiennent et dont ils dépendent. Cet écosystème peut être décrit comme un circuit à trois stations : les personnes, les données et les modèles. Les personnes créent de l’information, ils alimentent ainsi la mémoire numérique, dont les données entraînent les modèles, qui augmentent les capacités de création d’information des personnes, qui alimentent la mémoire et ainsi de suite. Dans cet écosystème informationnel, l’IA permet de mobiliser l’intelligence collective réifiée dans la mémoire numérique au service des personnes vivantes, qui peuvent contribuer à enrichir la masse des données accumulées. L’accès à la mémoire passe désormais par une IA qui la filtre, la distille et la rend opératoire en fonction des besoins particuliers des utilisateurs. Telle est du moins la version optimiste que je défends. Mais cette approche humaniste ne m’empêche pas de remarquer la face d’ombre du nouvel environnement de communication. Beaucoup de réflexions sur l’éthique de l’IA se concentrent sur la production et la réglementation des modèles, ce qui est légitime. Mais on oublie trop souvent la responsabilité des personnes produisant les données – dorénavant la société dans son ensemble.
Afin de rendre ma démonstration plus convaincante, je vais évoquer quelques cas d’empoisonnement des données particulièrement impressionnants. Plusieurs rapports récents font état d’une entreprise de propagande pro-russe d’abord nommée “Portal Kombat” et intitulée aujourd’hui “Pravda”. Il s’agit d’un réseau de plus de 150 sites web qui se présentent comme des diffuseurs d’information anodins, mais qui répètent constamment les éléments de langage du Kremlin. Les sites sont localisés dans tous les continents et leurs textes sont traduits dans des douzaines de langues, ce qui les rend plus crédibles selon les critères adoptés par les producteurs des modèles d’IA. En moyenne, ce réseau publie 20 273 articles toutes les 48 heures, soit environ 3,6 millions d’articles par an. La production et la traduction des textes est presque entièrement automatisée. Le but n’est pas d’avoir des lecteurs humains (il y en a relativement peu) mais de servir de données d’entraînement pour les IA et donc, par leur intermédiaire, de manipuler leurs utilisateurs. Une étude a établi que les principaux modèles probabilistes tels que ChatGPT d’OpenAI, le Chat de Mistral, Copilot de Microsoft’ Meta AI, Claude d’Anthropic, Gemini de Google et Perplexity AI régurgitent ou confirment les informations fournies par le réseau Pravda dans plus d’un tiers des cas, ce qui n’est déjà pas si mal du point de vue des “mesures actives” russes. Souvenons-nous que, pour Gœbbels, la propagande était basée sur la répétition, la simplicité et l’émotion. Avec les LLM, pas besoin de démonstration, de preuve, de faits, de contextualisation. La répétition et la simplicité fonctionnent parfaitement, il suffit que deux mots soient souvent associés dans les données d’entrainement pour qu’ils le soient aussi dans les réponses de l’IA.
Au lieu de se reposer sur des données éparpillées sur le Web, ne faudrait-il pas plutôt prioriser les données objectives et fiables que l’on trouve dans les revues scientifiques, les encyclopédies et les médias classiques? Et, en effet, Wikipédia est l’une des sources réputées les plus fiables par les responsables des modèles de langue. Or un grand nombre d’articles de Wikipédia ont fait l’objet d’une prise de contrôle par les islamistes et les défenseurs du Hamas, qui ont coordonné leur action en utilisant à leur profit les règles de fonctionnement de l’encyclopédie en ligne. Les choses sont allées si loin que les fondateurs de Wikipédia, Jimmy Wales et Larry Sanger s’en sont inquiétés publiquement. Mais rien n’y fait : authentifié par l’encyclopédie, le point de vue islamiste est maintenant gravé dans les modèles de langue. Une enquête diligentée par la BBC, un média de référence, déplore que les actualités soient mal représentées dans 45% des cas par les intelligences artificielles et que la moitié des jeunes gens (moins de 35 ans) croient à leur exactitude et n’éprouvent pas le besoin de vérifier leur contenu. La BBC pointe un doigt accusateur vers les assistants IA et s’insurge contre l’idée que les erreurs et la désinformation proviendraient des fournisseurs de nouvelles officiels. Hélas, quelques mois plus tard, le directeur général et la directrice de l’information de la BBC étaient obligés de démissionner à la suite d’un scandale de fabrication de fausses nouvelles sur Donald Trump et d’un rapport faisant état d’un biais islamiste systématique dans les émissions de la BBC en arabe. Dans le cas du réseau “Pravda” je mentionnais la théorie de la propagande de Gœbbels basée sur la répétition. Dans le cas de Wikipedia et de la BBC, il faudrait faire appel à une autre théorie de la propagande du 20e siècle, celle d’Edward Bernays, selon qui la manière la plus efficace de convaincre le public était de passer par les leaders d’opinion et les figures d’autorité. Au sujet d’une scientificité garantie par l’Université, souvenons-nous que l’Université allemande (et une bonne part de l’université mondiale) était raciste dans les années trente du 20ᵉ siècle et que l’Université soviétique a entretenu la doctrine anti-génétique de Lyssenko pendant des décennies. N’est-il pas possible que certaines doctrines – notamment dans les sciences humaines – qui se trouvent aujourd’hui majoritaires dans les universités soient considérées avec commisération par nos successeurs?
Je ne me livrerai pas ici à un exposé sur toutes les techniques dites d’empoisonnement des données ni à un avertissement sur les dangers de l’injection de prompts malicieux dans des sources d’information apparemment innocentes. J’espère seulement avoir attiré l’attention du lecteur sur l’importance des données d’entraînement dans la détermination des réponses des AI.
Une fois ce point acquis, il est clair que les problèmes éthiques ne peuvent se limiter aux modèles mais qu’il doivent s’étendre à la création des données qui les entraînent, c’est à dire à l’ensemble de notre comportement en ligne. Chaque lien que nous créons, chaque étiquette que nous apposons à une information, chaque « like », chaque requête, achat, commentaire ou partage et a fortiori chaque article, entrée de blog, podcast ou vidéo que nous postons, toutes ces opérations produisent des données qui vont entraîner les neurones formels des intelligences artificielles. Nous nous concentrons généralement sur la réception directe de nos messages mais il nous faut garder à l’esprit que nous contribuons indirectement – par l’intermédiaire des modèles que nous entraînons – à répondre aux questions de nos contemporains, à rédiger leurs textes, à instruire des élèves, à orienter des politiques, etc. Cette responsabilité est d’autant plus grande que nous nous trouvons dans une position d’autorité et que nous sommes censés dire le vrai, puisque l’IA accorde un plus grand poids aux informations fournies par les journalistes, professeurs, chercheurs scientifiques, rédacteurs de manuels et producteurs de sites officiels.
Revenons pour finir à l’écosystème informationnel contemporain. Supposons que la tendance que l’on voit se dessiner aujourd’hui se confirme dans les années qui viennent. Les IA représentent alors notre principale interface d’accès à la mémoire accumulée et notre premier médium de communication entre humains, puisqu’elles régissent les réseaux sociaux. Dans ce nouvel environnement, les personnes créent les données, qui entraînent les modèles, qui augmentent les personnes, qui créent les données et ainsi de suite le long d’une boucle autogénérative. Cet écosystème fait simultanément office de champ de bataille des récits et de lieu de création et de mise en commun des connaissances ; il oscille entre manipulation et intelligence collective. Dès lors, un des enjeux essentiels reste la formation des esprits. Quelques mots d’ordre éducatifs à l’âge de l’IA : ne pas renoncer à la mémorisation personnelle, s’exercer à l’abstraction et à la synthèse, questionner longuement au lieu de se contenter des premières réponses, replacer toujours les faits dans les multiples contextes où ils prennent sens, prendre la responsabilité des messages que l’on confie à la mémoire numérique et qui contribuent à forger l’esprit collectif.
Q1- Face à l’hyper-connectivité croissante chez les jeunes, de nombreux experts parlent de solitude et de ce qu’ils appellent “l’âge des passions tristes”. Comment voyez-vous cette dichotomie entre proximité et distance que la technologie provoque dans les relations humaines?
R1 – L’hyper-connectivité ne concerne pas seulement les jeunes, elle est partout. Un des facteurs principaux de l’évolution culturelle réside dans le dispositif matériel de production et de reproduction des symboles, mais aussi dans les systèmes logiciels d’écriture et de codage de l’information. Notre intelligence collective prolonge celle des espèces sociales qui nous ont précédées, et particulièrement celle des grands singes. Mais l’usage du langage – et d’autres systèmes symboliques – tout comme la force de nos moyens techniques nous a fait passer du statut d’animal social à celui d’animal politique. Proprement humaine, la Polis émerge de la symbiose entre des écosystèmes d’idées et les populations de primates parlants qui les entretiennent, s’en nourrissent et s’y réfléchissent. L’évolution des idées et celles des peuplements de Sapiens se déterminent mutuellement. Or le facteur principal de l’évolution des idées réside dans le dispositif matériel de reproduction des symboles. Au cours de l’histoire, les symboles (avec les idées qu’ils portaient) ont été successivement pérennisés par l’écriture, allégés par l’alphabet et le papier, multipliés par l’imprimerie et les médias électriques. Les symboles sont aujourd’hui numérisés et calculés, c’est-à-dire qu’une foule de robots logiciels – les algorithmes – les enregistrent, les comptent, les traduisent et en extraient des patterns. Les objets symboliques (textes, images fixes ou animées, voix, musiques, programmes, etc.) sont non seulement enregistrés, reproduits et transmis automatiquement, ils sont aussi générés et transformés de manière industrielle. En somme, l’évolution culturelle nous a menés au point où les écosystèmes d’idées se manifestent sous la forme de données animées par des algorithmes dans un espace virtuel ubiquitaire. Et c’est dans cet espace que se nouent, se maintiennent et se dénouent désormais les liens sociaux. Avant de critiquer ou de déplorer, il faut d’abord reconnaître les faits. Les amitiés des jeunes gens ne peuvent plus se passer des médias sociaux ; les couples se rencontrent sur internet, par exemple sur des applications comme Tinder (voir la Figure 1) ; les familles restent connectées par Facebook ou d’autres applications comme WhatsApp ; les espaces de travail ont basculé dans l’électronique avec Zoom et Teams, particulièrement depuis la pandémie de COVID ; la diplomatie se fait de plus en plus sur X (ex Twitter), etc. On ne reviendra pas en arrière. D’un autre côté, on ne se déplace pas moins de manière physique : en témoignent les embouteillages monstrueux de Sao Paulo et Rio de Janeiro. Dans le même ordre d’idées, la tendance sur les dix dernières années – époque de croissance exponentielle des connexions Internet – montre aussi une augmentation du nombre de passagers aériens, qui continue une tendance séculaire, et cela malgré une baisse importante durant la pandémie de COVID-19.
Je me sentais bien seul lorsque, jeune étudiant, je suis arrivé à Paris du sud de la France, pour faire mes études universitaires. C’était en 1975 et il n’y avait pas d’internet. Les seniors qui vivent seuls et que leurs enfants ne visitent pas doivent-ils blâmer Internet? Le problème de la solitude et de la désagrégation des liens sociaux est bien réel. Mais c’est une tendance déjà ancienne, qui tient à l’urbanisation, aux transformations de la famille et à bien d’autres facteurs. J’invite vos lecteurs à consulter les nombreux travaux sur la question du “capital social” (la quantité et à la qualité des relations humaines). L’internet n’est qu’un des nombreux facteurs à considérer sur cette question.
Figure 1
Q2- Dans vos livres “Collective Intelligence: For an anthropology of cyberspace” (1994) et “Cyberculture: The Culture of the Digital Society” (1997), vous soutenez qu’Internet et les technologies numériques développent l’intelligence collective, permettant de nouvelles formes de collaboration et de partage des connaissances. Cependant, on craint de plus en plus que l’utilisation excessive des médias sociaux et des technologies numériques soit associée à une distraction et à un retard d’apprentissage chez les jeunes. Comment voyez-vous cette apparente contradiction entre le potentiel des technologies à renforcer l’intelligence collective et les effets négatifs qu’elles peuvent avoir sur le développement cognitif et éducatif des jeunes?
R2- Je n’ai jamais soutenu qu’Internet et les technologies numériques, par eux-mêmes et comme si les techniques étaient des sujets autonomes, développent l’intelligence collective. J’ai soutenu que le meilleur usage que nous pouvions faire d’internet et des technologies numériques était de développer l’intelligence collective humaine, ce qui est bien différent. Et c’est d’ailleurs toujours ce que je pense. L’idée d’un « espace du savoir » qui pourrait se déployer au-dessus de l’espace marchand est un idéal régulateur pour l’action, non une prédiction de type factuel. Lorsque j’ai rédigé L’Intelligence Collective – de 1992 à 1993 – moins de 1% de l’humanité était branchée sur l’Internet et le Web n’existait pas. Vous ne trouverez nulle part le mot « web » dans l’ouvrage. Or nous avons aujourd’hui – en 2024 – largement dépassé les deux tiers de la population mondiale connectée à l’Internet. Le contexte est donc complètement différent mais le changement de civilisation que je prévoyais il y a 30 ans semble évident aujourd’hui, bien qu’il faille attendre normalement plusieurs générations pour confirmer ce type de mutation. A mon sens, nous ne sommes qu’au commencement de la révolution numérique.
Quant à l’augmentation de l’intelligence collective, de nombreux pas ont été franchis pour mettre les connaissances à la portée de tous. Wikipédia est l’exemple classique d’une entreprise qui fonctionne en intelligence collective avec des millions de contributeurs bénévoles de tous les pays et des groupes de discussion entre experts pour chaque article. Il y a près de sept millions d’articles en anglais, deux millions et demi d’articles en français et plus d’un million d’articles en portugais. Wikipédia est consulté par plusieurs dizaines de millions de personnes par jour et plusieurs milliards par an! Le logiciel libre – maintenant largement adopté et diffusé, y compris par les grandes entreprises du Web – est un autre grand domaine où l’intelligence collective est au poste de commande. Parmi les plus utilisés des logiciels libres citons le système d’exploitation Linux, les navigateurs Mozilla et Chromium, la suite Open Office, le serveur http Apache (qui est le plus utilisé sur Internet), le système de contrôle des versions GIT, la messagerie Signal, et bien d’autres qu’il serait trop long de citer. J’ajoute que les bibliothèques et les musées numérisés, comme les articles scientifiques en accès libre et les sites de type ArXiv.org, sont monnaie courante, ce qui transforme les pratiques de recherche et de communication scientifique. Tout le monde peut aujourd’hui publier des textes sur son blog, des vidéos et des podcasts sur YouTube ou d’autres sites, ce qui n’était pas le cas il y a trente ans. Les médias sociaux permettent d’échanger des nouvelles et des idées très rapidement, comme on le voit par exemple sur LinkedIn ou X (ex Twitter). Internet a donc réellement permis le développement de nouvelles formes d’expression, de collaboration et de partage des connaissances. Beaucoup reste à faire. Nous ne sommes qu’au tout début de la mutation anthropologique en cours.
Bien entendu, il nous faut prendre en compte les phénomènes d’addiction aux jeux vidéos, aux médias sociaux, à la pornographie en ligne, etc. Mais depuis plus de trente ans, la majorité des journalistes, des hommes politiques, des enseignants et de tous ceux qui font l’opinion ne cessent de dénoncer les dangers de l’informatique, puis de l’Internet et maintenant de l’intelligence artificielle. Je ne ferais rien de très utile si j’ajoutais mes lamentations aux leurs. J’essaye donc de faire prendre conscience d’une mutation de civilisation de grande ampleur qu’on n’arrêtera pas et d’indiquer les meilleurs moyens de diriger cette grande transformation vers les finalités les plus positives pour le développement humain. Ceci dit, il est clair que les phénomènes d’addiction trouvent partiellement leur source dans notre dépendance à l’architecture sociotechnique toxique des grandes compagnies du Web, qui utilise la stimulation dopaminergique et les renforcements narcissiques de la communication numérique pour nous faire produire toujours plus de données et vendre plus de publicité. Malheureusement la santé mentale des populations adolescentes est peut-être une des victimes collatérales des stratégies commerciales de ces grandes entreprises oligopolistiques. Comment s’opposer à la puissance de leurs centres de calcul, à leur efficacité logicielle et à la simplicité de leurs interfaces? Il est plus facile de poser la question que d’y répondre. En plus de la biopolitique évoquée par Michel Foucault, il faut maintenant considérer une psychopolitique à base de neuromarketing, de données personnelles et de gamification du contrôle. Les enseignants doivent avertir les étudiants de ces dangers et les former à la pensée critique.
Q3- Avec le phénomène des “bulles connectives”, où les réseaux sociaux ont tendance à renforcer des croyances et des idées préexistantes, limitant les contacts avec des perspectives différentes, comment voyez-vous l’évolution des liens sociaux à mesure qu’Internet et les plateformes numériques continuent de se développer? Ce type de segmentation pourrait-il affaiblir l’intelligence collective que vous prônez, ou y a-t-il encore de la place pour des connexions plus larges et plus collaboratives à l’avenir?
R3 – Il est clair que si l’on se contente de « liker » instinctivement ce que l’on voit défiler et de réagir émotionnellement aux images et aux messages les plus simplistes, le bénéfice cognitif ne sera pas très grand. Je ne me pose pas en modèle à suivre absolument, je voudrais seulement donner un exemple de ce qu’il est possible de faire si l’on un peu d’imagination et que l’on est prêt à remettre en cause l’inertie des institutions. Lorsque j’étais professeur en communication numérique à l’Université d’Ottawa, je forçais mes étudiants à s’inscrire sur Twitter, à choisir une demi-douzaine de sujets intéressants pour eux et à dresser des listes de comptes à suivre pour chaque sujet. Quelque soit le thème – politique, science, mode, art, sports, etc. – ils devaient construire des listes équilibrées comprenant des experts ou des partisans d’avis opposés afin d’élargir leur sphère cognitive au lieu de la restreindre. Sur les médias sociaux les plus courants comme Facebook et LinkedIn, il est possible de participer à un grand nombre de communautés spécialisées dans des domaines culturels (histoire, philosophie, arts) ou professionnels (affaires, technologie, etc.) afin de se tenir au courant et de discuter avec des experts. Les groupes de discussion locaux par villages ou quartiers sont aussi très utiles. Tout est question de méthode et de pratique. Il faut se détacher du modèle des médias de masse (journaux papier, radio, télévision) dans lequel des récepteurs passifs consomment une programmation faite par d’autres. C’est à chacun de se bricoler sa propre programmation et de se construire ses réseaux personnels d’apprentissage.
Avant l’imprimerie, on ne parlait qu’avec les gens de sa paroisse. Dans les années soixante du XXe siècle on n’avait le choix qu’entre deux ou trois chaines de télévision et deux ou trois journaux. Aujourd’hui nous avons accès à une énorme diversité de sources en provenance de tous les pays et de tous les secteurs de la société. Les enseignants doivent alphabétiser les étudiants, leur apprendre les langues étrangères, leur donner une bonne culture générale et les guider dans ce nouvel univers de communication.
Q4- Actuellement, il y a un débat croissant sur les effets négatifs de la technologie sur la santé mentale des jeunes, en mettant l’accent sur des problèmes tels que l’anxiété, la dépression et l’isolement social. Considérant le rôle central que jouent les technologies numériques dans notre société, comment comprenez-vous cette relation entre l’usage intensif des technologies et l’augmentation des problèmes de santé mentale chez les jeunes? Existe-t-il un moyen d’équilibrer les avantages de la technologie avec la nécessité de préserver le bien-être mental?
R4 – Le problème de la santé mentale des jeunes est bien sûr tout à fait réel, mais il serait réducteur de l’attribuer uniquement aux médias sociaux. Néanmoins je vais essayer d’énumérer quelques problèmes psychologiques qui naissent de l’usage des Technologies numériques.
Il y a d’abord la transformation de l’autoréférence subjective, qui risque de mener à des problèmes de type schizophrénique. Notre champ d’expérience est médiatisé par le support numérique : la boucle d’autoréférence est plus large que jamais. Nous interagissons avec des personnes, des robots, des images, des musiques par le biais de plusieurs interfaces multimédias : écran, écouteurs, manettes… Notre expérience subjective est contrôlée par les algorithmes de multiples applications qui déterminent en boucle (si nous n’avons pas appris à les maîtriser) notre consommation de données et nos actions en retour. Notre mémoire est dispersée dans de nombreux fichiers, bases de données, en local et dans le cloud… Lorsqu’une grande partie de nous-mêmes est ainsi collectivisée et externalisée, le problème des limites et de la détermination de l’identité devient prépondérant. À qui appartiennent les données me concernant, qui les produit ?
Le problème du narcissisme est particulièrement évident sur Instagram et les applications même genre. Notre ego est nourri par l’image que les autres nous renvoient dans le médium algorithmique. L’obsession de l’image atteint des proportions inquiétantes. Combien d’abonnés, combien de likes, combien d’impressions? Pour ceux qui ont sombré dans ce gouffre, la valeur de l’être n’est plus que dans le regard de l’autre. Avant d’être un problème de santé mentale il s’agit d’un problème de sagesse élémentaire.
A l’opposé du narcissisme, nous avons une tendance vers l’autisme. Ici le moi est enfermé dans sa vie intérieure, mais alimenté par des sources d’information en ligne. Le code ou certains aspects de la culture populaire deviennent obsessionnels. C’est le domaine des geeks, des Otakus et des joueurs compulsifs. Il est évidemment malsain de se passer de toute vie sociale en chair et en os.
Il existe un problème de santé mentale si les affects sont constamment euphoriques, ou constamment dysphoriques, ou si un objet exclusif devient addictif. En effet, Internet peut nous rendre dépendants à certains objets (actualités, séries, jeux, pornographie) ou à certaines émotions, qu’elles soient positives (contenu « feel-good » de type chats mignons, danse, humour, etc.) ou négatives (actualités catastrophiques, « doom scrolling ») de manière déséquilibrée. On peut aussi se demander dans quelle mesure il est bon que le langage corporel soit entièrement remplacé par des emojis, des mèmes, des images, des avatars, etc.
L’addiction est créée par l’excitation (dopamine) et la satisfaction (endorphine) que nous voulons reproduire sans arrêt. Or, comme je l’ai dit plus haut, les modèles d’affaire des grandes entreprise du web qui sont axés sur l’engagement (sécrétion de dopamine-endorphine) conduisent presque inévitablement à la dépendance si les utilisateurs ne font pas attention. L’intensité d’engagement élevée pendant de trop longs moments mène inévitablement à une dépression.
Le contrôle des impulsions (agressivité, par exemple) est plus difficile dans les médias sociaux que dans la vie réelle parce que nos interlocuteurs ne se trouvent pas en face de nous. La « gestion des comportements toxiques » est d’ailleurs un problème majeur dans les jeux en ligne et les médias sociaux.
En somme, il faut être vigilant, prévenir les jeunes utilisateurs des dangers encourus et ne pas commettre d’excès.
Q5 – Certains prédisent que les générations futures pourraient ne plus jamais fréquenter l’école. Comment voyez-vous l’avenir de l’éducation dans un monde de plus en plus hyperconnecté et dominé par la technologie?
R5 – Je ne crois pas que l’école va disparaître. Mais elle doit se transformer. Il faut prendre les étudiants où ils sont et de préférence utiliser les produits grands public auxquels ils sont habitués pour en faire quelque chose d’utile sur le plan de l’apprentissage. Les élèves sont des « digital natives » mais cela ne veut pas dire qu’ils ont une véritable maîtrise des outils numériques. Il faut non seulement développer la littéracie numérique mais la littéracie tout court, qui en est indissociable. Je suis un grand partisan de la lecture des classiques et de la culture générale, qui est indispensable pour former l’esprit critique.
Pour revenir à mes propres méthodes pédagogiques, dans les cours que je donnais à l’Université d’Ottawa, je demandais à mes étudiants de participer à un groupe Facebook fermé, de s’enregistrer sur Twitter, d’ouvrir un blog s’ils n’en n’avaient pas déjà un et d’utiliser une plateforme de curation collaborative de données.
L’usage de plateformes de curation de contenu me servait à enseigner aux étudiants comment choisir des catégories ou « tags » pour classer les informations utiles dans une mémoire à long terme, afin de les retrouver facilement par la suite. Cette compétence leur sera fort utile dans le reste de leur carrière.
Les blogs étaient utilisés comme supports de « devoir final » pour les cours gradués (c’est-à-dire avant le master), et comme carnets de recherche pour les étudiants en maîtrise ou en doctorat : notes sur les lectures, formulation d’hypothèses, accumulation de données, première version d’articles scientifiques ou de chapitres des mémoires ou thèses, etc. Le carnet de recherche public facilite la relation avec le superviseur et permet de réorienter à temps les directions de recherche hasardeuses, d’entrer en contact avec les équipes travaillant sur les mêmes sujets, etc.
Le groupe Facebook était utilisé pour partager le Syllabus ou « plan de cours », l’agenda de la classe, les lectures obligatoires, les discussions internes au groupe – par exemple celles qui concernent l’évaluation – ainsi que les adresses électroniques des étudiants (Twitter, blog, plateforme de curation sociale, etc.). Toutes ces informations étaient en ligne et accessibles d’un seul clic, y compris les lectures obligatoires numérisées et gratuites. Les étudiants pouvaient participer à l’écriture de mini-wikis à l’intérieur du groupe Facebook sur des sujets de leur choix, ils étaient invités à suggérer des lectures intéressantes reliées au sujet du cours en ajoutant des liens commentés. J’utilisais Facebook parce que la quasi-totalité des étudiants y étaient déjà abonnés et que la fonctionnalité de groupe de cette plateforme est bien rodée. Mais j’aurais pu utiliser n’importe quel autre support de gestion de groupe collaboratif, comme Slack ou les groupes de LinkedIn.
Sur Twitter (maintenant X), la conversation propre à chaque classe était identifiée par un hashtag. Au début, j’utilisais le médium à l’oiseau bleu de manière ponctuelle. Par exemple, à la fin de chaque classe je demandais aux étudiants de noter l’idée la plus intéressante qu’ils avaient retenu du cours et je faisais défiler leurs tweets en temps réel sur l’écran de la classe. Puis, au bout de quelques semaines, je les invitais à relire leurs traces collectives sur Twitter pour rassembler et résumer ce qu’ils avaient appris et poser des questions – toujours sur Twitter – si quelque chose n’était pas clair, questions auxquelles je répondais par le même canal.
Au bout de quelques années d’utilisation de Twitter en classe, je me suis enhardi et j’ai demandé aux étudiants de prendre directement leurs notes sur ce medium social pendant le cours de manière à obtenir un cahier de notes collectif. Pouvoir regarder comment les autres prennent des notes (que ce soit sur le cours ou sur des textes à lire) permet aux étudiants de comparer leurs compréhensions et de préciser ainsi certaines notions. Ils découvrent ce que les autres ont relevé et qui n’est pas forcément ce qui les a stimulés eux-mêmes… Quand je sentais que l’attention se relâchait un peu, je leur demandais de s’arrêter, de réfléchir à ce qu’ils venaient d’entendre et de noter leurs idées ou leurs questions, même si leurs remarques n’étaient pas directement reliées au sujet du cours. Twitter leur permettait de dialoguer librement entre eux sur les sujets étudiés sans déranger le fonctionnement de la classe. Je consacrais toujours la fin du cours à une période de questions et de réponses qui s’appuyais sur un visionnement collectif du fil Twitter. Cette méthode est particulièrement pertinente dans les groupes trop grands (parfois plus de deux cents personnes) pour permettre à tous les étudiants de s’exprimer oralement. Je pouvais ainsi répondre tranquillement aux questions après la classe en sachant que mes explications restaient inscrites dans le fil du groupe. La conversation pédagogique se poursuit entre les cours. Bien entendu, tout cela n’était possible que parce que l’évaluation (la notation des étudiants) était basée sur leur participation en ligne.
En utilisant Facebook et Twitter en classe, les étudiants n’apprenaient pas seulement la matière du cours mais aussi une façon « cultivée » de se servir des médias sociaux. Documenter ses petits déjeuners ou la dernière fête bien arrosée, disséminer des vidéos de chats et des images comiques, échanger des insultes entre ennemis politiques, s’extasier sur des vedettes du show-business ou faire de la publicité pour telle ou telle entreprise sont certainement des usages légitimes des médias sociaux. Mais on peut également entretenir des dialogues constructifs dans l’étude d’un sujet commun. En somme, je crois que l’éducation doit progresser en direction de l’apprentissage collaborative en utilisant les outils numériques.
Q6 – Quelles sont, selon vous, les principales opportunités qu’Internet et les nouveaux outils d’IA peuvent apporter au domaine de l’éducation? Compte tenu de l’avancée accélérée des technologies numériques et de l’intelligence artificielle, comment voyez-vous évoluer le rôle de l’enseignant dans les années à venir?
R6 – Concernant l’intelligence artificielle (par exemple ChatGPT, MetaAI, Grok ou Gemini, qui sont tous gratuits et assez bons), elle peut être fort utile comme mentor des étudiants ou comme encyclopédie de premier recours, pour donner des réponses et des orientations très rapidement. Les étudiants utilisent déjà ces outils, il ne faut donc pas interdire leur usage mais, une fois encore, le cultiver, le faire passer à un niveau supérieur. Comme l’IA générative est de nature statistique et probabiliste, elle fait régulièrement des erreurs. Il faut donc toujours vérifier les informations sur de véritables encyclopédies, des moteurs de recherche, des sites spécialisés ou même… dans une bibliothèque! J’ajoute que plus on est cultivé et mieux on connaît un sujet et plus l’usage des IA génératives est fructueux, car on est alors capable de poser de bonnes questions et de demander des informations complémentaires lorsque l’on sent que quelque chose manque. L’IA n’est pas un substitut à l’ignorance, elle donne au contraire une prime à ceux qui ont déjà de bonnes connaissances.
Utiliser les IA génératives pour rédiger à notre place ou faire des résumés de texte au lieu de lire des livres n’est pas une bonne idée, au moins dans un usage pédagogique. Sauf bien sûr si cette pratique est encadrée par l’enseignant afin de stimuler l’esprit critique et le goût du beau style. Au moins en 2024, les textes de l’IA sont généralement redondants, banals et facilement reconnaissables. De plus, leurs résumés de documents ne parviennent pas à saisir ce qu’il y a de plus original dans un texte, puisqu’ils n’ont pas été entraînés sur des idées rares mais au contraire sur l’avis général que l’on retrouve partout. On apprend à penser en lisant et en écrivant en personne : donc les IA sont de bons auxiliaires mais en aucun cas de purs et simples remplacements de l’activité intellectuelle humaine.
Q-7- On craint de plus en plus que l’IA puisse supprimer de nombreux emplois à l’avenir. Comment pensez-vous que cela affectera le marché du travail et quelles pourraient être les solutions possibles?
Q-7 Du fait même de son nom, l’intelligence artificielle évoque naturellement l’idée d’une intelligence autonome de la machine, qui se pose en face de l’intelligence humaine, pour la simuler ou la dépasser. Mais si nous observons les usages réels des dispositifs d’intelligence artificielle, force est de constater que, la plupart du temps, ils augmentent, assistent ou accompagnent les opérations de l’intelligence humaine. Déjà, à l’époque des systèmes experts – lors des années 80 et 90 du XXe siècle – j’observais que les savoirs critiques de spécialistes au sein d’une organisation, une fois codifiés sous forme de règles animant des bases de connaissances, pouvaient être mis à la portée des membres qui en avaient le plus besoin, répondant précisément aux situations en cours et toujours disponibles. Plutôt que d’intelligences artificielles prétendument autonomes, il s’agissait de médias de diffusion des savoir-faire pratiques, qui avaient pour principal effet d’augmenter l’intelligence collective des communautés utilisatrices.
Dans la phase actuelle du développement de l’IA, le rôle de l’expert est joué par les foules qui produisent les données et le rôle de l’ingénieur cogniticien qui codifie le savoir est joué par les réseaux neuronaux. Au lieu de demander à des linguistes comment traduire ou à des auteurs reconnus comment produire un texte, les modèles statistiques interrogent à leur insu les multitudes de rédacteurs anonymisés du web et ils en extraient automatiquement des patterns de patterns qu’aucun programmeur humain n’aurait pu tirer au clair. Conditionnés par leur entraînement, les algorithmes peuvent alors reconnaître et reproduire des données correspondant aux formes apprises. Mais parce qu’ils ont abstrait des structures plutôt que de tout enregistrer, les voici capables de conceptualiser correctement des formes (d’image, de textes, de musique, de code…) qu’ils n’ont jamais rencontrées et de produire une infinité d’arrangements symboliques nouveaux. C’est pourquoi l’on parle d’intelligence artificielle générative. Bien loin d’être autonome, cette IA prolonge et amplifie l’intelligence collective. Des millions d’utilisateurs contribuent au perfectionnement des modèles en leur posant des questions et en commentant les réponses qu’ils en reçoivent. On peut prendre l’exemple de Midjourney (qui génère des images), dont les utilisateurs s’échangent leurs consignes (prompts) et améliorent constamment leurs compétences. Les serveurs Discord de Midjourney sont aujourd’hui les plus populeux de la planète, avec plus d’un million d’utilisateurs. Une nouvelle intelligence collective stigmergique émerge de la fusion des médias sociaux, de l’IA et des communautés de créateurs. Derrière « la machine » il faut entrevoir l’intelligence collective qu’elle réifie et mobilise.
L’IA nous offre un nouvel accès à la mémoire numérique mondiale. C’est aussi une manière de mobiliser cette mémoire pour automatiser des opérations symboliques de plus en plus complexes, impliquant l’interaction d’univers sémantiques et de systèmes de comptabilité hétérogènes.
Je ne crois pas une seconde à la fin du travail. L’automatisation fait disparaître certains métiers et en fait naître de nouveaux. Il n’y a plus de maréchaux ferrants, mais les garagistes les ont remplacés. Les porteurs d’eau ont fait place aux plombiers. La complexification de la société augmente le nombre des problèmes à résoudre. Les machines « intelligentes » vont surtout augmenter la productivité du travail cognitif en automatisant ce qui peut l’être. Il y aura toujours besoin de gens intelligents, créatifs et compassionnés mais ils devront apprendre à travailler avec les nouveaux outils.
Q-8 Certains auteurs évoquent l’inversion de “l’effet Flynn”, suggérant que les générations futures auront un niveau cognitif inférieur à celui de leurs parents. Comment voyez-vous cet enjeu dans le contexte des technologies émergentes? Pensez-vous que l’usage intensif des technologies numériques puisse contribuer à cette tendance, ou offrent-elles de nouvelles façons d’élargir nos capacités cognitives?
R-8 La baisse du niveau cognitif (et moral), est déplorée depuis des siècles par chaque génération, alors que l’effet Flynn montre justement l’inverse. Il est normal que l’on assiste à une stabilisation des scores de Quotient Intellectuel (QI) : l’espoir d’une augmentation constante n’est jamais très réaliste et il serait normal d’atteindre une limite ou un palier, comme dans n’importe quel autre phénomène historique ou même biologique. Mais admettons que les jeunes gens d’aujourd’hui aient de moins bons scores de QI que les générations qui les précèdent immédiatement. Il faut d’abord se demander ce que mesurent ces tests : principalement une intelligence scolaire. Ils ne prennent en compte ni l’intelligence émotionnelle, ni l’intelligence relationnelle, ni la sensibilité esthétique, ni les habiletés physiques ou techniques, ni même le bon sens pratique. Donc on ne mesure là quelque chose de limité. D’autre part, si l’on reste sur l’adaptation au fonctionnement scolaire que mesurent les tests de QI, pourquoi accuser d’abord les technologies? Peut-être y-t-il démission des familles face à la tâche éducative (notamment parce que les familles se défont), ou bien défaillance des écoles et des universités qui deviennent de plus en plus laxistes (parce que les étudiants sont devenus des clients à satisfaire à tout prix) ? Quand j’étais étudiant, le « A » aux examens n’était pas encore un droit… Il l’est quasiment devenu aujourd’hui.
Finalement, et il faut le répéter sans cesse, « l’usage des technologies numériques » n’a pas grand sens. Il y a des usages abrutissants, qui glissent sur la pente de la paresse intellectuelle, et des usages qui ouvrent l’esprit, mais qui demandent une prise de responsabilité personnelle, un effort d’autonomie et – oui – du travail. C’est le rôle des éducateurs de favoriser les usages positifs.
Q-9 Existe-t-il des frontières claires entre le monde réel et le monde virtuel? Qu’est-ce qui pourrait nous motiver à continuer dans le monde réel alors que le monde virtuel offre des possibilités d’interaction et de réussite quasi illimitées?
R-9 Il n’y a jamais eu de frontière claire entre le monde virtuel et le monde actuel. Où se trouve la présence humaine? Dès que nous assumons une situation dans l’existence, nous nous retrouvons immanquablement entre deux. Entre le virtuel et l’actuel, entre l’âme et le corps, entre le ciel et la terre, entre le yin et le yang. Notre existence s’étire dans un intervalle et la relation fondamentale entre le virtuel et l’actuel est une transformation réciproque. C’est un morphisme qui projette le sensible sur l’intelligible et inversement.
Une situation pratique comprend un contexte actuel : notre posture, notre position, ce qui se trouve autour de nous en ce moment précis, de nos interlocuteurs à l’environnement matériel. Elle implique aussi un contexte virtuel : le passé dans notre mémoire, nos plans et nos attentes, nos idées de ce qui nous arrive. C’est ainsi que nous discernons les lignes de force et les tensions de la situation, son univers de problèmes, ses obstacles et ses échappées. Les configurations corporelles n’ont de sens que par le paysage virtuel qui les entoure.
Nous ne vivons donc pas seulement dans la réalité physique dite « matérielle », mais aussi dans le monde des significations. C’est ce qui fait de nous des humains. Maintenant, si l’on veut parler des médias dits « numériques » , en plus de leur aspect logiciel (les programmes et les données) ils sont évidemment aussi matériels : les centres de données, les câbles, les modems, les ordinateurs, les smartphones, les écrans, les écouteurs sont tout ce qu’il y a de plus matériels et actuels. Par ailleurs, je ne sais pas très bien à quoi vous faites allusion lorsque vous dites que « le monde virtuel offre des possibilités d’interaction et de réussite quasi illimitées ». Les possibilités d’interactions offertes par le médium numérique sont certes plus diverses que celles qui étaient fournies par l’imprimerie ou la télévision, mais elles ne sont en aucun cas « illimitées » puisque le temps disponible n’est pas extensible à l’infini. Ces possibilités dépendent aussi fortement des capacités et de l’environnement culturel et social des utilisateurs. La toute puissance est toujours une illusion. Par ailleurs, si vous voulez dire que la fiction et le jeu (qu’ils soient ou non à support électronique) offrent des possibilités illimitées, oui, c’est une idée qui a sa part de vérité. Maintenant, si vous sous-entendez qu’il est malsain de passer la plus grande partie de son temps à jouer à des jeux vidéo en ligne au détriment de sa santé, de ses études, de son environnement familial ou de son travail, on ne peut qu’être d’accord avec vous. Mais ce sont ici l’excès et l’addiction qui sont en question, avec leurs causes multiples, et pas « le monde virtuel ».
Q-10 Avec les progrès des technologies numériques, le concept d’immortalité numérique émerge, où nos identités peuvent être préservées indéfiniment en ligne. Comment comprenez-vous la relation entre la spiritualité et cette idée d’immortalité numérique?
R-10 Cette fausse immortalité n’a rien à voir avec la spiritualité. Pourquoi ne pas parler d’immortalité calcaire – ou architecturale – face aux pyramides d’Égypte? Une autre comparaison : Shakespeare ou Victor Hugo, voire Newton ou Einstein, sont probablement plus « immortels » qu’une personne dont on n’a pas supprimé le compte Facebook après la mort. S’il faut absolument rapporter le numérique au sacré, je dirais que les centres de données sont les nouveaux temples et qu’en échange du sacrifice de nos données, nous obtenons les bénédictions pratiques des intelligences artificielles et des médias sociaux.
Q-11 De nombreux experts ont souligné les problèmes moraux présents dans l’organisation et la construction de normes basées sur les données rapportées et exploitées par l’IA (préjugés, racisme et autres formes de déterminisme). Comment contrôler ces problèmes dans le scénario numérique? Qui est responsable ou peut être tenu responsable de problèmes de cette nature? L’IA pourrait-elle avoir des implications juridiques?
R-11 On parle beaucoup des « biais » de tel ou tel modèle d’intelligence artificielle, comme s’il pouvait exister une IA non-biaisée ou neutre. Cette question est d’autant plus importante que l’IA devient notre nouvelle interface avec les objets symboliques : stylo universel, lunettes panoramiques, haut-parleur général, programmeur sans code, assistant personnel. Les grands modèles de langue généralistes produits par les plateformes dominantes s’apparentent désormais à une infrastructure publique, une nouvelle couche du méta-médium numérique. Ces modèles généralistes peuvent être spécialisés à peu de frais avec des jeux de données issues d’un domaine particulier et de méthodes d’ajustement. On peut aussi les munir de bases de connaissances dont les faits ont été vérifiés.
Les résultats fournis par une IA découlent de plusieurs facteurs qui contribuent tous à son orientation ou si l’on préfère, à ses « biais ».
a) Les algorithmes proprement dits sélectionnent les types de calcul statistique et les structures de réseaux neuronaux.
b) Les données d’entraînement favorisent les langues, les cultures, les options philosophiques, les partis-pris politiques et les préjugés de toutes sortes de ceux qui les ont produites.
c) Afin d’aligner les réponses de l’IA sur les finalités supposées des utilisateurs, on corrige (ou on accentue!) « à la main » les penchants des données par ce que l’on appelle le RLHF (Reinforcement Learning from Human Feed-back – en français : apprentissage par renforcement à partir d’un retour d’information humain).
d) Finalement, comme pour n’importe quel outil, l’utilisateur détermine les résultats au moyen de consignes en langue naturelle (les fameux prompts). Comme je l’ai dit plus haut, des communautés d’utilisateurs s’échangent et améliorent collaborativement de telles consignes. La puissance de ces systèmes n’a d’égal que leur complexité, leur hétérogénéité et leur opacité. Le contrôle règlementaire de l’IA, sans doute nécessaire, semble difficile.
La responsabilité est donc partagée entre de nombreux acteurs et processus, mais il me semble que ce sont les utilisateurs qui doivent être tenus pour les responsables principaux, comme pour n’importe quelle technique. Les questions éthiques et juridiques reliées à l’IA sont aujourd’hui passionnément discutées un peu partout. C’est un champ de recherche académique en pleine croissance et de nombreux gouvernements et organismes multinationaux ont émis des lois et règlement pour encadrer le développement et l’utilisation de l’IA.
Parmi les précurseurs de l’intelligence artificielle, il y a incontestablement Pierre Lévy. Le philosophe a pensé dès 1987 la révolution à venir dans son essai « la Machine univers » et travaille désormais à un métalangage qui permettrait aux humains de se servir de l’IA, et non l’inverse.
Au risque d’user un peu plus la célèbre formule de Jacques Derrida employée jadis au sujet du communisme, un spectre hante non pas l’Europe mais le monde intellectuel. Depuis quelques mois, tel un monolithe noir apparu soudainement aux quatre coins de l’univers, deux voyelles sont sur toutes les lèvres et dans toutes les consciences. Ce I et ce A ne cessent en effet de se manifester avec, pour dernière occurrence, l’annonce que la plateforme Amazon limite désormais à trois par jour la publication de livres produits au moyen d’intelligences artificielles sur son outil Kindle Direct Publishing. Afin, nous fait-elle savoir, de ne pas être totalement submergée par la production de livres sans auteur, générés automatiquement, donc.
On ne reviendra pas sur le fait qu’il ne s’agit ni d’intelligence ni même d’artifice, nous préférons saluer ici une œuvre totalement humaine, ancienne et malheureusement en grande partie oubliée bien qu’elle constitue aujourd’hui un outil indispensable pour comprendre le monde dans lequel nous venons d’entrer. En 1987, un chercheur en sciences de l’information et de la communication nommé Pierre Lévy publiait un essai de philosophie au titre prémonitoire « la Machine univers »(La Découverte), allusion à l’ordinateur alors en train de s’installer dans les foyers des Français et à un vieux rêve de l’humanité : calculer la totalité du monde.
Pierre Lévy en 2023
Lire cet ouvrage aujourd’hui provoque un électrochoc car tout y est : la prise de pouvoir actuelle du calcul sur le langage au cours de laquelle « le réel est ici pratiquement appréhendé comme un modèle parmi une prolifération de modèles possibles », « la mathématisation des phénomènes » entraînant la création de « micromondes numériques » et de « systèmes experts », totem actuel des promoteurs de l’IA, prémices d’un « univers omnicalculant » capable de « goûter les capacités sensibles de l’homme ». Il y est question de Wittgenstein, d’Aristote et de Turing et cela reste parfaitement compréhensible pour les personnes qui, comme moi, ont mis un certain temps à comprendre le principe du copier-coller.
On peut également y lire des phrases sublimes comme « l’éternité d’un singe dactylographe produira peut-être les œuvres complètes de Shakespeare » ou « il reste que le virtuel disloque partout la banquise des possibles ». Bien sûr, on sent l’auteur fasciné par le phénomène à venir : la naissance d’un « logos anonyme, une même et intarissable voix derrière les masques de l’histoire, un souffle au gré de qui se lèvent ou vont mourir des armées de mots, d’hommes et de dieux », vent sombre qui, maintenant qu’il nous frôle, plonge une partie des lecteurs dont je suis dans la peur ou l’expectative.
Trois décennies plus tard, il reste à savoir à quoi cet auteur, ancien élève de Michel Serres et de Cornelius Castoriadis, occupe désormais ses journées. Ayant pris le sujet de l’intelligence artificielle à bras-le-corps, il construit depuis 2006 un métalangage baptisé IEML, pour Information Economy Meta Language, afin que l’intelligence collective humaine, c’est-à-dire vous et moi, puisse se nourrir de la puissance de calcul des IA et non l’inverse. Eu égard à notre capacité réduite de compréhension de certains enjeux tels que la création d’un « protocole sémantique », nous préférons lui laisser la parole dans cette vidéo à partir de 20 minutes.
Et nous accrocher à ces mots de Pierre Lévy, écrits en 1990 : alors que « l’utopie technicienne rêve d’un monde synchrone, sans délais, sans frictions ni perte » mû par le calcul, nous préférons jurer fidélité à la langue « toile infiniment compliquée où se propagent, se divisent et se perdent les fulgurations lumineuses du sens ».
Cette entrée de blog propose le texte de ma conférence d’ouverture du Forum “Montréal Connecte” d’octobre 2023 consacré à l’intelligence collective à support numérique. Pour ceux qui préfèrent la vidéo, elle est là (ça commence à la vingtième minute) : https://www.youtube.com/watch?v=dTMU-j8nYio&t=7s
INTRODUCTION
Il y a maintenant presque 30 ans j’ai publié un livre consacré à l’intelligence collective à support numérique qui était, modestie à part, le premier à traiter ce sujet. Dans cet ouvrage, je prévoyais que l’Internet allait devenir le principal medium de communication, que cela provoquerait un changement de civilisation, et je disais que le meilleur usage que nous pouvions faire des technologies numériques était d’augmenter l’intelligence collective (et j’ajoute : une intelligence collective émergente, de type “bottom up”).
Le public de ma conférence d’ouverture à “Montreal Connecte” le 10 octobre 2023
A cette époque moins de 1% de l’humanité était branchée sur l’Internet alors que nous avons aujourd’hui – en 2023 – dépassé les deux tiers de la population mondiale connectée. Le changement de civilisation semble assez évident, bien qu’il faille attendre normalement plusieurs générations pour confirmer ce type de mutation, sans oublier que nous ne sommes qu’au commencement de la révolution numérique. Quant à l’augmentation de l’intelligence collective, de nombreux pas ont été franchis pour mettre les connaissances à la portée de tous (Wikipédia, le logiciel libre, les bibliothèques et les musées numérisés, les articles scientifiques en accès libre, certains aspects des médias sociaux, etc.). Mais beaucoup reste à faire. Utiliser l’intelligence artificielle pour augmenter l’intelligence collective semble une voie prometteuse, mais comment avancer dans cette direction ? Pour répondre à cette question de manière rigoureuse, je vais devoir définir préalablement quelques concepts.
QU’EST-CE QUE L’INTELLIGENCE?
Avant même de traiter la relation entre l’intelligence collective humaine et l’intelligence artificielle, essayons de définir en quelques mots l’intelligence en général et l’intelligence humaine en particulier. On dit souvent que l’intelligence est la capacité de résoudre des problèmes. A quoi je réponds: oui, mais c’est aussi et surtout la capacité de concevoir ou de construire des problèmes. Or si l’on a un problème c’est que l’on essaye d’obtenir un certain résultat et que l’on est confronté à une difficulté ou à un obstacle. Autrement dit, il y a un soi, un même, qu’on appellera l’« Un », qui est pourvu d’une logique interne, qui doit se maintenir dans certaines limites homéostatiques, qui a des finalités immanentes comme la reproduction, l’alimentation ou le développement et il y a un « Autre », une extériorité, qui obéit à une logique différente, qui se confond avec l’environnement ou qui appartient à l’environnement de l’Un et avec qui l’Un doit transiger. L’entité intelligente doit avoir une certaine autonomie, sinon elle ne serait pas intelligente du tout, mais cette autonomie n’est pas une autarcie ou une indépendance absolue car, dans ce cas, elle n’aurait aucun problème à résoudre et n’aurait pas besoin d’être intelligente.
Figure 1
Le rapport entre l’Un et l’Autre peut se ramener à une communication ou une interaction entre des entités qui sont régies par des manières d’être, des codes, des finalités hétérogènes et qui imposent donc un processus incertain et perfectible de codage et de décodage, processus qui engendre forcément des pertes, des créations et qui est soumis à toutes sortes de bruits et de parasitages.
L’entité intelligente n’est pas forcément un individu, ce peut être une société ou un écosystème. D’ailleurs, à l’analyse, on trouvera souvent à sa place un écosystème de molécules, de cellules, de neurones, de modules cognitifs, et ainsi de suite. Quant au rapport entre l’Un et l’Autre, il constitue la maille élémentaire d’un réseau écosystémique quelconque. L’intelligence est le fait d’un écosystème en relation avec d’autres écosystèmes, elle est collective par nature. En somme le problème revient à optimiser la communication avec un Autre hétérogène en fonction des finalités de l’Un et la solution n’est autre que l’histoire effective de leurs relations.
LES COUCHES DE COMPLEXITÉ DE L’INTELLIGENCE
Nous nous interrogeons principalement sur l’intelligence humaine augmentée par le numérique. N’oublions pas, cependant que notre intelligence repose sur des couches de complexité bien antérieures à l’apparition de l’espèce Homo sur la Terre. Les couches de complexité organique et animale sont toujours actives et indispensables à notre propre intelligence puisque nous sommes des êtres vivants pourvus d’un organisme et des animaux pourvus d’un système nerveux. C’est d’ailleurs pourquoi l’intelligence humaine est toujours incarnée et située.
Figure 2
Avec les organismes, viennent les propriétés bien connues d’autoreproduction, d’auto-référence et d’auto-réparation qui s’appuient sur une communication moléculaire et sans doute aussi des formes de communication électromagnétique complexe. Je ne développerai pas ici le thème de l’intelligence organique. Qu’il suffise de signaler que certains chercheurs en biologie et en écologie parlent désormais d’une “cognition végétale”.
Le développement du système nerveux découle des nécessités de la locomotion. Il s’agit d’abord d’assurer la boucle sensori-motrice. Au cours de l’évolution, cette boucle réflexe s’est complexifiée en simulation de l’environnement, évaluation de la situation et calcul décisionnel menant à l’action. L’intelligence animale résulte d’un pli de l’intelligence organique sur elle-même puisque le système nerveux cartographie et synthétise ce qui se passe dans l’organisme et le contrôle en retour. L’expérience phénoménale naît de cette réflexion.
En effet, le système nerveux produit une expérience phénoménale, ou conscience, qui se caractérise par l’intentionnalité, à savoir le fait de se rapporter à quelque chose qui n’est pas forcément l’animal lui-même. L’intelligence animale se représente l’autre. Elle est habitée par des images sensorielles multimodales (cénesthésie, toucher, goût, odorat, audition, vue), le plaisir et la douleur, les émotions, le cadrage spatio-temporel indispensable à la locomotion, le rapport à un territoire, une communication sociale souvent complexe. Il est clair que les animaux sont capables de reconnaître des proies, des prédateurs ou des partenaires sexuels et d’agir en conséquence. Ceci n’est possible que parce que des circuits neuronaux codent des schémas d’interaction ou concepts qui orientent, coordonnent et donnent sens à l’expérience phénoménale.
L’INTELLIGENCE HUMAINE
Je viens d’évoquer l’intelligence animale, qui repose sur le système nerveux. Comment caractériser l’intelligence humaine, supportée par le codage symbolique ? Les catégories générales, concepts et schémas d’interaction qui étaient simplement codés par des circuits neuronaux dans l’intelligence animale sont maintenant aussi représentés dans l’expérience phénoménale par l’intermédiaire des systèmes symboliques, dont le plus important est le langage. Des images signifiantes (paroles, écrits, représentations visuelles, gestes rituels…) représentent des concepts abstraits et ces concepts peuvent se combiner syntaxiquement pour former des architectures sémantiques complexes.
Figure 3
Dès lors, la plupart des dimensions de l’expérience phénoménale humaine – y compris la sensori-motricité, l’affectivité, la spatio-temporalité et la mémoire – se projettent sur les systèmes symboliques et sont contrôlées en retour par la pensée symbolique. L’intelligence et la conscience humaines sont réflexives. En outre, pour que se forme cette pensée symbolique, il faut que des systèmes symboliques, qui sont toujours d’origine sociale, soient internalisés par les individus, deviennent partie intégrante de leur psychisme et s’inscrivent “en dur” dans leurs systèmes nerveux. Il en résulte que la communication symbolique embraye directement sur les systèmes nerveux humains. Nous ne pouvons pas ne pas comprendre ce que dit quelqu’un si nous connaissons la langue. Et les effets sur nos émotions et nos représentations mentales sont quasi inévitables. On pourrait également prendre l’exemple de la synchronisation psycho-physique et affective produite par la musique. C’est pourquoi la cohésion sociale humaine est au moins aussi forte que celle des animaux eusociaux comme les abeilles et les fourmis.
On remarquera que la figure 3, comme plusieurs des figures qui vont suivre, évoque un partage et une interdépendance entre virtuel et actuel. En 1995, j’ai publié un livre sur le virtuel qui était à la fois une méditation philosophique et anthropologique sur le concept de virtualité et un essai de mise au travail de ce concept sur des objets contemporains. Ma thèse philosophique est simple : ce qui n’est que possible, mais non réalisé, n’existe pas. Par contraste, ce qui n’est que virtuel mais non actualisé existe. Le virtuel, ce qui est en puissance, abstrait, immatériel, informationnel ou idéal pèse sur les situations, conditionne nos choix, provoque des effets et entre dans une dialectique ou dans un rapport d’interdépendance avec l’actuel.
L’ÉCOSYSTÈME DE L’INTELLIGENCE COLLECTIVE
La figure 4 ci-dessous cartographie les principaux pôles de l’intelligence collective humaine ou, si l’on préfère, la culture qui vient avec la pensée symbolique. Le diagramme est organisé par deux symétries qui se croisent. La première symétrie – binaire – est celle du virtuel et de l’actuel. L’actuel est plongé dans l’espace et le temps, il est plutôt concret alors que le virtuel est plutôt abstrait et n’a pas d’adresse spatio-temporelle. La seconde symétrie – ternaire – est celle du signe, de l’être (l’interprétant) et de la chose (le référent), qui est inspiré du triangle sémiotique. La chose est ce que représente le signe et l’être est le sujet pour qui le signe représente la chose. A gauche (signe) se tiennent les systèmes symboliques, le savoir et la communication ; au milieu (être) se dressent la subjectivité, l’éthique et la société ; à droite (chose) s’étendent la capacité de faire, l’économie, la technique, la dimension physique. Il s’agit bien d’intelligence collective parce que les six sommets de l’hexagone sont interdépendants: les lignes vertes (les relations) sont aussi importantes, sinon plus, que les points où elles aboutissent.
Figure 4
Cette grille de lecture est valable pour la société en général mais également pour n’importe quelle communauté particulière. Au passage, virtuel, actuel, signe, être et chose sont (avec le vide) les primitives sémantiques du langage IEML (Information Economy MetaLanguage) que j’ai inventé et dont je dirai quelques mots plus bas.
Les six sommets de l’hexagone ne sont pas seulement les principaux points d’appui de l’intelligence collective humaine, ce sont aussi des univers de problèmes à résoudre:
problèmes de création de connaissance et d’apprentissage
problèmes de communication
problèmes de législation et d’éthique
problèmes sociaux et politiques
problèmes économiques
problèmes techniques, problèmes de santé et d’environnement.
Comment résoudre ces problèmes?
LE CYCLE AUTO-ORGANISATEUR DE L’INTELLIGENCE COLLECTIVE
La Figure 5 ci-dessous représente un cycle de résolution de problème en quatre étapes. Pour chacune des quatre phases du cycle (délibération, décision, action et observation), il existe un grand nombre de procédures différentes selon les traditions et les contextes où opère l’intelligence collective. Vous remarquerez que la délibération représente la phase virtuelle du cycle alors que l’action en représente la phase actuelle. Dans ce modèle, la décision fait la transition entre le virtuel et l’actuel tandis que l’observation passe de l’actuel au virtuel. Je voudrais insister ici sur deux concepts, la délibération et la mémoire, auxquels il arrive qu’on ne prête pas assez attention dans ce contexte.
Figure 5
Soulignons d’abord l’importance de la délibération, qui ne consiste pas seulement à discuter des meilleures solutions pour surmonter les obstacles mais aussi à construire et conceptualiser les problèmes de manière collaborative. Cette phase de conceptualisation va fortement impacter et même définir une bonne part des phases suivantes, elle va aussi déterminer l’organisation de la mémoire.
En effet, vous voyez sur le diagramme de la Figure 5 que la mémoire se trouve au centre du processus d’auto-organisation de l’intelligence collective. La mémoire partagée vient en appui de chacune des phases du cycle et contribue au maintien de la coordination, de la cohérence et de l’identité de l’intelligence collective. La communication indirecte par l’intermédiaire d’un environnement partagé est l’un des principaux mécanismes qui sous-tend l’intelligence collective des sociétés d’insectes, que l’on appelle la communication stigmergique dans le vocabulaire des éthologues. Mais alors que les insectes laissent généralement des traces de phéromones dans leurs environnements physiques pour guider l’action de leurs congénères, nous laissons des traces symboliques et cela non seulement dans le paysage mais aussi dans des dispositifs de mémoire spécialisés comme les archives, les bibliothèques et aujourd’hui les bases de données. Le problème de l’avenir de la mémoire numérique est devant nous : comment concevoir cette mémoire de telle sorte qu’elle soit la plus utile possible à notre intelligence collective?
VERS UNE INTELLIGENCE ARTIFICIELLE AU SERVICE DE L’INTELLIGENCE COLLECTIVE
Ayant acquis quelques notions de l’intelligence en général, des fondements de l’intelligence humaine et de la complexité de notre intelligence collective, nous pouvons maintenant nous interroger sur la relation de notre intelligence avec les machines.
Figure 6
La figure 6 propose une vue d’ensemble de notre situation. Au milieu, le « vivant » : les populations humaines, avec les corps actuels et les esprits virtuels des individus. Immédiatement au contact des individus, les machines matérielles (ou corps mécanique) du côté actuel et, du côté virtuel, les machines logicielles (ou esprit mécanique). Les machines matérielles jouent de plus en plus un rôle d’interface ou de medium entre nous et les écosystèmes terrestres. Quant aux machines logicielles, elles sont en train de devenir le principal intermédiaire – un médium encore une fois – entre les populations humaines et les écosystèmes d’idées avec lesquelles nous vivons en symbiose. Quant à la conscience collective, nous n’y sommes pas encore. Elle représente plus un horizon, une direction d’évolution à viser qu’une réalité. Il faut comprendre la Figure 6 en y ajoutant mentalement des boucles de rétroaction ou d’interdépendance entre les couches adjacentes, entre le virtuel et l’actuel, entre le mécanique et le vivant. Sur un plan éthique, on peut faire l’hypothèse que les collectivités humaines vivantes reçoivent les bienfaits des écosystèmes terrestres et des écosystèmes d’idées en proportion du travail et du soin qu’elles apportent à leur entretien.
L’AUTOMATISATION DE L’INTELLIGENCE
Effectuons un zoom avant sur notre environnement mécanique avec la Figure 7. Une machine est un dispositif technique construit par les humains, un automate qui bouge ou fonctionne “tout seul”. Aujourd’hui les deux types de machines – logicielles et matérielles – sont interdépendantes. Elles ne pourraient pas exister l’une sans l’autre et elles sont en principe contrôlées par les collectivités humaines dont elles augmentent les capacités physiques et mentales. Parce que la technique externalise, socialise et réifie les fonctions organiques et psychiques humaines elle peut parfois paraître autonome ou à risque de s’autonomiser, mais c’est une illusion d’optique. Derrière “la machine” il faut entrevoir l’intelligence collective et les rapports sociaux qu’elle réifie et mobilise.
Figure 7
Les machines mécaniques sont celles qui transforment le mouvement, à commencer par la voile, la roue, la poulie, le levier, les engrenages, les ressorts, etc. Citons comme exemples de machines purement mécaniques les moulins à eau ou à vent, les horloges classiques, les presses à imprimer de la Renaissance ou les premiers métiers à tisser.
Les machines énergétiques sont celles qui transforment l’énergie en impliquant de la chaleur ou de l’électricité. Citons les fours, les forges, les machines à vapeur, les moteurs à explosion, les moteurs électriques, et les procédés contemporains pour produire, transmettre et stocker l’électricité.
Quand aux machines électroniques, elles contrôlent l’énergie et la matière au niveau des champs électromagnétiques et des particules élémentaires et servent bien souvent à contrôler les machines de couches inférieures dont, par ailleurs, elles dépendent. Pour ce qui nous intéresse ici, ce sont principalement les centres de données (le “cloud”), les réseaux et les appareils qui sont directement au contact des utilisateurs finaux (le “edge”) tels qu’ordinateurs, téléphones, consoles de jeux, casques de réalité virtuelle et autres.
Abordons la partie virtuelle qui correspond à la mémoire partagée que nous avions mise au centre de notre description du cycle auto-organisateur de l’action collective. Si l’échange de messages point à point a toujours lieu, la majeure part de la communication sociale s’effectue désormais de manière stigmergique dans la mémoire numérique. Nous communiquons par l’intermédiaire de la masse océanique de données qui nous rassemble. Chaque lien que nous créons, chaque étiquette ou hashtag apposée sur une information, chaque acte d’évaluation ou d’approbation, chaque « j’aime », chaque requête, chaque achat, chaque commentaire, chaque partage, toutes ces opérations modifient subtilement la mémoire commune, c’est-à-dire le magma inextricable des rapports entre les données. Notre comportement en ligne émet un flux continuel de messages et d’indices qui transforment la structure de la mémoire, contribuent à orienter l’attention et l’activité de nos contemporains et entraîne les intelligences artificielles. Mais tout cela se fait aujourd’hui d’une manière plutôt opaque, qui ne rend pas justice à la nécessaire phase de délibération et de conceptualisation consciente qui serait celle d’une intelligence collective idéale.
La mémoire comprend avant tout les données qui sont produites, retrouvées, explorées et exploitées par l’activité humaine. Les interfaces Homme-Machine représentent le “front-end” sans lequel rien n’est possible. Elles déterminent directement ce qu’on appelle l’expérience de l’utilisateur. Entre les interfaces et les données, s’interposent principalement deux types de modèles d’intelligence artificielle, les modèles neuronaux et les modèles symboliques. Nous avons vu plus haut que l’intelligence humaine « naturelle » reposait notamment sur un codage neuronal et sur un codage symbolique. Or nous retrouvons ces deux types de codage, ou plutôt leur transposition électronique, à la couche de la mémoire numérique. Remarquons que ces deux approches, neuronale et symbolique, existaient déjà aux premiers temps de l’IA, dès le milieu du XXe siècle.
Les modèles neuronaux sont entraînés sur la multitude des données numériques disponibles et ils en extraient automatiquement des patterns de patterns qu’aucun programmeur humain n’aurait pu tirer au clair. Conditionnés par leur entraînement, les algorithmes peuvent alors reconnaître et produire des données correspondant aux formes apprises. Mais parce qu’ils ont abstrait des structures plutôt que de tout enregistrer, les voici capables de catégoriser correctement des formes (d’image, de texte, de musique, de code…) qu’ils n’ont jamais rencontrées et de produire une infinité d’arrangements symboliques nouveaux. C’est pourquoi l’on parle d’intelligence artificielle générative. L’IA neuronale synthétise et mobilise la mémoire commune. Bien loin d’être autonome, elle prolonge et amplifie l’intelligence collective qui a produit les données. Ajoutons que des millions d’utilisateurs contribuent au perfectionnement des modèles en leur posant des questions et en commentant les réponses qu’ils en reçoivent. On peut prendre l’exemple de Midjourney, dont les utilisateurs s’échangent leurs consignes (prompts) et améliorent constamment leurs compétences en IA. Les serveurs Discord de Midjourney sont aujourd’hui les plus populeux de la planète, avec plus d’un million d’utilisateurs. On commence à observer un phénomène semblable autour de DALLE 3. Une nouvelle intelligence collective stigmergique émerge de la fusion des médias sociaux, de l’IA et des communautés de créateurs. Ce sont des exemples d’une contribution consciente de l’intelligence collective humaine à des dispositifs d’intelligence artificielle.
De nombreux modèles pré-entraînés généralistes sont open-source et plusieurs méthodes sont aujourd’hui utilisées pour les raffiner ou les ajuster à des contextes particuliers, que ce soit à partir de consignes élaborées, d’un entraînement supplémentaire avec des données spéciales ou au moyen de feed-back humain, ou d’une combinaison de ces méthodes. En somme nous disposons aujourd’hui des premiers balbutiements d’une intelligence collective neuronale, qui émerge à partir d’un calcul statistique sur les données. Observons toutefois que les modèles neuronaux, aussi utiles et pratiques qu’ils soient, ne sont malheureusement pas des bases de connaissance fiables. Ils reflètent forcément l’opinion commune et les biais que charrient les données. Du fait de leur nature probabiliste, ils commettent toutes sortes d’erreurs. Enfin, ils ne savent pas justifier leur résultats et cette opacité n’est pas faite pour inciter à la confiance. L’esprit critique est donc plus que jamais nécessaire, surtout si les données d’entrainement sont de plus en plus produites par l’IA générative, ce qui crée un dangereux cercle vicieux épistémologique.
Intéressons-nous maintenant aux modèles symboliques. On les appelle de différents noms : collections de tags ou d’étiquettes, classifications, ontologies, graphes de connaissance ou réseaux sémantique. Ces modèles peuvent se ramener à des concepts explicites et à des relations tout aussi explicites entre ces concepts, y compris des relations causales. Ils permettent d’organiser les données sur un plan sémantique en fonction des besoins pratiques des communautés utilisatrices et ils autorisent le raisonnement automatique. Avec cette approche, on obtient des connaissances fiables, explicables, directement adaptées à l’usage que l’on vise. Les bases de connaissances symboliques sont de merveilleux moyens de partage des savoirs et des compétences, et donc d’excellents outils d’intelligence collective. Le problème vient de ce que les ontologies ou graphes de connaissances sont créées “à la main”. Or la modélisation formelle de domaines de connaissance complexes est difficile. La construction de ces modèles prend beaucoup de temps à des experts hautement spécialisés et coûte donc cher. La productivité de ce travail intellectuel est faible. D’autre part, s’il existe une interopérabilité au niveau des formats de fichiers pour les métadonnées sémantiques (ou systèmes de classification), cette interopérabilité n’existe pas au niveau proprement sémantique des concepts, ce qui cloisonne l’intelligence collective. On utilise Wikidata pour les applications encyclopédiques, schema.org pour les sites web, le modèle CIDOC-CRM pour les institutions culturelles, etc. Il existe des centaines d’ontologies incompatibles d’un domaine à l’autre et souvent même au sein d’un même domaine.
Cela fait des années que de nombreux chercheurs plaident en faveur de modèles hybrides neuro-symboliques afin de bénéficier des avantages des deux approches. Mon message est le suivant: si nous voulons avancer vers une intelligence collective à support numérique digne de ce nom et qui se tienne à la hauteur de nos possibilités techniques contemporaines, il nous faut :
Renouveler l’IA symbolique en augmentant la productivité du travail de modélisation formelle et en décloisonnant les métadonnées sémantiques.
Coupler cette IA symbolique renouvelée avec l’IA neuronale en plein développement.
Mettre cette IA hybride encore inédite au service de l’intelligence collective.
IEML : VERS UNE BASE DE CONNAISSANCE SÉMANTIQUE
Nous avons automatisé et mutualisé la reconnaissance et la génération automatique de formes, qui est plutôt d’essence neuronale. Comment pouvons-nous automatiser et mutualiser la conceptualisation, qui est plutôt d’essence symbolique? Comment faire travailler ensemble la conceptualisation formelle par des êtres pensants et la reconnaissance de formes qui émerge des statistiques?
Figure 8
Parce que notre intelligence collective repose de plus en plus sur une mémoire numérique commune, cela fait trente ans que je cherche ce que pourrait être un système de coordonnées sémantiques pour la mémoire numérique, un système de métadonnées qui permettrait l’automatisation des opérations de conceptualisation et la mutualisation des modèles conceptuels.
Or la seule chose qui soit capable de générer tous les concepts que l’on voudra tout en maintenant la compréhension réciproque, c’est une langue. Mais les langues naturelles sont irrégulières, ambiguës et leur sémantique n’est pas calculable. J’ai donc construit une langue – IEML (Information Economy MetaLanguage) – dont les relations sémantiques internes sont des fonctions des relations syntaxiques. IEML est à la fois une langue et une algèbre. Cette langue est faite pour faciliter et automatiser autant que possible la construction de modèlessymboliques tout en assurant leur interopérabilité sémantique. En somme c’est un outil permettant d’automatiser et de mutualiser la conceptualisation qui a vocation à servir de système de métadonnées sémantiques universel.
Nous pouvons maintenant répondre à notre question principale : comment utiliser l’intelligence artificielle pour augmenter l’intelligence collective? Il faut imaginer un écosystème de bases de connaissances sémantiques organisées selon l’architecture décrite sur la figure 8. Vous voyez qu’entre l’interface Homme-Machine et les données s’interposent trois couches. Au centre la couche des métadonnées sémantiques organise les données sur un plan symbolique et permet, grâce à sa structure algébrique, toutes sortes de calculs uniformes de type logique, analogique et sémantique. Nous savons que la modélisation symbolique est difficile et les éditeurs d’ontologies contemporains ne facilitent pas vraiment la tâche. C’est pourquoi, sous la couche des métadonnées je propose d’utiliser un modèle neuronal pour traduire les systèmes de signes naturels en IEML et vice versa ce qui favoriserait l’édition et l’inspection la plus intuitive possible des modèles sémantiques. Entre la couche des métadonnées et celle des données se trouve encore un modèle neuronal qui permettra la génération automatique de données à partir de consignes (prompts) en IEML. En sens inverse, le modèle neuronal effectuerait la classification automatique des données et leur intégration dans le modèle sémantique de la communauté utilisatrice. Notons que les propriétés algébriques d’IEML visent notamment un perfectionnement de l’apprentissage neuronal.
L’interface Homme-Machine immersive utilisant des signes naturels permettrait à tout un chacun de collaborer à la conceptualisation des modèles au niveau des métadonnées sémantiques et de générer les données appropriées au moyen de consignes (prompts) transparentes. Enfin, cette base de connaissance automatiserait la catégorisation, l’exploitation et l’exploration multimédia des données.
Une telle approche permettrait à chaque communauté de s’organiser selon son propre modèle sémantique tout en supportant la comparaison et l’échange de concepts et de sous-modèles. En somme, un écosystème de bases de connaissances sémantiques utilisant IEML maximiserait simultanément, (1) l’augmentation de la productivité intellectuelle par l’automatisation partielle de la conceptualisation, (2) la transparence des modèles et l’explicabilité des résultats, si importantes d’un point de vue éthique, (3) la mutualisation des modèles et des données grâce à un système de coordonnées sémantique commun, (4) la diversité et la liberté créative puisque les réseaux de concepts formulés en IEML peuvent se différentier et se complexifier à volonté. Un beau programme pour l’intelligence collective. J’appelle de mes vœux une mémoire numérique qui nous permettra de cultiver des écosystèmes d’idées divers, féconds et d’en récolter le maximum de fruits pour le développement humain.
Pierre Lévy lors de la conférence du 10 Octobre 2023. Photo: Luc Courchesne.
Comment penser la nouvelle sphère publique numérique? Je commencerai par évoquer le contexte anthropologique et démographique du basculement de la sphère publique dans l’environnement numérique. Dans un second temps, j’analyserai les nouvelles formes de mémoire et de communication supportées par le nouveau médium. J’évoquerai ensuite les figures de la domination et de l’aliénation propres à ce milieu de communication. Je terminerai, comme il se doit, par quelques perspectives d’émancipation.
1 Le contexte
Une nouvelle époque de la culture
Un des facteurs principaux de l’évolution des écosystèmes d’idées réside dans le dispositif matériel de production et de reproduction des symboles, mais aussi dans les systèmes « logiciels » d’écriture et de codage de l’information. Au cours de l’histoire, les symboles (avec les idées qu’ils portaient) ont été successivement pérennisés par l’écriture, allégés par l’alphabet et le papier, multipliés par l’imprimerie et les médias électriques.
A chaque étape, de nouvelles formes politiques sont apparues : villes, palais-temples et premiers états avec l’écriture, empires et cités avec l’alphabet ou le papier, états nations avec l’imprimerie et les médias électroniques.
Les symboles sont aujourd’hui numérisés et calculés, c’est-à-dire qu’une foule de robots logiciels – les algorithmes – les enregistrent, les comptent, les traduisent et en extraient des patterns. Les objets symboliques (textes, images fixes ou animées, voix, musiques, programmes, etc.) sont non seulement enregistrés, reproduits et transmis automatiquement, ils sont aussi générés et transformés de manière industrielle. En somme, l’évolution culturelle nous a menés au point où les écosystèmes d’idées se manifestent sous l’avatar de données animées par des algorithmes dans un espace virtuel ubiquitaire. Et c’est dans cet espace que se nouent, se maintiennent et se dénouent les liens sociaux, là que se jouent désormais les drames de la Polis…
Le basculement démographique
L’hypothèse d’une mutation anthropologique rapide et de grande ampleur se fonde sur des données quantitatives qui ne prêtent pas à controverse.
Accès aux ordinateurs
Concernant l’accès aux ordinateurs, on peut considérer que 0,1 pour cent de la population mondiale avait un accès direct à un ordinateur en 1975 (avant la révolution de l’ordinateur personnel). Cette proportion se montait à 20% dans les pays riches en 1990 (avant la révolution du Web). En 2022, pour les pays européens, la proportion oscillait entre 65% (Grèce) et 95% (Luxembourg). A noter que ces derniers chiffres ne prennent pas en compte les téléphones portables.
Accès à l’Internet
La proportion de la population mondiale qui avait accès à l’Internet était d’environ 1% en 1990 (donc avant le Web), de 4% en 1999, de 24% en 2009, de de 51% en 2018 et de 65% en 2023. Selon l’Organisation internationale des télécommunications, environ 5 milliards de personnes sont des internautes. Toujours pour 2023, mais seulement en Europe, la proportion de la population branchée à l’Internet se monte à 93% (ce sont les données de l’Union Européenne).
Prise de connaissance des nouvelles
Pour compléter ces statistiques avec des données concernant plus directement la politique, 40% des européens et 50% des américains et canadiens prennent connaissance des nouvelles par les médias sociaux (je dis bien les médias sociaux et pas l’Internet en général). On dépasse partout les 50% pour les moins de quarante ans. Pour les données spécifiques concernant la lecture des journaux par opposition à la lecture de textesen ligne, les moins de trente ans lisent les nouvelles en ligne à 80% (données du Pew Research Center).
2 Mémoire et communication numérique
La nouvelle sphère publique
En somme, moins d’un siècle après l’invention des premiers ordinateurs, plus de soixante cinq pour cent de la population mondiale est branchée à l’internet et la mémoire du monde est numérisée. Qu’une information se trouve en un point du réseau et la voici partout. Du texte statique sur papier, nous sommes passé à l’hypertexte ubiquitaire, puis à l’Architexte surréaliste qui rassemble tous les symboles. Une mémoire virtuelle s’est mise à croître, secrétée par des milliards de vivants et de morts, fourmillant de langues, de musiques et d’images, grosse de rêves et de fantasmes, mêlant la science et le mensonge. La nouvelle sphère publique est multimédia, interactive, mondiale, fractale, stigmergique et – désormais – médiée par l’intelligence artificielle.
La nouvelle sphère publique est mondiale. Aussi bien le web que les grands médias sociaux comme Facebook, Twitter, LinkedIn, Telegram, Reddit, etc. sont internationaux et multilingues. La traduction automatique a atteint un point ou l’on peut maintenant comprendre, avec quelques erreurs, ce qu’un internaute écrit dans une autre langue. J’ajoute que, parallèlement à la traduction, la synthèse automatique de longs textes progresse, ce qui ajoute à la porosité des diverses bulles cognitives et sémantiques.
La sphère publique numérique est fractale, c’est-à-dire qu’elle se subdivise en sous-groupes, eux-mêmes subdivisés en sous-groupes, et ainsi de suite récursivement, avec toutes les réunions et intersections imaginables. Ces subdivisions recoupent des distinctions de plateformes, de langues, de zones géographiques, de centres d’intérêts, d’orientations politiques, etc. On peut donner comme exemples les groupes Facebook ou LinkedIn, les serveurs Discord, les canaux YouTube ou Telegram, les communautés de Reddit, etc.
L’intelligence collective stigmergique
Si l’échange de messages point à point a toujours lieu, la majeure part de la communication sociale s’effectue désormais de manière stigmergique. La notion de stigmergie est une des clés de la compréhension du fonctionnement de la sphère publique numérique. On distingue traditionnellement trois schémas de communication : un-un, un-plusieurs et plusieurs-plusieurs. Le schéma un-un correspond au dialogue, au courrier postal classique ou au téléphone traditionnel. Le schéma un-plusieurs décrit le dispositif où un éditeur/émetteur central envoie ses messages à une masse de récepteurs dits « passifs ». Ce dernier schéma correspond à la presse, au disque, à la radio et à la télévision. Internet représente une rupture parce qu’il permet à l’ensemble des participants d’émettre pour un grand nombre de récepteurs selon un schéma en réseau décentralisé « plusieurs vers plusieurs ». Cette dernière description est néanmoins trompeuse. En effet, si tout le monde émet pour tout le monde (ce qui est le cas), tout le monde ne peut pas écouter tout le monde. Ce qui se passe en réalité est que les internautes contribuent à alimenter une mémoire commune et prennent connaissance en retour du contenu de cette mémoire par l’intermédiaire de procédures de recherche et de sélection automatisées. Ce sont les fameux algorithmes de Google, (Page Rank), de Facebook, de Twitter, d’Amazon (recommandations), etc.
L’étymologie grecque explique assez bien le sens du mot « stigmergie » : des marques (stigma) sont laissées dans l’environnement par l’action ou le travail (ergon) de membres d’une collectivité, et ces marques guident en retour – et récursivement – leurs actions. Le cas classique est celui des fourmis qui laissent une traîne de phéromones sur leur passage lorsqu’elles ramènent de la nourriture à la fourmilière. L’odeur des phéromones incite d’autres fourmis à remonter leurs traces pour découvrir le butin et ramener des vivres à la ville souterraine en laissant par terre à leur tour un message parfumé.
On peut prétendre que toute forme d’écriture qui n’est pas précisément adressée est une forme de communication stigmergique : des traces sont déposées pour une lecture à venir et font office de mémoire externe d’une communauté. Si le phénomène est fort ancien, il a pris depuis le début du siècle une nouvelle ampleur. Plongés dans la nouvelle sphère publique numérique, nous communiquons par l’intermédiaire de la masse océanique de données qui nous rassemble. Les encyclopédistes de Wikipédia et les programmeurs de GitHub collaborent par l’intermédiaire d’une même base de données. A notre insu, chaque lien que nous créons, chaque étiquette ou hashtag apposée sur une information, chaque acte d’évaluation ou d’approbation, chaque « j’aime », chaque requête, chaque achat, chaque commentaire, chaque partage, toutes ces opérations modifient subtilement la mémoire commune, c’est-à-dire le magma inextricable des rapports entre les données. Notre comportement en ligne émet un flux continuel de messages et d’indices qui transforment la structure de la mémoire et contribuent à orienter l’attention et l’activité de nos contemporains. Nous déposons dans l’environnement virtuel des phéromones électroniques qui déterminent en boucle l’action des autres internautes et qui entraînent par-dessus le marché les neurones formels des intelligences artificielles (IA).
Le rôle de l’Intelligence artificielle dans la nouvelle sphère publique
Le cerveau biologique abstrait le détail des expériences actuelles en schémas d’interactions, ou concepts, codés par des patterns de circuits neuronaux. De la même manière, les modèles neuronaux de l’IA condensent les données innombrables de la mémoire numérique. Ils virtualisent les données actuelles en patterns et en patterns de patterns. Conditionnés par leur entraînement, les algorithmes peuvent alors reconnaître et reproduire des données correspondant aux formes apprises. Mais parce qu’ils ont abstrait des structures plutôt que de tout enregistrer, les voici capables de conceptualiser correctement des formes (d’image, de textes, de musique, de code…) qu’ils n’ont jamais rencontrées et de produire une infinité d’arrangements symboliques nouveaux. C’est pourquoi l’on parle d’intelligence artificielle générative.
La mémoire numérique est détachée de son lieu d’émission et de réception, mise en commun, en attente de lecture, suspendue dans les “nuages” de l’Internet, logicielle. Cette masse de donnée est maintenant compressée par des modèles neuronaux. Et les patterns cachés dans les myriades de couches et de connexions des cerveaux électroniques font retomber en pluie des objets symboliques inédits. Nous ne semons des données que pour récolter du sens.
L’IA nous offre un nouvel accès à la mémoire numérique mondiale. C’est aussi une manière de mobiliser cette mémoire pour automatiser des opérations symboliques de plus en plus complexes, impliquant l’interaction d’univers sémantiques et de systèmes de comptabilité hétérogènes.
3 Le côté obscur
L’état-plateforme et la nouvelle bureaucratie dans les nuages
Si les analyses qui précèdent ont quelque validité, le pouvoir politique se joue pour une bonne part dans la sphère publique numérique. Or son contrôle ultime se trouve « dans les nuages », aux mains des bureaucraties célestes qui calculent les interactions sociales et la mémoire. Les nuages, c’est-à-dire les réseaux de centres de données possédées par l’oligopole des GAFAM, BATX et compagnie. C’est pourquoi les prétendants à l’hégémonie politique mondiale, essentiellement les américains et les chinois, s’allient avec les seigneurs des données – ou les soumettent – parce que les oligarques numériques détiennent le contrôle matériel de la mémoire mondiale et de la sphère publique. Eux seuls ont d’ailleurs la capacité de mémoire et la puissance de calcul nécessaires à l’entraînement des modèles d’IA généraux dits « fondationnels ». Ce que j’appelle un État-Plateforme résulte de l’imbrication d’une super-puissance politique avec une fraction de l’oligarchie numérique.
La bureaucratie des nuages est plus efficace que celle des états-nations, héritée de l’ère de l’imprimerie. Déjà, plusieurs fonctions gouvernementales ou régaliennes sont assurées par les grandes plateformes ou par des réseaux numériques « décentralisés ». La liste qui suit n’est pas close :
Vérification de l’identité des personnes, reconnaissance faciale
Cartographie et cadastre
Création monétaire
Régulation du marché
Éducation et recherche
Fusion de la défense et de la cyberdéfense
Contrôle de la sphère publique, censure, propagande, “nudge” (coup de pouce statitique)
Surveillance
Biosurveillance
Les médias sociaux : addictions et manipulations
Notre allégeance aux seigneurs des données vient de la puissance de leurs centres de calcul, de leur efficacité logicielle et de la simplicité de leurs interfaces. Elle trouve aussi sa source dans notre dépendance à une architecture sociotechnique toxique, qui utilise la stimulation dopaminergique et les renforcements narcissiques addictifs de la communication numérique pour nous faire produire toujours plus de données. On sait combien, de ce point de vue, la santé mentale des populations adolescentes est à risque. En plus de la biopolitique évoquée par Michel Foucault, il faut donc maintenant considérer une psychopolitique à base de neuromarketing, de données personnelles et de gamification du contrôle.
Il faut s’y faire : la Polis a basculé dans la grande base de données mondiale de l’Internet. Dès lors, les luttes de pouvoir – toutes les luttes de pouvoir, qu’elles soient économiques, politiques ou culturelles – sont reconduites et compliquées dans le nouvel espace numérique. Sur le terrain glissant des médias sociaux, les camps qui s’affrontent disposent leurs armées de trolls coordonnées en temps réel, équipées de bots dernier cri, renseignées par l’analyse automatique des données et augmentées par l’apprentissage machine. Dans la guerre civile mondiale qui fait rage, politique intérieure et extérieure inextricablement mêlées, les nouveaux mercenaires sont les influenceurs.
Mais toutes ces nouveautés n’invalident pas les règles classiques de la propagande, toujours d’actualité : répétition continuelle, simplicité des mots d’ordre, images mémorables, provocation affective et résonnance identitaire. Personne n’oublie non plus les conseils avisés de Machiavel pour amener l’ennemi à s’auto-détruire : « La guerre secrète consiste à se mettre dans la confidence d’une ville divisée, à se porter pour médiateur entre les deux partis jusqu’à ce qu’ils en viennent aux armes : et quand l’épée est enfin tirée à donner des secours prudemment dosés au parti le plus faible, autant dans le but de faire durer la guerre et de les laisser se consumer les uns par les autres, que pour se garder, par un secours trop massif, de révéler son dessein de les opprimer et de les maîtriser tous deux également. Si l’on suit soigneusement cette marche, on arrive presque toujours à son but. »[1]
La tête baissée sur nos smartphones, nous faisons tourner en boucle les stéréotypes qui renforcent nos identités éclatées et nos mémoires courtes sous le regard narquois des experts de l’intoxication, communicants stipendiés, spécialistes du marketing et agents d’influence géopolitiques…
IA et domination culturelle
Poursuivons cette revue des côtés obscurs de la nouvelle sphère publique par les enjeux de domination culturelle liés à l’Intelligence artificielle. On parle beaucoup des « biais » de tel ou tel modèle d’intelligence artificielle, comme s’il pouvait exister une IA non-biaisée ou neutre. Cette question est d’autant plus importante que, comme je l’ai suggéré plus haut, l’IA devient notre nouvelle interface avec les objets symboliques : stylo universel, lunettes panoramiques, haut-parleur général, programmeur sans code, assistant personnel. Les grands modèles de langue généralistes produits par les plateformes dominantes s’apparentent désormais à une infrastructure publique, une nouvelle couche du méta-médium numérique. Ces modèles généralistes peuvent être spécialisés à peu de frais avec des jeux de données issues d’un domaine particulier et de méthodes d’ajustement. On peut aussi les munir de bases de connaissances dont les faits ont été vérifiés.
Les résultats fournis par une IA découlent donc de plusieurs facteurs qui contribuent tous à son orientation ou si l’on préfère, à ses « biais ». a) Les algorithmes proprement dits sélectionnent les types de calcul statistique et les structures de réseaux neuronaux. b) Les données d’entraînement favorisent les langues, les cultures, les options philosophiques, les partis-pris politiques et les préjugés de toutes sortes de ceux qui les ont produites. c) Afin d’aligner les réponses de l’IA sur les finalités supposées des utilisateurs, on corrige (ou on accentue!) « à la main » les penchants des données par ce que l’on appelle le RLHF (Reinforcement Learning from Human Feed-back – en français : apprentissage par renforcement à partir d’un retour d’information humain). d) Finalement, comme pour n’importe quel outil, l’utilisateur détermine les résultats au moyen de consignes en langue naturelle (les fameux prompts). Il faut noter que des communautés d’utilisateurs s’échangent et améliorent collaborativement de telles consignes. La puissance de ces systèmes n’a d’égal que leur complexité, leur hétérogénéité et leur opacité. Le contrôle règlementaire de l’IA, sans doute nécessaire, semble difficile.
4 Perspectives d’émancipation
Littéracie numérique et pensée critique
Malgré tout ce qui vient d’être dit, la sphère publique du XXIe siècle est plus ouverte que celle du XXe siècle : les citoyens des pays démocratiques y jouissent d’une grande liberté d’expression et peuvent choisir leurs sources d’information parmi un vaste éventail de spécialisations thématiques, de langues et d’orientations politiques. Cette liberté d’expression et d’information, la nouvelle puissance distribuée de création et d’analyse de données, sans oublier les possibilités de coordination sociale offertes par le nouveau médium, tout cela ne représente que des potentialités émancipatrices. Seule une véritable éducation à la pensée critique dans le nouvel environnement de communication permettra d’actualiser ce potentiel de citoyenneté renouvelée. Pour fixer les idées, une étude de la BBC a récemment montré que 50% des jeunes gens de 12 à 16 ans croient aux nouvelles partagées sur les médias sociaux sans les vérifier. Et nous savons d’expérience que les enfants ne sont pas les seuls sujets crédules. Idéalement, la nouvelle éducation à la pensée critique devrait enseigner aux futurs citoyens à s’organiser comme de petites agences de renseignement autonomes qui rangent leurs centres d’intérêts par ordre de priorité, sélectionnent soigneusement des sources diversifiées, analysent les données à partir d’hypothèses explicites et maintiennent une classification pertinente de leur mémoire numérique personnelle. Il faut apprendre à discerner les sources de données en termes de catégories organisatrices, de récits dominants et d’agendas. On inculquera le réflexe journalistique élémentaire de croiser les sources ainsi identifiées. Enfin, les élèves devraient être entraînés à l’intelligence collective stigmergique et à l’apprentissage collaboratif.
Pour une gouvernance de la sphère publique numérique
Je me contenterai ici d’indiquer quelques grandes orientations d’une nécessaire gouvernance de la nouvelle sphère publique plutôt que de déterminer précisément les moyens d’y parvenir. Si le pilotage par gros temps peut nécessiter de nombreux détours, le cap est clair : il s’agit de perfectionner, autant que possible, la dimension réflexive d’une intelligence collective déjà en acte.
A l’appui de cette finalité, la transparence des processus en ligne semble une condition sine qua non. Je vise en particulier, mais pas seulement, une description claire, brève et en langue naturelle des algorithmes et des données d’entraînement des IA.
A l’exemple de Wikimédia, efforçons-nous de maximiser les « communs » de la connaissance.
Ouvrons les jeux de données et les algorithmes selon la voie tracée par le mouvement du logiciel libre.
Assurons la souveraineté pratique et légale des individus et des groupes sur les données qu’ils produisent.
Enfin, décentralisons la gouvernance des interactions en ligne en favorisant les procédures consensuelles. Le mouvement social qui porte la blockchain indique ici un chemin possible.
Afin d’apporter ma pierre au projet d’une intelligence collective réflexive j’ai inventé une langue (IEML, Information Economy MetaLanguage) ayant la même capacité d’expression et de traduction que les langues naturelles mais qui a aussi la régularité d’une algèbre, permettant ainsi un calcul de la sémantique. Cette langue pourrait servir de système de coordonnées sémantique à la nouvelle sphère publique. Elle contribuerait ainsi à transformer la mémoire numérique en miroir de nos intelligences collectives. Dès lors, une boucle de rétroaction plus fluide entre les écosystèmes d’idées et les communautés qui les entretiennent nous rapprocherait de l’idéal d’une intelligence collective réflexive au service du développement humain et d’une démocratie renouvelée. Il ne s’agit pas d’entretenir quelque illusion sur la possibilité d’une transparence totale, mais plutôt d’ouvrir la voie à l’exploration critique d’un univers de sens infini.
[1] Discours sur la première décade de Tite-Live. La Pléiade, Gallimard, Paris, p. 588
J’ai montré dans un post précédent, l’importance contemporaine de la curation collaborative de données. Les compétences dans ce domaine sont au coeur de la nouvelle litéracie algorithmique. La figure 1 présente ces compétences de manière systématique et, ce faisant, elle met en ordre les savoir-faire intellectuels et pratiques tout comme les « savoir-être » éthiques qui supportent l’augmentation de l’intelligence collective en ligne. L’étoile évoque le signe, le visage l’être et le cube la chose (sur ces concepts voir ce post). La table est organisée en trois rangées et trois colonnes interdépendantes. La première rangée explicite les fondements de l’intelligence algorithmique au niveau personnel, la seconde rappelle l’indispensable travail critique sur les sources de données et la troisième détaille les compétences nécessaires à l’émergence d’une intelligence collective augmentée par les algorithmes. L’intelligence personnelle et l’intelligence collective travaillent ensemble et ni l’une ni l’autre ne peuvent se passer d’intelligence critique ! Les colonnes évoquent trois dimensions complémentaires de la cognition : la conscience réflexive, la production de signification et la mémoire. Aucune d’elles ne doit être tenue pour acquise et toutes peuvent faire l’objet d’entraînement et de perfectionnement. Dans chaque case, l’item du haut pointe vers un exercice de virtualisation tandis que celui du bas indique une mise en oeuvre actuelle de la compétence, plus concrète et située. Je vais maintenant commenter le tableau de la figure 1 rangée par rangée.
L’intelligence personnelle
La notion d’intelligence personnelle doit ici s’entendre au sens d’une compétence cognitive individuelle. Mais elle tire également vers la signification du mot « intelligence » en anglais. Dans ce dernier sens, elle désigne la capacité d’un individu à mettre en place son propre système de renseignement.
La gestion de l’attention ne concerne pas seulement l’exercice de la concentration et l’art complémentaire d’éviter les distractions. Elle inclut aussi le choix réfléchi de priorités d’apprentissage et le discernement de sources d’information pertinentes. Le curateur lui-même doit décider de ce qui est pertinent et de ce qui ne l’est pas selon ses propres critères et en fonction des priorités qu’il s’est donné. Quant à la notion de source, est-il besoin de souligner ici que seuls les individus, les groupes et les institutions peuvent être ainsi qualifiés. Seuls donc ils méritent la confiance ou la méfiance. Quant aux médias sociaux, ce ne sont en aucun cas des sources (contrairement à ce que croient certains journalistes) mais plutôt des plateformes de communication. Prétendre, par exemple, que « Twitter n’est pas une source fiable », n’a pas plus de sens que l’idée selon laquelle « le téléphone n’est pas une source fiable ».
L’interpretation des données relève également de la responsabilité des curateurs. Avec tous les algorithmes statistiques et tous les outils d’analyse automatique de données (« big data analytics ») du monde, nous aurons encore besoin d’hypothèses causales, de théories et de systèmes de catégorisation pour soutenir ces théories. Les corrélations statistiques peuvent suggérer des hypothèses causales mais elles ne les remplacent pas. Car nous voulons non seulement prédire le comportement de phénomènes complexes, mais aussi les comprendre et agir sur la base de cette compréhension. Or l’action efficace suppose une saisie des causes réelles et non seulement la perception de corrélations. Sans les intuitions et les théories dérivées de notre connaissance personnelle d’un domaine, les outils d’analyse automatique de données ne seront pas utilisés à bon escient. Poser de bonnes questions aux données n’est pas une entreprise triviale !
Finalement, les données collectionnées doivent être gérées au plan matériel. Il nous faut donc choisir les bons outils d’entreposage dans les « nuages » et savoir manipuler ces outils. Mais la mémoire doit être aussi entretenue au niveau conceptuel. C’est pourquoi le bon curateur est capable de créer, d’adopter et surtout de maintenir un système de catégorisation qui lui permettra de retrouver l’information désirée et d’extraire de ses collections la connaissance qui lui sera utile.
L’intelligence critique
L’intelligence critique porte essentiellement sur la qualité des sources. Elle exige d’abord un travail de critique « externe ». Nous savons qu’il n’existe pas d’autorité transcendante dans le nouvel espace de communication. Si nous ne voulons pas être trompé, abusé, ou aveuglé par des oeillères informationnelles, il nous faut donc autant que possible diversifier nos sources. Notre fenêtre d’attention doit être maintenue bien ouverte, c’est pourquoi nous nous abonnerons à des sources adoptant divers points de vue, récits organisateurs et théories. Cette diversité nous permettra de croiser les données, d’observer les sujets sur lesquelles elles se contredisent et ceux sur lesquelles elles se confirment mutuellement.
L’évaluation des sources demande également un effort de décryptage des identités : c’est la critique « interne ». Pour comprendre la nature d’une source, nous devons reconnaître son système de classification, ses catégories maîtresses et son récit organisateur. En un sens, une source n’est autre que le récit autour duquel elle organise ses données : sa manière de produire du sens.
Finalement l’intelligence critique possède une dimension « pragmatique ». Cette critique est la plus dévastatrice parce qu’elle compare le récit de la source avec ce qu’elle fait réellement. Je vise ici ce qu’elle fait en diffusant ses messages, c’est-à-dire l’effet concret de ses actes de communication sur les conversations en cours et l’état d’esprit des participants. Je vise également les contributions intellectuelles et esthétiques de la source, ses interactions économiques, politiques, militaires ou autres telles qu’elles sont rapportées par d’autres sources. Grâce à cette bonne mémoire nous pouvons noter les contradictions de la source selon les moments et les publics, les décalages entre son récit officiel et les effets pratiques de ses actions. Enfin, plus une source se montre transparente au sujet de ses propres sources d’informations, de ses références, de son agenda et de son financement et plus elle est fiable. Inversement, l’opacité éveille les soupçons.
L’intelligence collective
Je rappelle que l’intelligence collective dont il est question ici n’est pas une « solution miracle » mais un savoir-faire à cultiver qui présuppose et renforce en retour les intelligences personnelles et critiques.
Commençons par définir la stigmergie : il s’agit d’un mode de communication dans lequel les agents se coordonnent et s’informent mutuellement en modifiant un environnement ou une mémoire commune. Dans le médium algorithmique, la communication tend à s’établir entre des pairs qui créent, catégorisent, critiquent, organisent, lisent, promeuvent et analysent des données au moyen d’outils algorithmiques. Il s’agit bien d’une communication stigmergique parce que, même si les personnes dialoguent et se parlent directement, le principal canal de communication reste une mémoire commune que les participants exploitent et transforment ensemble. Il est utile de distinguer entre les mémoires locale et globale. Dans la mémoire « locale » de réseaux ou de communautés particulières, nous devons prêter attention à des contextes et à des histoires singulières. Il est également recommandé de tenir compte des contributions des autres participants, de ne pas aborder des sujets non-pertinents pour le groupe, d’éviter les provocations, les explosions d’agressivité, les provocations, etc.
Quant à la mémoire « globale », il faut se souvenir que chaque action dans le médium algorithmique réorganise – même de façon infinitésimale – la mémoire commune : lire, taguer, acheter, poster, créer un hyperlien, souscrire, s’abonner, « aimer », etc. Nous créons notre environnement symbolique de manière collaborative. Le bon agent humain de l’intelligence collective gardera donc à la conscience que ses actions en ligne contribuent à l’information des autres agents.
La liberté dont il est question dans la figure 1 se présente comme une dialectique entre pouvoir et responsabilité. Le pouvoir recouvre notre capacité à créer, évaluer, organiser, lire et analyser les données, notre aptitude à faire évoluer la mémoire commune à partir de la multitude distribuée de nos actions. La responsabilité se fonde sur une conscience réfléchie de notre pouvoir collectif, conscience qui informe en retour l’orientation de notre attention et le sens que nous donnons à l’exercice de nos pouvoirs.
FIGURE 2
L’apprentissage collaboratif
Finalement, l’apprentissage collaboratif est un des processus cognitifs majeurs de l’intelligence collective et le principal bénéfice social des habiletés en curation de données. Afin de bien saisir ce processus, nous devons distinguer entre savoirs tacites et savoirs explicites. Les savoirs tacites recouvrent ce que les membres d’une communauté ont appris dans des contextes particuliers, les savoir-faire internalisés dans les réflexes personnels à partir de l’expérience. Les savoirs explicites, en revanche, sont des récits, des images, des données, des logiciels ou d’autres ressources documentaires, qui sont aussi clairs et décontextualisés que possible, afin de pouvoir être partagés largement.
L’apprentissage collaboratif enchaîne deux mouvements. Le premier consiste à traduire le savoir tacite en savoir explicite pour alimenter une mémoire commune. Dans un second mouvement, complémentaire du premier, les participants exploitent le savoir explicite et les ressources d’apprentissage disponibles dans la mémoire commune afin d’adapter ces connaissances à leur contexte particulier et de les intégrer dans leurs réflexes quotidiens. Les curateurs sont potentiellement des étudiants ou des apprenants lorsqu’ils internalisent un savoir explicite et ils peuvent se considérer comme des enseignants lorsqu’ils mettent des savoirs explicites à la disposition des autres. Ce sont donc des pairs (voir la figure 2) qui travaillent dans un champ de pratique commun. Ils transforment autant que possible leur savoir tacite en savoir explicite et travaillent en retour à traduire la partie des connaissances explicites qu’ils veulent acquérir en savoir pratique personnel. J’écris “autant que possible” parce que l’explicitation totale du savoir tacite est hors de portée, comme l’a bien montré Michael Polanyi.
Dans le médium algorithmique, le savoir explicite prend la forme de données catégorisées et évaluées. Le cycle de transformation des savoirs tacites en savoirs explicites et vice versa prend place dans les médias sociaux, où il est facilité par une conversation créative civilisée : les compétences intellectuelles et sociales (ou morales) fonctionnent ensemble !
Danah Boyd (@zephoria sur Twitter) est chercheuse chez Microsoft et enseigne à Harvard. C’est une des plus brillantes chercheuses américaines sur le thème des médias sociaux. Son dernier ouvrage It’s Complicated, the social lives of networked teens (Yale, 2014) est consacré à démonter les mythes concernant les adolescents sur les médias sociaux. Ce travail de sociologie fort solide est fondé sur dix ans d’enquête de terrain (interviews, observations) et de sérieuses études en sciences sociales.
Au lieu de céder à la panique morale devant les prétendues incongruités émises par les ados sur My Space, Facebook, Twitter, Instagram et autres, Boyd prend un soin infini à reconstituer les contextes micro-sociologiques et macro-culturels qui leur donnent sens. La fameuse question de la vie privée sur Facebook, généralement posée de manière abstraite, est ramenée à la situation concrète des adolescents américains. Ces derniers sont coincés entre l’école et la maison – deux univers généralement très régulés – et ils sont peu libres d’interagir entre eux comme ils le veulent. C’est pourquoi ils travaillent activement à se construire des espaces publics sui generis en ligne qu’ils peuplent de leurs pairs. Et tant pis si les posts sont accessibles à tous et permanents. L’« addiction » aux gadgets ou aux réseaux sociaux fait les choux gras des médias traditionnels, des psy et des moralistes grincheux. Mais Boyd trouve plus pertinent d’évoquer une sociabilité adolescente brimée qui trouve à s’exprimer en ligne que d’utiliser le vocabulaire de la psychiatrie. Les loups-garous favoris des journalistes, à savoir les « prédateurs sexuels sur Internet » et « l’intimidation en ligne » (appelée aussi cyber-bullying) sont ramenés à leur juste proportion. L’immense majorité des enfants et adolescents victimes d’abus sexuels ont été brutalisés par des figures familières de leur entourage immédiat et non par des inconnus rencontrés en ligne. Après avoir lu Boyd, on ne confondra plus les farces un peu corsées, les drames affectifs et les échanges rituels d’insultes sur les réseaux sociaux avec la véritable intimidation (qui s’exerce systématiquement d’un fort sur un faible) et qui est somme toute assez rare. Dans les cas où les jeunes sont vraiment en danger, le médium social s’avère plutôt protecteur puisque les abuseurs peuvent être facilement retracés par la police avec l’aide des administrateurs des réseaux.
Après avoir dégonflé les peurs, Boyd s’attache à refroidir les espérances illusoires. Non, la communication par Internet ne fait pas disparaître miraculeusement les inégalités économiques et sociales, ni le racisme, ni les passions toxiques, qui s’exercent et se manifestent en ligne comme ailleurs. Non, les « digital natives » ne sont pas tous des geeks, ils ne savent pas forcément utiliser les outils disponibles en ligne et ils ne font pas preuve d’un esprit critique à toute épreuve devant les flots d’information. Ne confondons pas la familiarité avec un médium et la connaissance approfondie de la manière de s’en servir. La ligne de partage ne passe pas par la date de naissance mais par la culture générale et l’éducation aux médias numériques.
Au-delà de l’effort louable pour contrer la désinformation journalistique et pour rassurer les parents et les éducateurs, le livre de Boyd nous offre un riche accès aux données de son enquête. La présence (un peu redondante) de ce matériau quasi ethnographique a l’avantage de permettre au lecteur qui ne partage pas tous les présupposés de l’auteur d’approfondir sa réflexion sur le médium algorithmique et de tirer ses propres conclusions. Pour ma part, la lecture de cet ouvrage confirme l’idée selon laquelle nous vivons déjà à l’ère data-centrique, dans laquelle les relations sociales passent de plus en plus par les algorithmes et les données. Etant symbolisés par des bits disponibles et computables, les rapports sociaux sont ainsi mis en transparence (pour le meilleur ou pour le pire). Il est clair que cette évolution ouvre de nouvelles avenues économiques, politiques et militaires, mais aussi scientifiques. Un jour, les humanités numériques devront dépasser les belles visualisations de réseaux sociaux pour exploiter en profondeur toutes ces données au moyen d’hypothèses théoriques novatrices et surtout pour renvoyer aux internautes des images utiles des processus socio-cognitifs dans lesquels ils sont engagés. It’s complicated permet aussi de commencer à réfléchir avec quelque recul sur les déclencheurs non-techniques de l’explosion de popularité des médias sociaux au tournant des XXe et XXIe siècles. Les communautés virtuelles existaient dès les années 1970, mais les médias sociaux ne sont devenus un phénomène massif à l’échelle planétaire que durant la première décennie du XXIe siècle. Les matériaux proposés par Boyd laissent entrevoir l’émergence de ce phénomène à partir de « lignes de faille » socio-démographiques. Pourquoi sont-ce les adolescents (et pas un autre groupe social) qui se sont engouffrés dans le nouvel espace d’interaction en ligne ? Sans doute parce que cette cohorte turbulente occupe un espace interstitiel entre l’âge adulte et l’enfance. Les ados ont cherché à se ménager une zone de liberté dans les réseaux qui soit protégée aussi bien des règlements scolaires que d’une lourde sollicitude parentale obsédée par la sécurité. Les explications de Boyd à ce sujet sont fondées sur une analyse minutieuse de ses entretiens avec des jeunes vivant aux USA. Nous sommes ainsi éclairés sur les évolutions récentes de la société américaine. Mais ce phénomène, qui a certes commencé aux Etats-Unis, s’est immédiatement étendu au reste du monde, où les contraintes sociales sur les adolescents sont différentes et fort variées… L’explication en termes sociologiques et démographiques est donc partielle et limitée à un seul pays. La lecture de Neurotribes (Penguin, 2015) de Steve Silverman nous suggère une autre hypothèse, qui n’est pas forcément contradictoire avec la première. Ce ne serait pas les ados en général, mais les jeunes autistes (les « aspies ») qui seraient les pionniers du développement de la sociabilité en ligne, dès les années 1980 et 1990, parce qu’ils ont trouvé là une manière de communiquer leur permettant de surmonter leur maladresse sociale ! Les minorités cognitives doivent aussi être considérées.
Dès que l’on commence à réfléchir aux causes, on se trouve immédiatement confronté à la fameuse question du « déterminisme technologique », à savoir une hérésie combattue avec force par diverses chapelles de la recherche en sciences sociales. Comme si la technologie n’était pas de la société, de la culture et de l’histoire ! De manière rituelle (et sans nul doute sincère) Boyd critique le déterminisme technologique (par exemple p. 15). Il s’agit pour elle d’assurer que des résultats socialement souhaitables – ou détestables – ne sont nullement garantis par des outils ou des procédés techniques. Nous sommes tous d’accord sur ce point de simple bon sens. Mais ne faudrait-il pas distinguer entre le conditionnement par la technique – le fait que la technique rende possible une vaste gamme de comportements et d’interactions sociales – et la détermination complète d’un phénomène social par une technique considérée indépendamment de son contexte? Si l’hypothèse d’une détermination complète est presque toujours fausse, il me semble que celle du conditionnement (une forme douce du déterminisme technologique) est bien souvent pertinente.
Le livre de Boyd intervient dans une vaste conversation publique sur la jeunesse en ligne à laquelle participent les ados, les parents, les éducateurs, les journalistes, les législateurs et l’industrie. Ici, Boyd se présente essentiellement comme la porte-parole des ados « sans voix » dans le débat civique. Mais son livre intervient aussi dans une autre conversation, plus restreinte, animée par les chercheurs qui travaillent sur les transformations culturelles liées au développement du médium algorithmique. Or nombre de ces chercheurs pensent que leur rôle est avant tout de dénoncer « le système » en général et « le capitalisme » en particulier, dont les techniques numériques sont évidemment le soutien, voire le fer de lance. Boyd paye tribut (p. 27) à la critique du capitalisme, et cela d’autant plus qu’elle doit expier le péché d’être salariée de Microsoft, mais elle nous annonce juste ensuite cette brève révérence qu’elle va considérer la société américaine telle qu’elle est, sans s’appesantir sur la dénonciation du système. Je note à ce sujet que les catégories sociales qu’elle utilise dans l’analyse de ses données (sexe, genre, race, âge, classe, etc.) sont exactement les catégories qui sont utilisées couramment par les adolescents qui sont les objets de ses recherches. En d’autres termes, elle fait de l’ethnométhodologie sans le dire. Cela donne un texte hyper américain, dans lequel les étiquettes classantes de la culture locale (teen, white, latino, black, bi-racial, queer, etc.) sont admises comme naturelles. Or, paradoxalement, c’est précisément son acceptation de la réalité sociale telle qu’elle est et des catégories sociales telles qu’elles sont utilisées par les acteurs eux-mêmes qui donne à son texte son efficacité politique… et donc sa portée critique concrète ! J’en arrive finalement à une réflexion concernant la posture dénonciatrice d’un grand nombre d’intellectuels et d’universitaires qui se spécialisent dans l’analyse du numérique. Un Morozov écrase de son mépris d’intellectuel européen les ingénieurs américains et les publicistes effervescents et superficiels de la Silicon Valley qui n’ont pas lu Latour et qui s’imaginent qu’on peut régler des problèmes politiques complexes avec des gadgets. Mais n’est pas Walter Benjamin ou Theodor Adorno qui veut… Par contraste, Boyd essaye de résoudre des problèmes en faisant travailler ensemble l’industrie, les politiques, les sciences sociales et les humanités. Il n’est pas sûr que les sombres prophètes de l’apocalypse culturelle et les dénonciateurs systématiques (que l’on trouve aussi bien aux USA qu’en Amérique Latine, en Europe et en Asie) soient, au bout du compte, les meilleurs représentants d’une véritable pensée critique, capable de projeter et d’aménager la civilisation en émergence.
BIBLIOGRAPHIE
Adorno, Theodor et Horkheimer, Max, La dialectique de la raison, Gallimard, 1974 (version originale en allemand : 1947).
Benjamin, Walter, «L’œuvre d’art à l’époque de sa reproductibilité technique», dernière version 1939, in Œuvres III, Gallimard, 2000.
Boyd, Dana, It’s complicated, the social lives of networked teens, Yale UP, 2014
Latour, Bruno, Science in Action, Harvard UP, 1987
Lehn, Dirk vom, Harold Garfinkel:The Creation and Development of Ethnomethodology, Left Coast Press, 2014.
Morozov, Evgeni, To Save Everything, Click Here: The Folly of Technological Solutionism, Public Affairs, 2013
Silberman, Steve, NeuroTribes: The Legacy of Autism and the Future of Neurodiversity, Penguin, 2015
I had several meetings with people engaged in teaching, training and policy coordination related to « TIC and education ».
Argentina has a big state-led program (Connectar Igualidad) to give a computer to every student in secondary education. I visited the warehouse where these computers are packed and sent to the students and I had a look at the mainly « open » applications included in the package. I visited also Canal Encuentro, the state-run educational television, where a team related to the program « Connectar Igualidad » is building one portal for educators and another one for the students. These portals are supposed to provide learning resources and tools for communication and collaboration.
STORIES FROM MY PERSONAL EXPERIENCE
During this trip I had, at several occasions, the opportunity to speak about my own experience in using TICs as an educator. In the various courses that I teach at the University of Ottawa, I ask my students to participate to a closed Facebook group, to register on Twitter (and to follow me: @plevy), to use a collaborative repository in the cloud (a social bookmarking plateform or a curation plateform like Scoop.it) and to open a blog if they don’t have already one.
– The Facebook group is used to share the syllabus, our agenda, the mandatory lectures (all of them on line « at one click »), our electronic addresses (Twitter, blog, collaborative memory plateform), the questions asked by the students, etc. The students can participate to the collective writing and editing of « mini-wikis » inside the FB group. They are invited to suggest good reads related to the course by adding commented links.
– Twitter is used through a careful use of hashtags. I use it for quick real-time feed-back during the course: to check what the students have understood. Then, every 2 or 3 weeks, I invite students to look back at their collective traces on Twitter to recollect what they have learned and to ask questions if something is not clear. I experimented also a « twitter exam » where the students have to evaluate my tweets: no reaction if my tweet is false, a favorite if it contain some truth, a retweet if they agree and a retweet plus a favorite if they strongly agree. After having reviewed the tweets and their responses, I ask to the students what are – according to them – their worst possible errors of appreciation. The final evaluation of the exam (that is, of their reactions to my tweets) is made by applying to the students the rules that they have determined themselves! Finally I teach them the practical use of Twitter lists.
– The collaborative repository in the cloud (Diigo, Scoop.it) is used to teach the sudents the use of categories or « tags » to organize a common long-term memory, as opposed to the ephemeral information on popular social media.
– The blogs are used as a way to display the assignments. The students are encouraged to add images and links. For the last assignment they have to describe – from their own point of view – the main points that they have learned during the course.
At the end of a semester, the students have not only acquired knowledge about the subject matter, they also improved their collaborative learning skills in a trans-platform environment!
MY TAKE-AWAY ADVICE FOR IBERTIC AND THE EDUCATIONAL COMMUNITY IN ARGENTINA
A social network is a human reality
As « how » once told me: a social network is neither a platform nor a software: it is a human reality. In the same vein, building a closed platform is in no way a solution to collaboration, training, learning or communication problems. The solution is to grow a « community of practice » or a « collaborative learning network » that will use all the available and relevant platforms, including face to face meetings and well known commercial platforms that are available at no cost.
There is no such thing as an educational technology
There are no educational technologies. There are only educational or learning uses of technology. The most important things are not the technologies by themselves (software, platforms, resources) but the educational practices and the effective collaborative learning processes.
The new literacy
The new intellectual literacy encompasses all collaborative data curation skills, including attention management, formal modeling, memory management, critical thinking, stimergic communication, etc. It is neither a discipline nor a specialized knowledge but a consistent set of transversal competencies that should be strengthened in all kinds of learning practices. Of course, this literacy cannot be taught by people who do not master it!
Staying motivated despite constraints
The educational community faces a lot of constraints, particularly in not so rich countries:
– lack of infrastructure (hardware, software, connectivity),
– lack of institutional facilitation (innovation and openness are praised in theory but not encouraged in practise),
– lack of knowledge and skills on the educator’s side.
The educator should consider herself / himself as an artist transforming these constraints into beauty through a creative process. Do what you can in your circonstances. There are no perfect method, software or platform that will solve all the problems magically in every environment and context. Teaching is itself an open-ended (collaborative) learning process.
I recommand this video in spanish about Personal Learning Environments