Archives for posts with tag: intelligence collective

L’intelligence artificielle est mystérieuse : on lui parle et elle semble comprendre ce qu’on lui dit. La preuve qu’elle comprend c’est qu’elle répond par un texte ou une parole qui a du sens, et parfois plus de sens que ce que pourrait articuler un humain ordinaire. Comment est-ce possible?

Brueghel, le Paradis terrestre.
Le succès des modèles de langue

Certes, les recherches sur l’intelligence artificielle datent du milieu du 20e siècle et, même si le grand public ne peut les manipuler directement que depuis 3 ans, les modèles statistiques ou neuro-mimétiques étaient déjà présents “sous le capot” d’une foule d’applications depuis les années 2010. Mais le type d’application grand public que tout le monde appelle maintenant “l’IA” n’est apparu qu’en 2022. Il faut d’abord prendre la mesure du phénomène sur un plan quantitatif. À la fin de 2025, il y avait déjà 700 millions d’utilisateurs hebdomadaires de ChatGPT et 150 millions d’utilisateurs actifs quotidiens pour l’IA générative en général. On estime que 50% des travailleurs américains utilisent des modèles de langue (ChatGPT, Claude, Perpexity, Gemini, etc.), d’ailleurs sans grande augmentation de leur productivité, sauf pour les tâches de programmation et de bureaucratie interne. Sur le plan des mœurs, l’IA s’est tellement imposée dans le paysage numérique que beaucoup de jeunes gens ont l’impression qu’elle a toujours existé. Les étudiants s’en servent pour faire leurs devoirs. Des millions de personnes ont développé une addiction au dialogue avec une machine désormais amie, confidente ou psychothérapeute. Interagir avec un modèle de langue augmente votre estime de soi!

L’interdépendance des problèmes

Tout ceci pose des problèmes éthico-politiques, géopolitiques et civilisationnels. Il est d’ailleurs possible que, dans les années à venir, de nouvelles avancées scientifiques et techniques rendent ces problèmes encore plus aigus. La puissance de mémoire et de calcul qui supporte l’IA se partage aujourd’hui entre les deux oligarchies numériques américaine et chinoise qui rivalisent d’investissements. Cette concentration économique et géopolitique soulève à juste titre l’inquiétude. Les “biais”, les mauvais usages de toutes sortes et les délires probabilistes des machines poussent à la construction de garde-fous éthiques. C’est bien. Il faut néanmoins rappeler que l’éthique ne se limite pas à apaiser les craintes ou à prévenir les nuisances mais qu’elle invite aussi à penser les bons usages et les directions de développement favorables. Avec l’IA, les questions industrielles, éthiques et cognitives sont étroitement codépendantes. C’est pourquoi il est nécessaire d’élucider l’efficace cognitive de cette technique si l’on veut comprendra pleinement ses enjeux industriels, éthico-politiques et civilisationnels.

La question

Comment se fait-il que des algorithmes statistiques, qui calculent la probabilité du mot suivant, puissent générer des textes pertinents et des dialogues engageants ? À mon sens, la solution de cette énigme se trouve dans une compréhension de ce qu’est l’intelligence humaine. Car ce sont des humains qui produisent les milliards de textes qui servent de données d’entraînement. Ce sont encore des humains qui construisent les centres de calcul, étendent les réseaux et conçoivent les algorithmes. Ce sont toujours des humains qui, par leur lecture, projettent un sens sur les textes aveuglément générés par des machines privées de conscience. Mais puisque le secret de l’IA se trouve selon moi dans l’intelligence humaine, je manquerais à ma tâche si je n’expliquais pas en quoi elle consiste.

Qu’est-ce que l’intelligence humaine ?

L’intelligence humaine est d’abord animale, c’est-à-dire qu’elle est ordonnée à la locomotion qui distingue les bêtes des plantes dépourvues de neurones. Le système nerveux organise une boucle entre la sensibilité et la motricité. Cette interface entre la sensation et le mouvement se complexifie au fur et à mesure de l’évolution, jusqu’à l’apparition du cerveau chez les animaux les plus intelligents. Ces derniers deviennent capables de cartographier leur territoire, de retenir des événements passés (ils ont une mémoire) et de simuler des événements futurs (ils ont une imagination). Le fonctionnement du cerveau produit l’expérience consciente, avec ses plaisirs et ses peines, ses répulsions et ses attractions. De là découle toute la gamme des émotions qui colorent les perceptions et induisent les actions. Assignée au mouvement, l’intelligence animale organise son expérience dans l’espace et le temps. Elle vise des buts et se réfère à des objets du monde environnant. A-t-elle affaire à une proie, à un prédateur, à un partenaire sexuel ? De la catégorisation suit le type d’interaction. Il ne fait aucun doute que l’intelligence animale conceptualise. Enfin, l’animal échange une foule de signes avec la faune et la flore de son milieu de vie et communique intensément avec les membres de son espèce.

[On trouvera un développement sur la complexité de l’expérience animale dans ma récente conférence]

L’IA ne possède aucun des caractères de l’intelligence animale : ni la conscience, ni le sens de l’espace et du temps, ni l’intentionalité de l’expérience (la finalité et la référence à des objets), ni l’aptitude à conceptualiser, ni les émotions, ni la communication. Or l’intelligence humaine comprend l’intelligence animale et possède en plus une capacité symbolique qui s’actualise dans le langage, les institutions sociales complexes et les techniques. Malgré sa singularité dans la nature, n’oublions jamais que la capacité symbolique humaine s’enracine dans une sensibilité animale dont elle ne peut se séparer.

[Pour en savoir plus sur l’ordre symbolique, écouter ma conférence sur ce sujet]

Le langage : entre sensible et intelligible

Je vais examiner plus particulièrement le langage, grâce à qui nous pouvons dialoguer, raconter des histoires, poser des questions, raisonner et spéculer sur l’invisible. Commençons par analyser la composition d’un symbole. Il comprend une partie sensible, une image visuelle ou sonore (le signifiant) et une partie intelligible ou concept (le signifié). On a vu que les animaux avaient des concepts, mais l’Homme seul représente ses concepts par des images, ce qui lui permet de les réfléchir et de les combiner à volonté. Les symboles, et en particulier les symboles linguistiques, ne sont jamais isolés mais font partie de systèmes symboliques qui sont intériorisés par les interlocuteurs. Il faut que la grammaire et le dictionnaire de notre langue commune fasse partie de nos automatismes pour que nous nous comprenions de manière fluide. Les textes appartiennent simultanément à deux mondes qu’ils connectent à leur manière : ils possèdent une adresse spatio-temporelle par leur partie sensible et ils se distribuent en d’invisibles réseaux de concepts par leur partie intelligible.

Que signifie comprendre une phrase? Prenons l’exemple simple qui suit : “Je peins la petite pièce en bleu”. Je fais d’abord correspondre au son de chaque mot son concept. Puis, à partir de la séquence parlée, je construis l’arbre syntaxique de la phrase avec, à la racine, le verbe “peins”, à la feuille-sujet le mot “je”, à la feuille-objet l’expression “la petite pièce” et à la feuille-complément de manière le mot “bleu”. Mais ce n’est pas tout. Pour vraiment comprendre “je”, il me faut savoir que la première personne a été choisie par opposition à la seconde et à la troisième personne. Pour saisir “bleu” je dois savoir que c’est une couleur et qu’elle représente une sélection parmi le paradigme des couleurs (jaune, rouge, vert, violet, etc.). Et ce n’est que par rapport à grand, long ou étroit que “petite” fait sens. Bref, dans une expression symbolique simple telle qu’une courte phrase, chaque mot occupe une place dans un arbre syntaxique et actualise un choix dans un groupe de substitutions possibles.

Les phrases sont généralement proférées par des sujets en situation d’interlocution. Mes automatismes symboliques ne se contentent pas de reconstituer le sens linguistique d’une phrase à partir d’une séquence de sons, ils projettent aussi une subjectivité, une intériorité humaine, à la source de la phrase. La parole s’élève dans le va-et-vient d’un dialogue. Je situe cette phrase dans l’histoire et l’avenir possible d’une relation, au sein d’un contexte pratique particulier. D’autre part, une expression symbolique fait le plus souvent référence à une objectivité, à une réalité extra-linguistique, voir extra-sociale. Enfin, elle éveille en moi une foule de résonnances affectives plus ou moins conscientes.

En somme, l’image symbolique, qui est sensible et matérielle, va déclancher dans l’esprit humain la production et le tissage cohérent d’un sens intelligible à partir d’une multitude de fils sémantiques : un sens conceptuel ; un sens narratif par la reconstitution d’arbres syntaxiques et de groupes de substitution paradigmatiques ; un sens intersubjectif et social ; un sens référentiel objectif ; un sens affectif et mémoriel. C’est dire que, une fois recueilli par l’intelligence humaine, un texte matériel devient solidaire de toute une complexité immatérielle, complexité qui n’est nullement aléatoire mais au contraire fortement structurée par les langues, les rituels de dialogue et les règles sociales, la logique des émotions, la cohérence contextuelle inhérente aux corpus et aux mondes de référence. La capacité des modèles de langue à « raisonner » et à répondre aux requêtes de manière pertinente est un effet de corpus, en rapport avec la priorité accordée aux données d’entraînement dialogiques et à celles qui adoptent un style démonstratif. Les énormes données d’apprentissage permettent une capture statistique des normes de discours.

Or c’est précisément cette solidarité entre la partie matérielle des textes – désormais numérisés – et leur partie immatérielle que va capter l’intelligence artificielle. N’oublions pas que seul le signifiant (les séquences de 0 et de 1) existe pour les machines. Pour elles, il n’y a ni concepts, ni récits, ni sujets, ni mondes de référence réels ou fictifs, ni émotions, ni résonnances liées à une mémoire personnelle et encore moins un quelconque enracinement dans une expérience sensible de type animal. Ce n’est que grâce à la quantité gigantesque des données d’entraînement et à l’énorme puissance des centres de calcul contemporains que les modèles statistiques parviennent à réifier la relation entre la forme sensible des textes et les multiples couches de sens que détecte spontanément un lecteur humain.

Données d’entraînement et puissance de calcul

L’IA contemporaine repose sur quatre piliers :
1) les données d’entraînement,
2) la puissance de calcul,
3) les algorithmes de traitement statistique qui simulent grossièrement des réseaux neuronaux (deep learning),
4) les résultats de divers travaux “manuels” tels que les bases de données spécialisées, les graphes de connaissances qui catégorisent et structurent les données, les retours d’évaluation in vivo qui permettent des réglages fins.

Examinons plus en détail les deux premiers piliers. Les archives et mémoires analogiques ont pour la plupart été numérisées. La plus grande partie de la mémoire collective est maintenant directement produite sous forme numérique. 68% de la population mondiale était connectée à Internet en 2025 (seuls 2% de la population mondiale l’était en 2000). La foule présente en ligne produit et consomme une quantité phénoménale d’information. Or le plus petit geste dans une application, le moindre regard vers un écran alimentent les données d’entraînement des IA. Les algorithmes sont capables de prendre en compte plusieurs pages dans leur “attention” statistique. Les vastes corpus d’entraînement fournissent des contextes élargis qui permettent de raffiner le sens des mots et des expressions au-delà de ce qu’un dictionnaire pourrait proposer. On comprend donc que les modèles de langue puissent calculer des corrélations entre signifiants matériels qui impliquent – pour un lecteur humain – les significations immatérielles correspondantes. Mais il faut mobiliser pour cela une puissance de calcul inouïe. Alphabet, Amazon, Apple, Meta, Microsoft, NVIDIA et Tesla ont dépensé plus de 100 milliards de dollars dans la construction de centres de données entre Aout et Octobre 2025. Des centrales nucléaires dédiées vont bientôt alimenter les centres de données en électricité. La puissance de calcul agrégée du monde est plusieurs millions de fois supérieure à ce qu’elle était au début du 21e siècle.

Conclusion

Récapitulons les différents aspects de l’intelligence et du travail humain qui permettent aux IA de nous donner l’impression qu’elles comprennent le sens des textes. Les industriels fabriquent les installations qui supportent la puissance de calcul. Les informaticiens conçoivent et implémentent les logiciels qui effectuent les traitements statistiques. Des ontologistes (dont je suis) créent des règles, des systèmes d’étiquettes sémantiques, des graphes de connaissance et des bases de données spécialisées qui corrigent la dimension purement probabiliste des sytèmes d’IA. Des armées d’employés trient, collectent et préparent les données, puis supervisent l’entraînements des modèles. Des testeurs raffinent les réponses données par les machines, détectent leurs biais et tentent de les réduire. Je n’ai pas encore énuméré les deux facteurs qui expliquent le mieux l’intelligence des modèles de langue. Car c’est l’intelligence collective humaine qui produit les données d’entraînement, données qui enveloppent la solidarité entre les textes et leur sens. Enfin, à partir des images signifiantes générées sur un mode probabiliste par des modèles mécaniques et inconscients, c’est bel et bien l’esprit des utilisateurs vivants qui évoque des concepts, des récits, des intentions référentielles, la cohérence d’un monde réel ou fictif, une intersubjectivité dialogante, des intuitions spatio-temporelles et enfin des émotions, toutes dimensions du sens qui sont le propre de l’intelligence humaine.

En fin de compte, l’IA fonctionne comme une interface mécanique entre l’intelligence collective qui produit les données d’entraînement et les intelligences individuelles qui interrogent les modèles, lisent leurs réponses et les utilisent. Cette interface robotique entre les intelligences personnelles vivantes et l’intelligence collective accumulée augmente aussi bien – et de manière synergique – les unes que l’autre. Tel est le secret de l’intelligence artificielle, bien caché sous la fiction d’une IA autonome, qui “dépasse” l’intelligence humaine, alors qu’elle l’exprime et l’augmente. Dans ses effets concrets, ce nouveau système d’alimentation réciproque de l’intelligence individuelle et de l’intelligence collective peut contribuer à l’abrutissement des masses paresseuses et à l’extension de la banalité, comme il peut démultiplier les capacités créatives des savants et des penseurs originaux. Entre les deux, toutes les nuances de gris sont possibles. Dans l’éventail des possibilités entre ces deux extrêmes se trouve sans doute l’ultime choix éthique qui, bien qu’il concerne chacun d’entre nous, se pose de manière encore plus aiguë pour les éducateurs qui doivent enseigner l’art de lire, d’écrire et de penser. [Voir mon entrée de blog consacrée à ce sujet].

English version: https://intlekt.io/2022/01/18/ieml-towards-a-paradigm-shift-in-artificial-intelligence/

Art: Emma Kunz

Résumé

Le but de ce texte est de présenter une vue générale des limites de l’IA contemporaine et de proposer une voie pour les dépasser. L’IA a accompli des progrès considérables depuis l’époque des Claude Shannon, Alan Turing et John von Neumann. Néanmoins, de nombreux obstacles se dressent encore sur la route indiquée par ces pionniers. Aujourd’hui, l’IA symbolique se spécialise dans la modélisation conceptuelle et le raisonnement automatique tandis que l’IA neuronale excelle dans la catégorisation automatique. Mais les difficultés rencontrées aussi bien par les approches symboliques que neuronales sont nombreuses. Une combinaison des deux branches de l’IA, bien que souhaitable, laisse encore non résolus les problèmes du cloisonnement des modèles et les difficultés d’accumulation et d’échange des connaissances. Or l’intelligence humaine naturelle résout ces problèmes par l’usage du langage. C’est pourquoi je propose que l’IA adopte un modèle calculable et univoque du langage humain, le Métalangage de l’Économie de l’Information (IEML pour Information Economy MetaLanguage), un code sémantique de mon invention. IEML a la puissance d’expression d’une langue naturelle, il possède la syntaxe d’un langage régulier, et sa sémantique est univoque et calculable parce qu’elle est une fonction de sa syntaxe. Une architecture neuro-sémantique basée sur IEML allierait les forces de l’IA neuronale et de l’IA symbolique classique tout en permettant l’intégration des connaissances grâce à un calcul interopérable de la sémantique. De nouvelles avenues s’ouvrent à l’intelligence artificielle, qui entre en synergie avec la démocratisation du contrôle des données et l’augmentation de l’intelligence collective.

Après avoir été posté sur ce blog, le texte a été publié par le Giornale Di Filosofia numéro 2.
Lien vers –> le texte complet en PDF publié sur le site du Giornale di Filosofia. Ou bien lisez le texte ci-dessous 🙂.

La pandémie de coronavirus a et continuera à avoir des effets catastrophiques non seulement sur le plan de la santé physique et de la mortalité, mais aussi dans les domaines de la santé mentale et de l’économie, avec des conséquences sociales, politiques et culturelles difficilement calculables. D’ores et déjà on peut affirmer que l’ampleur de la souffrance et de la destruction approche de celle d’une guerre mondiale.

S’il en était encore besoin, nous progressons dans la prise de conscience de l’unité et de la continuité physique d’une population humaine planétaire partageant un environnement commun. L’espace public a basculé dans le virtuel et tout un chacun participe à la communication dans les médias sociaux. Les grandes plateformes du Web et les services en ligne ont enregistré une augmentation considérable de leur utilisation et les infrastructures de communication numérique sont à la limite de leur capacité. La médecine, l’éducation, le travail et le commerce à distance sont entrés dans les moeurs, laissant entrevoir une profonde évolution des habitudes et des compétences, mais aussi une possible limitation de la pollution et des émissions de carbone. L’Internet fait plus que jamais partie des services essentiels, voire des droits humains. Pour apporter des solutions à cette crise multiforme, de nouvelles formes d’intelligence collective court-circuitent les institutions officielles et les barrières nationales, notamment dans les domaines scientifique et sanitaire.

Parallèlement, les conflits d’interprétation, guerres de l’information et batailles de propagande s’intensifient. Les fausses nouvelles – elles aussi virales – fusent de tous côtés, ajoutant à la confusion et à la panique. La manipulation honteuse ou malveillante des données accompagne les disputes idéologiques, culturelles ou nationales au milieu d’une réorganisation géopolitique globale. Les échanges mondiaux et locaux se rééquilibrent au profit des derniers. Les pouvoirs politiques se renforcent à tous les échelons de gouvernement avec une fusion remarquable des services de renseignement, de la police et de la médecine instrumentées par les communications numériques et l’intelligence artificielle. Santé publique et sécurité nationale oblige, la géolocalisation universelle des individus par téléphone portable, bracelet ou anneau se profile à l’horizon. L’identification automatique par la reconnaissance faciale ou les battements du coeur fera le reste. 

Pour équilibrer ces tendances, nous avons besoin d’une transparence accrue des pouvoirs scientifiques, politiques et économiques. L’analyse automatique des flux de données doit devenir une compétence essentielle enseignée à l’école parce qu’elle conditionne désormais la compréhension du monde. Les ressources d’apprentissage et d’analyse doivent être mises en commun et ouvertes à tous gratuitement. Une harmonisation internationale et trans-linguistique des systèmes de métadonnées sémantiques aiderait à traiter et comparer les données et supporterait des formes d’intelligence collective plus puissantes que celles que nous connaissons aujourd’hui.

Une couronne d’épine sur son crâne sanglant, l’humanité entre dans une ère nouvelle.

L’intelligence collective désigne l’augmentation des capacités cognitives des groupes humains grâce à une utilisation judicieuse des médias numériques. On vise ici la mémoire partagée, l’apprentissage collaboratif et la coordination des compétences en temps réel.
L’éthologie étudie l’intelligence collective des espèces sociales. Par exemple, les abeilles, les fourmis et les termites ont une division du travail poussée et communiquent de manière étroite. Même si les capacités cognitives d’une fourmi sont limitées, la fourmilière dans son ensemble manifeste une « intelligence émergente » qui lui permet d’apprendre et de résoudre des problèmes. Les grands singes ont un comportement social complexe et des modes de communication particulièrement développés.

Ruche

L’intelligence collective humaine se situe dans la continuité de l’intelligence collective animale, mais elle est plus perfectionnée à cause du langage, des techniques et des institutions politiques, économiques, légales et autres qui nous caractérisent. La principale différence entre les intelligences collectives animale et humaine tient à la culture, c’est-à-dire à une capacité d’apprentissage accélérée de l’espèce, dont les savoir-faire s’accumulent et se transmettent d’une génération à l’autre au moyen de signes et d’outils plutôt que par la simple évolution biologique. Aucun individu ne serait « intelligent » s’il ne participait pas à la communication sociale et s’il n’héritait pas des connaissances créées par les générations précédentes.
L’évolution culturelle a déjà franchi plusieurs seuils d’intelligence collective. En effet, les inventions de l’écriture, de l’imprimerie et des médias électroniques (enregistrement musical, téléphone, radio, télévision) ont déjà augmenté de manière irréversible nos capacités de mémoire et de communication sociale. L’intelligence collective des groupes humains n’est pas à créer, elle existe déjà et elle a derrière elle une longue histoire. Le véritable enjeu du méta medium algorithmique est donc le franchissement d’un nouveau seuil d’augmentation de l’intelligence collective.

Cuneiform

L’internet supporte de nouvelles formes d’intelligence collective pour trois grandes raisons. Premièrement, il permet une communication ubiquitaire indépendante des distances géographiques. La capacité d’émettre et de sélectionner l’information à volonté se trouve entre les mains de tous. Deuxièmement, l’internet enregistre et interconnecte progressivement la plus grande partie des connaissances produites par l’humanité, construisant ainsi une mémoire dynamique commune et participative. Troisièmement, les algorithmes traitent automatiquement l’information, ouvrant la voie à de nouvelles formes de traduction, d’analyse de données, de fouille et de filtrage collaboratif.
Une grande partie de l’intelligence collective à support numérique est implicite. Chaque fois que l’on fait une requête sur un moteur de recherche, que l’on envoie un message en ligne, que l’on crée un hyperlien, que l’on catégorise une information au moyen d’un hashtag, que l’on achète un produit en ligne ou que l’on « aime » une photo, on alimente des algorithmes qui transforment la structure de la mémoire collective et qui contribuent à orienter l’attention et l’activité des autres internautes.
Il existe aussi des formes explicites d’intelligence collective. Citons la programmation collaborative (logiciels libres, Github…), les nouvelles formes d’encyclopédie en ligne comme Wikipedia, qui rassemblent d’immenses communautés internationales de rédacteurs et d’éditeurs, les dispositifs d’apprentissage collaboratif en réseau (pédagogies innovantes, MOOCs…), les jeux en ligne massivement multi-joueurs ou les diverses applications de curation collaborative de contenu qui visent à filtrer et catégoriser les flux d’information dans une optique de gestion décentralisée des connaissances.

hashtag

Au-delà de pratiques sociales largement répandues, l’intelligence collective est également un mot d’ordre programmatique. En informatique, c’est une ligne de recherche qui fait contrepoint à l’intelligence artificielle et qui a été initié par Douglas Engelbart, l’inventeur de la souris et des premières applications de travail collaboratif. Au lieu d’essayer de rendre les ordinateurs plus intelligents que les humains, on vise ici à rendre les humains plus intelligents ensemble au moyen des ordinateurs. Dans le domaine du management de l’économie de la connaissance, l’intelligence collective se présente comme un art de maximiser simultanément la liberté créatrice et l’efficacité collaborative. En politique, il s’agit de permettre au plus grand nombre de voix singulières de se faire entendre (par opposition à l’homogénéisation partisane), de favoriser la délibération en ligne et la création rapide de réseaux de mobilisation et d’entraide.
La notion d’intelligence collective donne lieu à quelques malentendus. On lui oppose la « stupidité collective » constatée sur les réseaux sociaux. Mais parler d’intelligence collective n’implique aucun jugement de valeur. On peut noter l’augmentation des capacités cognitives des groupes sans nécessairement approuver tout ce qui se dit sur Internet. Il ne s’agit pas non plus d’attribuer une conscience autonome aux collectivités. La conscience réflexive est personnelle alors que l’intelligence collective est un phénomène social émergeant. Enfin, l’augmentation technique des capacités cognitives des groupes ne dispense nullement d’un effort personnel d’apprentissage et de création originale. Un des grands défis de l’enseignement contemporain consiste à éduquer les étudiants à une utilisation responsable des nouveaux outils de communication. Apprendre à gérer son attention, faire une analyse critique des sources auxquelles on se branche, tenir compte de la culture de ses correspondants, identifier les différents récits et leurs contradictions : tout cela contribue aussi bien aux apprentissages individuels qu’à bonifier l’intelligence collective.

Pour plus de détails sur ma théorie de l’intelligence collective, aller là!

Ce post est la version française d’un entretien en portugais (Brésil) avec le prof.  Juremir Machado da Silva

 

1 – JMDS: Le développement d’internet a pris plus de temps qu’on n’imagine, mais pour presque tout le monde internet c’est l’explosion du web pendant les années 1990. On peut dire d’une certaine façon que ça fait 30 ans qu’on est entré dans un nouvel imaginaire. Est-ce qu’il y a encore beaucoup de choses à venir ou le cycle a atteint son plafond?

PL: Internet s’est developpé de façon beaucoup plus rapide que n’importe quel autre système de communication. Il y avait moins de 1% de la population mondiale branchée au début des années 1990 et près de 45% une génération plus tard. On avance très vite vers 50% et plus…
Nous sommes seulement au début de la révolution du medium algorithmique. Au cours des générations suivantes nous allons assister à plusieurs grandes mutations. L’informatique ubiquitaire fondue dans le paysage et constamment accessible va se généraliser. L’accès à l’analyse de grandes masses de données (qui est aujourd’hui dans les mains des gouvernements et grandes entreprises) va se démocratiser. Nous aurons de plus en plus d’images de notre fonctionnement collectif en temps réel, etc. L’éducation va se recentrer sur la formation critique à la curation collective des données. La sphère publique va devenir internationale et va s’organiser par « nuages sémantiques » dans les réseaux sociaux. Les états vont passer de la forme « état-nation » à la forme « état en essaim » avec un territoire souverain et une strate déterritorialisée dans l’info-sphère ubiquitaire, les crypto-monnaies vont se répandre, etc.

2 –JMDS: On parte beaucoup d’internet des objets et de tout internet. Ce sont des vraies mutations ou juste des accélérations?

Internet peut être analysé en deux aspects conceptuellement distincts mais pratiquement interdépendants et inséparables. D’une part l’infosphère, les données, les algorithmes, qui sont immatériels et ubiquitaires : ce sont les « nuages ». D’autre part les capteurs, les gadgets, les smart-phones, les dispositifs portables de toutes sortes, les ordinateurs, les data centers, les robots, tout ce qui est inévitablement physique et localisé : les « objets ». Les nuages ne peuvent pas fonctionner sans les objets et vice versa: les objets ne peuvent pas fonctionner sans les nuages. L’Internet, c’est l’interaction constante du localisé et du délocalisé, des objets et des nuages. Tout cela est en quelque sorte logiquement déductible de l’automatisation de la manipulation symbolique au moyen de systèmes électroniques, mais nous allons de plus en plus en sentir les effets dans notre vie de tous les jours.

3 –JMDS:  Avec internet les prédictions sont déchaînées. On continue à parle de l’avenir des journaux en papier et du livre. Il y a ceux qui disent que le papier va cohabiter avec des nouveaux supports et ceux qui disent que c’est juste une question de temps pour la fin de l’imprimé. Les arguments des uns et des autres sont sérieux? Par exemple, par rapport au papier, l’affectif et l’effet de nostalgie n’y compte pas trop? C’est une affaire de génération?

PL: Je crois que la fin de la presse papier est une affaire de temps. Pour la recherche, l’éducation, l’information, tout va passer au numérique. En revanche, j’imagine qu’il va toujours y avoir des lecteurs sur papier pour des romans ou des livres rares, un peu comme il y a toujours un petit marché pour le vinyl en musique. Personnellement, j’aime lire des livres sur papier et les nouvelles sur Internet (surtout par Twitter), mais ce ne sont pas mes préférences personnelles qui sont en jeu… l’électrification, voire l’algorithmisation, de la lecture et de l’écriture sont inévitables.

4 –JMDS:  Après 30 ans de nouveautés comme les réseaux sociaux, quelle a été la grande transformation, le point principal de cette mutation?

PL: Depuis l’apparition du Web au milieu des années 1990, il n’y a pas eu de grande mutation technique, seulement une multitude de petits progrès. Sur un plan socio-politique, le grand basculement me semble le passage d’une sphère publique dominée par la presse, la radio et la télévision à une sphère publique dominée par les wikis, les blogs, les réseaux sociaux et les systèmes de curation de contenu où tout le monde peut s’exprimer. Cela signifie que le monopole intellectuel des journalistes, éditeurs, hommes politiques et professeurs est en train de s’éroder. Le nouvel équilibre n’a pas encore été trouvé mais l’ancien équilibre n’a plus cours.

5 –JMDS: Tu parles depuis beaucoup de temps d’intelligence collective et des collectifs intelligents. On voit cependant internet et ses réseaux sociaux utilisés pour le bien et pour le mal, par exemple, pour disséminer les idées radicales des extrémistes musulmans. Peut-on parler d’une « intelligence collective du mal » d’internet ou d’un outil de la bêtise universelle?

PL: Je parle d’intelligence collective pour signaler et encourager une augmentation des capacités cognitives en général, sans jugement de valeur : augmentation de la mémoire collective, des possibilités de coordination et de création de réseaux, des opportunités d’apprentissage collaboratif, de l’ouverture de l’accès à l’information, etc. Je pense que cet aspect est indéniable et que tous les acteurs intellectuels et sociaux responsables devraient se servir de ces nouvelles possibilités dans l’éducation, dans la gestion des connaissances dans les entreprises et les administrations, pour la délibération politique démocratique, etc. Il faut voir l’invention de Internet dans le prolongement de l’invention de l’écriture ou de l’imprimerie. Il s’agit d’une augmentation des capacités humaines de manipulation symbolique. Maintenant, le coeur de cette capacité c’est le langage, qui ne dépend d’aucune technique particulière et qui existe dès l’origine de l’espèce humaine. C’est grâce au langage qu’existent l’art, la culture, la religion, les valeurs, la complexité de nos institutions économiques, sociales, politiques… Mais qui dit langage dit aussi mensonge et manipulation. Qui dit valeurs dit bien ET mal, beau ET laid. Il est absurde d’imaginer qu’un instrument qui augmente les pouvoirs du langage en général ne laisserait subsister que le vrai, le bien et le beau. Vrai pour qui, bien pour qui ? Le vrai n’émerge que du dialogue ouvert des points de vue. Je dirais même plus, si l’on essayait de faire de l’Internet une machine à produire du vrai, du bien et du beau, on ne parviendrait qu’à un projet totalitaire, d’ailleurs voué à l’échec.

6 –JMDS:  Dans les réseaux sociaux la violence verbale est énorme. On s’attaque, on s’insulte, on divise le monde entre droite et gauche, les bons et les mauvais, les miens et les tiens. Il y a déjà des journalistes qui ferment leurs blogs aux commentaires des lecteurs saturés de post racistes, des menaces et d’insultes. On est encore dans une étape d’apprentissage de l’utilisation des ces outils?

PL: Si quelqu’un m’insulte ou m’envoie des choses choquantes sur Twitter, je le bloque et c’est tout! On n’aura jamais une humanité parfaite. En revanche, l’utilisateur d’Internet n’est pas un mineur intellectuel, il possède un grand pouvoir mais aussi une grande responsabilité. Le problème, surtout pour les enseignants, consiste à éduquer les utilisateurs. Il faut apprendre à décider de ses priorités, à gérer son attention, à faire un choix judicieux et une analyse critique des sources auxquelles on se branche, prêter attention à la culture de ses correspondants, apprendre à identifier les récits et leurs contradictions, etc. C’est cela, la nouvelle « literacy digitale »: devenir responsable!

7 –JMDS:  Une des questions les plus discutées à propos d’internet concerne les droits d’auteur et la gratuité. Les internautes ont tendance à exiger le tout gratuit. Mais l’information a un coût. Qui va payer? La publicité? Les journaux ferment leurs sites? Le temps de payer pour consommer sur internet est définitivement arrivé?

PL: Il n’est pas impossible de faire payer les utilisateurs pour de très bons services. Par ailleurs, oui, la publicité et surtout la vente des informations produites par les utilisateurs à des firmes de marketing constitue aujourd’hui la principale manière de « monétiser » les services en ligne. Le droit d’auteur est clairement en crise pour la musique et de plus en plus pour les films. Je voudrais souligner particulièrement le domaine de la recherche et de l’enseignement où les éditeurs apparaissent dorénavant comme le frein principal au partage de la connaissance. La rémunération de la création à l’âge du médium algorithmique est un problème complexe auquel je n’ai pas de réponse simple valable dans tous les cas…

8 –JMDS:  Tu as parlé aussi de démocratie virtuelle. On peut dire aujourd’hui qu’on avance vers une nouvelle ère de démocratisation?

PL: Oui, dans la mesure où il est possible d’accéder à des sources d’information beaucoup plus diverses que dans le passé, dans la mesure aussi où tout le monde peut s’exprimer à destination d’un vaste public et enfin parce qu’il est beaucoup plus facile aux citoyens de se coordonner et de s’organiser à des fins de discussion, de délibération ou d’action. Cette « démocratie virtuelle » peut avoir un fondement local, comme dans certains projets de « villes intelligentes », mais il y a aussi une déterritorialisation ou une internationalisation de la sphère publique. Il est par exemple possible de suivre la vie politique de nombreux pays en direct ou de vivre au diapason de l’ensemble de la planète selon les points de vue ou les sujets qui nous intéressent. On ne peut pas non plus passer sous silence l’émergence de campagnes politiques utilisant toutes les techniques de l’analyse de données et du profilage marketing, ainsi que le monitoring – voire la manipulation – de l’opinion publique mondiale sur les réseaux sociaux par les agences de renseignements (de tous les pays).

9 –JMDS:  Internet a déjà changé notre façon de penser, de lire et d’organiser notre construction du savoir?

PL: C’est indéniable. L’accessibilité immédiate des dictionnaires, des encyclopédies (dont Wikipedia), des livres en accès ouvert ou payant, de multiples vidéos éducatives a mis l’équivalent d’immenses bibliothèques et médiathèques à la portée de tous, partout. De plus, nous pouvons nous abonner à de nombreux sites web spécialisés et nous connecter à des réseaux de personnes interessées par les mêmes sujets afin de construire nos connaissances de manière collaborative. Le développement de nouveaux types de réseaux de collaboration dans la recherche ou d’apprentissage dans l’enseignement (les fameux MOOCs) en témoignent clairement.

10 –JMDS:  Il y a une chanson au Brésil qui dit “malgré tout ce qu’on a fait et vécu nous sommes toujours les mêmes et vivons comme nos parents”. Sommes-nous toujours les mêmes ou bien l’Internet nous a changé et séparés de la vie de nos parents?

PL: Nous sommes toujours des êtres humains incarnés et mortels, heureux et malheureux. La condition humaine fondamentale ne change pas. Ce qui change c’est notre culture matérielle et intellectuelle. Notre puissance de communication s’est multipliée et distribuée dans l’ensemble de la société. La perception du monde qui nous entoure s’est aggrandie et précisée. Notre mémoire a augmenté. Nos capacités d’analyse de situations complexes à partir de flots de données vont bientôt transformer notre rapport à notre environnement biologique et social. Grâce à la quantité de données disponibles et à la croissance de notre puissance de calcul, nous allons probablement connaître au XXIe siècle une révolution des sciences humaines comparable à la révolution des sciences de la nature du XVIIe siècle. Nous sommes toujours les mêmes ET nous changeons.