Archives for category: French

ON A TROUVÉ des programmeurs pour produire une démo de la sphère sémantique IEML durant l’été-automne 2016! Ce n’est plus la peine de contacter Pierre Lévy (en tous cas, plus pour ça).

IEML

IEML est une langue artificielle dont les expressions calculent automatiquement leurs relations sémantiques. C’est à la fois une langue et un langage de programmation. Si l’on se sert d’IEML pour catégoriser des données, on obtient une mémoire “auto-analytique” où les données calculent et visualisent leurs relations et distances sémantiques. Le but à long terme est d’offrir des outils de connaissance de soi à une intelligence collective réflexive. IEML se traduit évidemment en langues naturelles (pour le moment: français et anglais) et peut servir de langage pivot entre les langues.

L’application web à programmer – un outil de curation de données – vise à offrir une démonstration logicielle de la recherche sur IEML menée par le prof. Pierre Lévy à la CRC en intelligence collective de l’Université d’Ottawa de 2002 à 2016.

Une application ouverte, gratuite, au bénéfice du bien commun

– Les modules logiciels seront publiés sur Github sous la license GPL version 3 (et suivantes)
– Une API donnera accès au noyau de la sphère sémantique: dictionnaire, bibliothèque d’expressions et moteur de calcul sémantique
– L’application sera disponible à l’adresse ieml.org

Détail de l’application en quatre couches

1) L’éditeur de dictionnaire  – parseur, calcul des tables paradigmatiques, calcul des relations entre termes – a été programmé par Andrew Roczniak.
2) L’éditeur de la bibliothèque d’expressions IEML – parseur, visualisation et édition du contenu de la bibliothèque – a été programmée par Louis van Beurden et Hadrien Titeux, avec l’aide de Florent Thomas-Morel.
3) Le moteur sémantique – calcul des relations entre expressions, des distances, search, ranking sémantique, visualisation d’une expression dans un ensemble, visualisation d’un ensemble d’expressions – sera programmé par Louis van Beurden, Hadrien Titeux et Alice Ribaucourt.
4) L’application démo mono-utilisateur pour la curation de données : fonctions de catégorisation de données et de navigation dans la mémoire, y compris la bibliothèque et le dictionnaire, moyennant les outils du moteur sémantique. On a trouvé des programmeurs pour cette quatrième couche: Candide Kemmler et Zack Soliman

Travail attendu du(de la) programmeur(programmeuse) web recherché(e)

1- Collaboration étroite avec l’équipe : Louis van Beurden, Hadrien Titeux, Alice Ribeaucourt
2- Conception, en collaboration avec Pierre Lévy, de l’application-démo “curation de données”, intégration du dictionnaire, bibliothèque et moteur sémantique dans la couche application-démo sous une interface et une expérience utilisateur uniforme.
3- Programmation (Javascript, Angular 2, HTML) de la couche “démo-curation de données”

Types de personnes visés par la démo

– chercheurs en intelligence artificielle / traitement automatique des langues naturelles
– chercheurs en sciences humaines et sociales (digital humanities)
– curateurs des données publiques des musées et bibliothèques (curation crowdsourcée)
– éducateurs, environnements d’apprentissage collaboratifs / connexionnistes (MOOCs, etc.)

Quand et où

Quatre mois à temps plein du 1er juin au 30 septembre. Possibilités d’extension.

Université d’Ottawa, région Montréal et/ou Ottawa

Contact
@plevy

Quelques documents pertinents

Les fondements philosophiques et scientifiques ont été présentés dans
La Sphère sémantique, 1

Le “devis technique” fondamental est contenu dans
La Sphère sémantique, 2

Les implications culturelles et sociales sont décrits dans
L’intelligence algorithmique (à paraître)

Voir aussi: The Basics of IEML

 

Après avoir posé dans un post précédent les principes d’une cartographie de l’intelligence collective, je m’intéresse maintenant au développement humain qui en est le corrélat, la condition et l’effet de l’intelligence collective. Dans un premier temps, je vais élever au carré la triade sémiotique signe/être/chose (étoile/visage/cube) pour obtenir les neuf «devenirs», qui pointent vers les principales directions du développement humain.

F-PARA-devenirs-1.jpgCarte des devenirs

Les neuf chemins qui mènent de l’un des trois pôles sémiotiques vers lui-même ou vers les deux autres sont appelés en IEML des devenirs (voir dans le dictionnaire IEML la carte sémantique M:M:.) Un devenir ne peut être réduit ni à son point de départ ni à son point d’arrivée, ni à la somme des deux mais bel et bien à l’entre-deux ou à la métamorphose de l’un dans l’autre. Ainsi la mémoire signifie ultimement «devenir chose du signe». On remarquera également que chacun des neufs devenirs peut se tourner aussi bien vers l’actuel que vers le virtuel. Par exemple, la pensée peut prendre comme objet aussi bien le réel sensible que ses propres spéculations. A l’autre bout du spectre, l’espace peut référer aussi bien au contenant de la matérialité physique qu’aux idéalités de la géométrie. Au cours de notre exploration, nous allons découvrir que chacun des neufs devenirs indique une direction d’exploration possible de la philosophie. Les neuf devenirs sont à la fois conceptuellement distincts et réellement interdépendants puisque chacun d’eux a besoin du soutien des autres pour se déployer.

Pensée

Dans la pensée – s. en IEML – aussi bien la substance (point de départ) que l’attribut (point d’arrivée) sont des signes. La pensée relève en quelque sorte du signe au carré. Elle marque la transformation d’un signe en un autre signe, comme dans la déduction, l’induction, l’interprétation, l’imagination et ainsi de suite.

Le concept de pensée ou d’intellection est central pour la tradition idéaliste occidentale qui part de Platon et passe notamment par Aristote, les néo-plationciens, les théologiens du moyen-Age, Kant, Hegel et jusqu’à Husserl. L’intellection se trouve également au coeur de la philosophie islamique, aussi bien chez Avicenne (Ibn Sina) et ses contituateurs dans la philosophie iranienne jusqu’au XVIIe siècle que chez l’andalou Averroes (Ibn Roshd). Elle l’est encore pour la plupart des grandes philosophies de l’Inde méditante. L’existence humaine, et plus encore l’existence philosophique, est nécessairement plongée dans la pensée discursive réfléchissante. Où cette pensée prend-elle son origine ? Quelles sont ses structures ? Comment mener la pensée humaine à sa perfection ? Autant de questions que l’interrogation philosophique ne peut éluder.

Langage

Le langage – b. en IEML – s’entend ici comme un code (au sens le plus large du terme) de communication qui fonctionne effectivement dans l’univers humain. Le langage est un «devenir-être du signe», une transformation du signe en intelligence, une illumination du sujet par le signe.

Certaines philosophies adoptent comme point de départ les problèmes du langage et de la communication. Wittgenstein, par exemple, a fait largement tourner sa philosophie autour du problème des limites du langage. Mais il faut noter qu’il s’intéresse également à des questions de logique et au problème de la vérité. Dans un style différent, un philosophe comme Peirce n’a cessé d’approfondir la question de la signification et du fonctionnement des signes. Austin a creusé le thème des actes de langage, etc. On comprend que ce devenir désigne le moment sémiotique (ou linguistique) de la philosophie. L’Homme est un être parlant dont l’existence ne peut se réaliser que par et dans le langage.

Mémoire

Dans la mémoire – t. en IEML – le signe en substance se réifie dans son attribut chose. Ce devenir évoque le geste élémentaire de l’inscription ou de l’enregistrement. Le devenir chose du signe est ici considéré comme la condition de possibilité de la mémoire. Il commande la notion même de temps.

Le passage du temps et son inscription – la mémoire – fut un des thèmes de prédilection de Bergson (auteur notamment de Matière et Mémoire). Bergson mettait l’épaisseur de la vie et le jaillissement évolutif de la création du côté de la mémoire par opposition avec le déterminisme physicien du XIXe siècle (la « matière ») et le mécanisme logico-mathématique, assignés à l’espace. On trouve également une analyse fine du passage du temps et de son inscription dans les philosophies de l’impermanence et du karma, comme le bouddhisme. L’évolutionnisme, de manière générale, qu’il soit cosmique, biologique ou culturel, se fonde sur une dialectique du passage du temps et de la rétention d’une mémoire codée. Notons enfin que nombre de grandes traditions religieuses se fondent sur des écritures sacrées relevant du même archétype de l’inscription. En un sens, parce que nous sommes inévitablement soumis à la séquentialité temporelle, notre existence est mémoire : mémoire à court terme de la perception, mémoire à long terme du souvenir et de l’apprentissage, mémoire individuelle où revivent et confluent les mémoires collectives.

Société

Dans la société – k. en IEML –, une communauté d’êtres s’organise au moyen de signes. Nous nous engageons dans des promesses et des contrats. Nous obéïssons à la loi. Les membres d’un clan ont le même animal totémique. Nous nous battons sous le même drapeau. Nous échangeons des biens économiques en nous mettant d’accord sur leur valeur. Nous écoutons ensemble de la musique et nous partageons la même langue. Dans tous ces cas, comme dans bien d’autres, une communauté d’humains converge et crée une unité sociale en s’attachant à une même réalité signifiante conventionnelle : autant de manières de « faire société ».

On sait que la sociologie est un rejeton de la philosophie. Avant même que la discipline sociologique ne se sépare du tronc commun, le moment social de la philosophie a été illustré par de grands noms : Jean-Jacques Rousseau et sa théorie du contrat, Auguste Comte qui faisait culminer la connaissance dans la science des sociétés, Karl Marx qui faisait de la lutte des classes le moteur de l’histoire et ramenait l’économie, la politique et la culture en général aux « rapports sociaux réels ». Durkheim, Mauss, Weber et leurs successeurs sociologues et anthropologues se sont interrogé sur les mécanismes par lesquels nous « faisons société ». L’homme est un animal politique qui ne peut pas ne pas vivre en société. Comment vivifier la philia, lien d’amitié entre les membres de la même communauté ? Quelles sont les vraies ou les bonnes sociétés ? Spirituelles, cosmopolites, impériales, civiques, nationales…? Quels sont les meilleurs régimes politiques ? Autant d’interrogations toujours ouvertes.

Affect

Dans l’affect – m. en IEML – un être s’oriente vers d’autres êtres, ou détermine son intériorité la plus intime. L’affect est ici entendu comme le tropisme de la subjectivité. Désir, amour, haine, indifférence, compassion, équanimité sont des qualités émotionnelles qui circulent entre les êtres.

Après les poètes, les dévots et les comédiens, Freud, la psychanalyse et une bonne part de la psychologie clinique insistent sur l’importance de l’affect et des fonctions émotionnelles pour comprendre l’existence humaine. On a beaucoup souligné récemment l’importance de « l’intelligence émotionnelle ». Mais la chose n’est pas nouvelle. Cela fait bien longtemps que les philosophes s’interrogent sur l’amour (voir le Banquet de Platon) et les passions (Descartes lui-même a écrit un Traité des passions), même s’il n’en font pas toujours le thème central de leur philosophie. L’existence se débat nécessairement dans les problèmes affectifs parce qu’aucune vie humaine ne peut échapper aux émotions, à l’attraction et à la répulsion, à la joie et à la tristesse. Mais les émotions sont-elles des expressions légitimes de notre nature spontanée ou des «poisons de l’esprit» (selon la forte expression bouddhiste) auxquels il ne faut pas laisser le gouvernement de notre existence ? Ou les deux ? De nombreuses écoles philosophiques aussi bien Orient qu’en Occident, ont vanté l’ataraxie, le calme mental ou, tout au moins, la modération des passions. Mais comment maîtriser les passions, et comment les maîtriser sans les connaître ?

Monde

Dans le monde – n. en IEML – les êtres humains (être en substance) s’expriment dans leur environnement physique (chose en attribut). Ils habitent cet environnement, ils le travaillent au moyen d’outils, ils en nomment les parties et les objets, leur attribuent des valeurs. C’est ainsi que se construit un monde culturellement ordonné, un cosmos.

Nietzsche (qui accordait un rôle central à la création des valeurs), tout comme la pensée anthropologique, fondent principalement leur approche sur le concept de « monde », ou de cosmos organisé par la culture humaine. La notion indienne tout-englobante de dharma se réfère ultimement à un ordre cosmique transcendant qui veut se manifester jusque dans les plus petits détails de l’existence. L’interrogation philosophique sur la justice rejoint cette idée que les actes humains sont en résonance ou en dissonance avec un ordre universel. Mais quelle est la « voie » (le Dao de la philosophie chinoise) de cet ordre ? Son universalité est-elle naturelle ou conventionnelle ? A quels principes obeit-elle ?

Vérité

La vérité – d. en IEML – décrit un « devenir signe de la chose ». Une référence (un état de chose) se manifeste par un message déclaratif (un signe). Un énoncé n’est vrai que s’il contient une description correcte d’un état de choses. L’authenticité se dit d’un signe qui garantit une chose.

La tradition logicienne et la philosophie analytique s’intéressent principalement au concept de vérité (au sens de l’exactitude des faits et des raisonnements) ainsi qu’aux problèmes liés à la référence. L’épistémologie et les sciences cognitives qui se situent dans cette mouvance mettent au fondement de leur démarche la construction d’une connaissance vraie. Mais, au-delà de ces spécialisations, la question de la vérité est un point de passage obligé de l’interrogation philosophique. Même les plus sceptiques ne peuvent renoncer à la vérité sans renoncer à leur propre scepticisme. Si l’on veut mettre l’accent sur sa stabilité et sa cohérence, on la fera découler des lois de la logique et de procédures rigoureuses de vérification empirique. Mais si l’on veut mettre l’accent sur sa fragilité et sa multiplicité, on la fera sécréter par des paradigmes (au sens de Khun), des épistémès, des constructions sociales de sens, toutes variables selon les temps et les lieux.

Vie

Dans la vie – f. en IEML – une chose substantielle (la matérialité du corps) prend l’attribut de l’être, avec sa qualité d’intériorité subjective. La vie évoque ainsi l’incarnation physique d’une créature sensible. Quand un être vivant mange et boit, il transforme des entités objectivées en matériaux et combustibles pour les processus organiques qui supportent sa subjectivité : devenir être de la chose.

Les empiristes fondent la connaissance sur les sens. Les phénoménologues analysent notamment la manière dont les choses nous apparaissent dans la perception. Le biologisme ramène le fonctionnement de l’esprit à celui des neurones ou des hormones. Autant de traditions et de points de vue qui, malgré leurs différences, convergent sur l’organisme humain, ses fonctions et sa sensibilité. Beaucoup de grands philosophes furent des biologistes (Aristote, Darwin) ou des médecins (Hippocrate, Avicenne, Maïmonide…). Médecine chinoise et philosophie chinoise sont profondément interreliées. Il est indéniable que l’existence humaine émane d’un corps vivant et que tous les événements de cette existence s’inscrivent d’une manière ou d’une autre dans ce corps.

Espace

Dans l’espace – l. en IEML –, qu’il soit concret ou abstrait, une chose se relie aux autres choses, se manifeste dans l’univers des choses. L’espace est un système de transformation des choses. Il se construit de relations topologiques et de proximités géométriques, de territoires, d’enveloppes, de limites et de chemins, de fermetures et de passages. L’espace manifeste en quelque sorte l’essence superlative de la chose, comme la pensée manifestait celle du signe et l’affect celle de l’être.

Sur un plan philosophique, les géomètres, topologues, atomistes, matérialistes et physiciens fondent leurs conceptions sur l’espace. Comme je le soulignais plus haut, le géométrisme idéaliste ou l’atomisme matérialiste se rejoignent sur l’importance fondatrice de l’espace. Les atomes sont dans le vide, c’est-à-dire dans l’espace. L’existence humaine se projette nécessairement dans la multitude spatiale qu’elle construit et qu’elle habite : géographies physiques ou imaginaires, paysages urbains ou ruraux, architectures de béton ou de concepts, distances géométriques ou connexions topologiques, replis et réseaux à l’infini.

On peut ainsi caractériser les philosophies en fonction du ou des devenirs qu’elles prennent pour point de départ de leur démarche ou qui constituent leur thème de prédilection. Les devenirs IEML représentent des « points de passage obligé » de l’existence. Dès son alphabet, le métalangage ouvre la sphère sémantique à l’expression de n’importe quelle philosophie, exactement comme une langue naturelle. Mais c’est aussi une langue philosophique, conçue pour éviter les zones cognitives aveugles, les réflexes de pensée limitants dus à l’usage exclusif d’une seule langue naturelle, à la pratique d’une seule discipline devenue seconde nature ou à des points de vue philosophiques trop exclusifs. Elle a justement été construite pour favoriser la libre exploration de toutes les directions sémantiques. C’est pourquoi, en IEML, chaque philosophie apparaît comme une combinaison de points de vue partiels sur une sphère sémantique intégrale qui peut les accommoder toutes et les entrelace dans sa circularité radicale.

F-Arbre-methode.jpg

FIGURE 1

La figure 1 présente les six catégories primitives de la sémantique et schématise leurs relations d’interdépendance. On peut comparer ce diagramme à celui d’une main. Alors que l’organe du corps humain possède cinq doigts et une opposition entre le pouce et les autres doigts, la main sémantique comporte six doigts – les catégories – et quatre systèmes d’opposition emboîtés – les relations –. La pince du virtuel et de l’actuel commande la relation d’interdépendance pragmatique. La pince ternaire entre le signe, l’être et la chose prend en charge l’interdépendance sémiotique. L’opposition de la pince pragmatique et de la pince sémiotique actionne la tenaille de la relation formelle. La méta-pince rationnelle, enfin, oppose le vide et la forme.

Le vide, le virtuel, l’actuel, le signe, l’être et la chose ne sont pas de mon invention, je me suis contenté de recueillir puis de mettre en forme un très ancien héritage. La plupart des catégories sémantiques remontent au moins à Aristote et elles ont été raffinées par une longue tradition de philosophes, de logiciens, de sémioticiens, de grammairiens et de linguistes. On trouvera une importante bibliographie à ce sujet dans La Sphère sémantique (2011). Je me contenterai ici de signaler quelques-unes de mes sources.

La relation pragmatique entre virtuel et actuel

On catégorise comme actuel ce qui possède un caractère concret ou sensible et qui se localise facilement dans l’espace et le temps. Par contraste, le virtuel catégorise ce qui possède un caractère intelligible, abstrait et auquel il est difficile d’attribuer une adresse spatio-temporelle bien déterminée.

Le couple virtuel/actuel décrit une dialectique pragmatique, que l’on peut retrouver notamment dans la dynamique entre potentialités (virtuelles) et réalisations (actuelles), problèmes (virtuels) et solutions (actuelles), stratégies (relation aux finalités virtuelles) et tactiques (relations aux moyens actuels), etc.

La dialectique du virtuel et de l’actuel fait écho au Ciel et à la Terre des premières nations, au yang et au yin de la pensée chinoise, à l’âme et au corps, à la transcendance et à l’immanence, à l’intelligible et au sensible (Platon), à la puissance et à l’acte (Aristote), à la pensée et à l’étendue (Descartes), au transcendantal et à l’empirique (Kant)… J’ai par ailleurs consacré un livre entier à cette question.

Virtuel et actuel sont des notions relatives, qui se définissent l’une par l’autre. Dans l’analyse d’un cycle pragmatique complexe, la catégorisation des phases virtuelle et actuelle relève de l’interprétation en contexte. Par ailleurs, virtualité et actualité peuvent définir les deux pôles d’un continuum. Ainsi, un caillou rêvé est plus virtuel qu’un caillou perçu, mais plus actuel qu’un rêve de caillou dans un roman.

La relation sémiotique entre signe, être et chose

Le signe catégorise ce qui est de l’ordre du code, du message et de la connaissance. L’être indique les personnes, leurs rapports et leurs intentions, ce qui est de l’ordre de l’esprit, la capacité de concevoir ou d’interpréter. Enfin, la chose catégorise ce dont on parle, les objets (abstraits ou concrets), les corps, les outils, le pouvoir.

Le ternarité signe/être/chose exprime une dialectique sémiotique, que l’on retrouve notamment dans la distribution des rôles de communication : on pourra par exemple distinguer entre les messages (signes), les personnes (êtres) et les éléments de contexte qui sont en jeu (choses). En logique, la proposition (signe), le jugement (être) et l’état de chose (chose) sont inséparables puisqu’un jugement logique détermine si un état de chose correspond, oui ou non, à une proposition.

La dialectique sémiotique du signe, de l’être et de la chose renvoie…

  • à la distinction aristotélicienne du symbole, de l’état d’esprit et de la chose ;
  • à la triade « vox, conceptus, res » de la philosophie médiévale ;
  • au fondement du signe, à l’interprétant et à l’objet de C. S. Peirce ;
  • au noème, à l’intention et à l’objet de Husserl (ou bien, à un niveau d’analyse plus fin décomposant le noème de cette dernière triade, la noèse – signe –, le noème au sens restreint – être – et la hylè sensible – chose – ;
  • au logos, à l’ethos et au pathos de la rhétorique ;
  • aux actes locutoire, illocutoire et perlocutoire de la pragmatique (tels que définis par Austin), et ainsi de suite.

De même que dans le cas de la dialectique virtuel/actuel, la dialectique signe/être/chose est hautement relative. Il s’agit surtout de déterminer le rôle joué par ce que l’on veut catégoriser selon les points de vue, les circonstances et les contextes. Par exemple, une personne pourra être catégorisée signe, être ou chose selon la fonction qu’elle joue dans une situation : messager (signe), interlocuteur (être) ou sujet de la conversation (chose).

La relation formelle entre pragmatique et sémiotique

Les dialectiques pragmatique et sémiotique sont elles-mêmes en relation dynamique d’interdépendance. L’interdépendance de la figure et du fond – de la représentation sémiotique et de l’interaction pragmatique – fait émerger une forme. A l’intérieur de cette dialectique, la sémiotique décrit les opérations de construction ou de production d’entités tandis que la pragmatique rend compte de l’exploration et de la reconnaissance de processus. C’est ainsi que les mouvements ou les verbes seront catégorisés comme pragmatiques et que les entités ou les noms seront catégorisés comme sémiotiques.

Sur un plan épistémologique, cette dialectique permet d’articuler deux faces complémentaires de la connaissance : le « savoir produire » de l’intérieur (sémiotique) et le « savoir reconnaître » à l’extérieur (pragmatique). Par exemple, maîtriser le langage suppose d’être capable de produire des phrases, ce qui se termine par une activation motrice, mais aussi de les reconnaître, ce qui commence par une activation sensorielle. Les deux aspects sont à la fois distincts et complémentaires. Pour prendre un autre exemple, nous savons marcher ou manger ; nous savons aussi reconnaître la marche ou la manducation chez les autres, donc ailleurs que dans notre propre activité ; finalement, nous savons qu’il s’agit de la même chose, même si savoir faire et savoir reconnaître mettent en oeuvre des sensations et des mouvements différents.

La relation rationnelle entre vide et forme

La dialectique rationnelle, enfin, met en relation la forme qui comprend les cinq catégories pleines (virtuel, actuel, signe, être, chose) et le vide. Le vide rend compte du zéro, du silence, du blanc, de l’indétermination sémantique et de l’espace ouvert où se déploie l’expérience humaine. A ce titre, il s’oppose aux catégories pleines qu’il exclut en tant que néant… mais qu’il contient en tant qu’espace. Le contraste entre le pattern et le bruit dans le signal. relève justement de cette dialectique rationnelle entre le vide (le bruit) et le plein (le pattern).

Une théorie sémantique de la cognition doit rendre compte de la distinction fondamentale entre fait et fiction, c’est-à-dire entre les idées dont les objets seront réputés inventés ou simulés (vide) et celles dont les objets seront supposés réels (plein) : il y va de la survie de l’être intelligent. C’est pourquoi, en fonction des circonstances, la dialectique rationnelle distinguera entre le vrai et le faux, le connu et l’inconnu, la réalité et l’imitation, les idées claires ou confuses…

Diapositive1.jpg
FIGURE 1

J’ai montré dans un post précédent, l’importance contemporaine de la curation collaborative de données.  Les compétences dans ce domaine sont au coeur de la nouvelle litéracie algorithmique. La figure 1 présente ces compétences de manière systématique et, ce faisant, elle met en ordre les savoir-faire intellectuels et pratiques tout comme les « savoir-être » éthiques qui supportent l’augmentation de l’intelligence collective en ligne. L’étoile évoque le signe, le visage l’être et le cube la chose (sur ces concepts voir ce post). La table est organisée en trois rangées et trois colonnes interdépendantes. La première rangée explicite les fondements de l’intelligence algorithmique au niveau personnel, la seconde rappelle l’indispensable travail critique sur les sources de données et la troisième détaille les compétences nécessaires à l’émergence d’une intelligence collective augmentée par les algorithmes. L’intelligence personnelle et l’intelligence collective travaillent ensemble et ni l’une ni l’autre ne peuvent se passer d’intelligence critique ! Les colonnes évoquent trois dimensions complémentaires de la cognition : la conscience réflexive, la production de signification et la mémoire. Aucune d’elles ne doit être tenue pour acquise et toutes peuvent faire l’objet d’entraînement et de perfectionnement. Dans chaque case, l’item du haut pointe vers un exercice de virtualisation tandis que celui du bas indique une mise en oeuvre actuelle de la compétence, plus concrète et située. Je vais maintenant commenter le tableau de la figure 1 rangée par rangée.

L’intelligence personnelle

La notion d’intelligence personnelle doit ici s’entendre au sens d’une compétence cognitive individuelle. Mais elle tire également vers la signification du mot « intelligence » en anglais. Dans ce dernier sens, elle désigne la capacité d’un individu à mettre en place son propre système de renseignement.

La gestion de l’attention ne concerne pas seulement l’exercice de la concentration et l’art complémentaire d’éviter les distractions. Elle inclut aussi le choix réfléchi de priorités d’apprentissage et le discernement de sources d’information pertinentes. Le curateur lui-même doit décider de ce qui est pertinent et de ce qui ne l’est pas selon ses propres critères et en fonction des priorités qu’il s’est donné. Quant à la notion de source, est-il besoin de souligner ici que seuls les individus, les groupes et les institutions peuvent être ainsi qualifiés. Seuls donc ils méritent la confiance ou la méfiance. Quant aux médias sociaux, ce ne sont en aucun cas des sources (contrairement à ce que croient certains journalistes) mais plutôt des plateformes de communication. Prétendre, par exemple, que « Twitter n’est pas une source fiable », n’a pas plus de sens que l’idée selon laquelle « le téléphone n’est pas une source fiable ».

L’interpretation des données relève également de la responsabilité des curateurs. Avec tous les algorithmes statistiques et tous les outils d’analyse automatique de données (« big data analytics ») du monde, nous aurons encore besoin d’hypothèses causales, de théories et de systèmes de catégorisation pour soutenir ces théories. Les corrélations statistiques peuvent suggérer des hypothèses causales mais elles ne les remplacent pas. Car nous voulons non seulement prédire le comportement de phénomènes complexes, mais aussi les comprendre et agir sur la base de cette compréhension. Or l’action efficace suppose une saisie des causes réelles et non seulement la perception de corrélations. Sans les intuitions et les théories dérivées de notre connaissance personnelle d’un domaine, les outils d’analyse automatique de données ne seront pas utilisés à bon escient. Poser de bonnes questions aux données n’est pas une entreprise triviale !

Finalement, les données collectionnées doivent être gérées au plan matériel. Il nous faut donc choisir les bons outils d’entreposage dans les « nuages » et savoir manipuler ces outils. Mais la mémoire doit être aussi entretenue au niveau conceptuel. C’est pourquoi le bon curateur est capable de créer, d’adopter et surtout de maintenir un système de catégorisation qui lui permettra de retrouver l’information désirée et d’extraire de ses collections la connaissance qui lui sera utile.

L’intelligence critique

L’intelligence critique porte essentiellement sur la qualité des sources. Elle exige d’abord un travail de critique « externe ». Nous savons qu’il n’existe pas d’autorité transcendante dans le nouvel espace de communication. Si nous ne voulons pas être trompé, abusé, ou aveuglé par des oeillères informationnelles, il nous faut donc autant que possible diversifier nos sources. Notre fenêtre d’attention doit être maintenue bien ouverte, c’est pourquoi nous nous abonnerons à des sources adoptant divers points de vue, récits organisateurs et théories. Cette diversité nous permettra de croiser les données, d’observer les sujets sur lesquelles elles se contredisent et ceux sur lesquelles elles se confirment mutuellement.

L’évaluation des sources demande également un effort de décryptage des identités : c’est la critique « interne ». Pour comprendre la nature d’une source, nous devons reconnaître son système de classification, ses catégories maîtresses et son récit organisateur. En un sens, une source n’est autre que le récit autour duquel elle organise ses données : sa manière de produire du sens.

Finalement l’intelligence critique possède une dimension « pragmatique ». Cette critique est la plus dévastatrice parce qu’elle compare le récit de la source avec ce qu’elle fait réellement. Je vise ici ce qu’elle fait en diffusant ses messages, c’est-à-dire l’effet concret de ses actes de communication sur les conversations en cours et l’état d’esprit des participants. Je vise également les contributions intellectuelles et esthétiques de la source, ses interactions économiques, politiques, militaires ou autres telles qu’elles sont rapportées par d’autres sources. Grâce à cette bonne mémoire nous pouvons noter les contradictions de la source selon les moments et les publics, les décalages entre son récit officiel et les effets pratiques de ses actions. Enfin, plus une source se montre transparente au sujet de ses propres sources d’informations, de ses références, de son agenda et de son financement et plus elle est fiable. Inversement, l’opacité éveille les soupçons.

L’intelligence collective

Je rappelle que l’intelligence collective dont il est question ici n’est pas une « solution miracle » mais un savoir-faire à cultiver qui présuppose et renforce en retour les intelligences personnelles et critiques.

Commençons par définir la stigmergie : il s’agit d’un mode de communication dans lequel les agents se coordonnent et s’informent mutuellement en modifiant un environnement ou une mémoire commune. Dans le médium algorithmique, la communication tend à s’établir entre des pairs qui créent, catégorisent, critiquent, organisent, lisent, promeuvent et analysent des données au moyen d’outils algorithmiques. Il s’agit bien d’une communication stigmergique parce que, même si les personnes dialoguent et se parlent directement, le principal canal de communication reste une mémoire commune que les participants exploitent et transforment ensemble. Il est utile de distinguer entre les mémoires locale et globale. Dans la mémoire « locale » de réseaux ou de communautés particulières, nous devons prêter attention à des contextes et à des histoires singulières. Il est également recommandé de tenir compte des contributions des autres participants, de ne pas aborder des sujets non-pertinents pour le groupe, d’éviter les provocations, les explosions d’agressivité, les provocations, etc.

Quant à la mémoire « globale », il faut se souvenir que chaque action dans le médium algorithmique réorganise – même de façon infinitésimale – la mémoire commune : lire, taguer, acheter, poster, créer un hyperlien, souscrire, s’abonner, « aimer », etc. Nous créons notre environnement symbolique de manière collaborative. Le bon agent humain de l’intelligence collective gardera donc à la conscience que ses actions en ligne contribuent à l’information des autres agents.

La liberté dont il est question dans la figure 1 se présente comme une dialectique entre pouvoir et responsabilité. Le pouvoir recouvre notre capacité à créer, évaluer, organiser, lire et analyser les données, notre aptitude à faire évoluer la mémoire commune à partir de la multitude distribuée de nos actions. La responsabilité se fonde sur une conscience réfléchie de notre pouvoir collectif, conscience qui informe en retour l’orientation de notre attention et le sens que nous donnons à l’exercice de nos pouvoirs.

Diapositive4.jpg

FIGURE 2

L’apprentissage collaboratif

Finalement, l’apprentissage collaboratif est un des processus cognitifs majeurs de l’intelligence collective et le principal bénéfice social des habiletés en curation de données. Afin de bien saisir ce processus, nous devons distinguer entre savoirs tacites et savoirs explicites. Les savoirs tacites recouvrent ce que les membres d’une communauté ont appris dans des contextes particuliers, les savoir-faire internalisés dans les réflexes personnels à partir de l’expérience. Les savoirs explicites, en revanche, sont des récits, des images, des données, des logiciels ou d’autres ressources documentaires, qui sont aussi clairs et décontextualisés que possible, afin de pouvoir être partagés largement.

L’apprentissage collaboratif enchaîne deux mouvements. Le premier consiste à traduire le savoir tacite en savoir explicite pour alimenter une mémoire commune. Dans un second mouvement, complémentaire du premier, les participants exploitent le savoir explicite et les ressources d’apprentissage disponibles dans la mémoire commune afin d’adapter ces connaissances à leur contexte particulier et de les intégrer dans leurs réflexes quotidiens. Les curateurs sont potentiellement des étudiants ou des apprenants lorsqu’ils internalisent un savoir explicite et ils peuvent se considérer comme des enseignants lorsqu’ils mettent des savoirs explicites à la disposition des autres. Ce sont donc des pairs (voir la figure 2) qui travaillent dans un champ de pratique commun. Ils transforment autant que possible leur savoir tacite en savoir explicite et travaillent en retour à traduire la partie des connaissances explicites qu’ils veulent acquérir en savoir pratique personnel. J’écris “autant que possible” parce que l’explicitation totale du savoir tacite est hors de portée, comme l’a bien montré Michael Polanyi.

Dans le médium algorithmique, le savoir explicite prend la forme de données catégorisées et évaluées. Le cycle de transformation des savoirs tacites en savoirs explicites et vice versa prend place dans les médias sociaux, où il est facilité par une conversation créative civilisée : les compétences intellectuelles et sociales (ou morales) fonctionnent ensemble !

La curation de données

Comme Monsieur Jourdain faisait de la prose sans le savoir, tout le monde fait aujourd’hui de la curation de données – on dit aussi de la curation de contenu – sans le savoir. Sur les grandes plateformes de médias sociaux comme Facebook, Twitter, Pinterest ou Instagram, mais aussi dans une multitude d’applications en ligne plus spécialisées comme Evernote, Scoop.it ou Diigo, les utilisateurs font référence à des données (textes, images, vidéos, musique…) qu’ils accompagnent de commentaires, de hashtags classificateurs et de diverses formes d’évaluations et d’émoticons. Ces posts s’accumulent dans des collections personnelles ou communautaires, apparaissent sur les fils d’autres utilisateurs et sont réexpédiées ad libitum avec d’éventuels changements de commentaires, de hashtags et d’appréciations émotionnelles. Les posts deviennent eux-mêmes des données qui peuvent à leur tour faire l’objet de références, de commentaires, de marquage affectif, de recherche et d’analyse. Les médias sociaux nous proposent des outils perfectionnés de gestion de base de données, avec des algorithmes de fouille, d’apprentissage machine, de reconnaissance de forme et de filtrage collaboratif qui nous aident à naviguer parmi la masse du contenu et les foules d’utilisateurs. Mais l’alimentation de la base tout comme la catégorisation et l’évaluation des données sont à notre charge.

labyrinthe-livres.jpg

Le mot curation, employé d’abord en anglais pour désigner l’activité d’un commissaire d’exposition dans l’univers des galeries d’art et des musées, a été récemment généralisé à toutes les activités de collection d’information. L’étymologie latine du mot évoque le soin médical (la cure) et plus généralement le souci. S’il est vrai que nous entrons dans une société datacentrique, le souci des données, l’activité qui consiste à collectionner et organiser des données pour soi et pour les autres devient cruciale. Et puisque la société datacentrique repose sur une effervescente économie de la connaissance, au sens le plus vaste et le plus « écologique » de la notion d’économie (voir à ce sujet La Sphère sémantique 1, Chp. 6.) l’enjeu ultime de la curation de données n’est autre que la production et le partage des connaissances.

Je vais maintenant évoquer un certain nombre de sphères d’activité dans lesquelles la maîtrise de la curation collaborative de données commence à s’imposer comme une compétence essentielle : la conservation des héritages, la recherche en sciences humaines, l’apprentissage collaboratif, la production et la diffusion des nouvelles, le renseignement à sources ouvertes et la gestion des connaissances.

url.jpg

La conservation des héritages

Les responsables des archives, bibliothèques, médiathèques et musées collectionnent depuis des siècles des artefacts porteurs d’information et les organisent de telle sorte que leur public puisse les retrouver et les consulter. C’est dans ce milieu professionnel qu’est d’abord apparue la distinction entre données et métadonnées. Du côté des données, les documents physiques sont posés sur des étagères. Du côté des métadonnées, un fichier permet de rechercher les documents par auteurs, titres, sujets, disciplines, dates, etc. Le bibliothécaire fabrique une fiche, voire plusieurs fiches, pour chaque document qui entre dans la bibliothèque et le lecteur fouille dans les fiches pour explorer le contenu de la bibliothèque et savoir où se trouvent placés les livres qu’il veut lire. Sans l’appareillage des métadonnées et les principes d’organisation qui les sous-tendent il serait impossible d’exploiter les informations contenues dans une bibliothèque. Depuis la fin du XXe siècle, le monde des archives, des bibliothèques et des musées connaît une grande transformation. La numérisation fait converger toutes les informations dans le médium algorithmique et cette unification met cruellement en évidence la disparité et l’incompatibilité des systèmes de classification en usage. De plus, les principaux systèmes de métadonnées ont été conçus et utilisés à l’époque de l’imprimerie, ils n’exploitent donc pas les nouvelles possibilités de calcul automatique. Finalement, les flots d’information ont tellement crû qu’ils échappent à toute possibilité de catalogage classique par un petit nombre de professionnels. Depuis quelques années, les musées et bibliothèques numérisent et mettent en ligne leurs collections en faisant appel au crowdsourcing, c’est-à-dire à l’intelligence collective des internautes, pour catégoriser les données. Cette curation collaborative de données brouille la distinction entre curateurs et utilisateurs tout en manifestant la diversité des points de vue et des intérêts du public. Par ailleurs, une multitude de sites puisant leurs données dans le Web ouvert, et souvent indépendants des institutions classiques de préservation des héritages culturels, permettent aux amateurs d’art ou aux bibliophiles de partager leurs goûts et leurs trouvailles, de se regrouper par sensibilité et par centres d’intérêts.

La recherche en sciences humaines

La numérisation des archives et des héritages culturels, l’accessibilité des données et statistiques compilées par les gouvernements et les institutions internationales, les communications et transactions des internautes recueillies par les grandes plateformes du Web, toutes ces nouvelles sources offrent aux sciences humaines une matière première dont l’abondance défie l’imagination. Par ailleurs les blogs de chercheurs, les plateformes collaboratives spécialisées dans la collection d’articles (comme Academia.edu, Researchgate, Mendeley, CiteULike…) et les bases de données partagées transforment profondément les pratiques de recherche. Enfin, une frange croissante des professionnels des sciences humaines s’initie à la programmation et à l’usage avancé des algorithmes, produisant et partageant le plus souvent des outils open source. L’édition scientifique traditionnelle est en crise puisque la communication entre chercheurs n’a plus besoin de journaux imprimés. Chaque plateforme en ligne propose ses propres méthodes d’appréciation des publications, basées sur un traitement automatisé des interactions sociales, ce qui remet en question les modes classiques de filtrage et d’évaluation des articles. Certes, le problème posé par l’incompatibilité des plateformes et des systèmes de catégorisation reste à résoudre. Il subsiste donc quelques obstacles à franchir, mais tout est en place pour que la curation collaborative de données s’impose comme l’activité centrale de la recherche en sciences humaines… et de son évaluation.

L’apprentissage collaboratif

La curation collaborative de données émerge également comme une pratique essentielle dans le domaine de l’éducation. A l’époque du médium algorithmique, les connaissances évoluent vite, presque toutes les ressources d’apprentissage sont disponibles gratuitement en ligne et les étudiants sont déjà plongés dans le bain des médias sociaux. Le vieux modèle des communautés d’apprentissage s’organisant autour d’une bibliothèque ou d’un entrepôt physique de documents est donc obsolète. L’apprentissage doit être de plus en plus pensé comme partiellement délocalisé, collaboratif et continu. L’ensemble de la société acquiert une dimension d’apprentissage. Cela n’implique pas que les institutions d’enseignement classiques, école et université, ne soient plus pertinentes, bien au contraire. C’est précisément parce que l’apprentissage va puiser dans un stock de ressources pratiquement infini qu’aucune autorité transcendante ne peut plus organiser et hiérarchiser a priori que l’école a l’obligation d’entraîner les jeunes gens à l’apprentissage collaboratif et critique par le biais des médias sociaux. La fameuse littéracie numérique ne repose pas principalement sur l’acquisition de compétences techniques en informatique (qui changent rapidement), mais plutôt sur un savoir-faire socio-cognitif orienté vers la curation collaborative de données : filtrer les contenus pertinents pour tel ou tel groupe, les catégoriser, les évaluer, consulter les données, rédiger de courtes synthèses… Ainsi les enseignants utilisent des plateformes de social bookmarking (partage de signets) comme Diigo pour animer leurs cours, les MOOCs connectivistes font appel aux étudiants pour alimenter leurs ressources d’apprentissage, on trouvera une multitude de hashtags reliés à l’éducation et à l’apprentissage sur Twitter et les groupes Facebook abritent de plus en plus de classes…

Les nouvelles

La production et la dissémination des nouvelles participe du même type de mutation que celles qui viennent d’être évoquées. Du côté de la production, les journalistes s’initient à l’exploitation statistique des bases de données ouvertes pour en retirer les synthèses et les visualisations qui vont alimenter leurs articles. Ils suivent leurs collègues ainsi qu’une foules de sources sur Twitter afin de rester à jour sur les thèmes dont ils s’occupent. Par ailleurs, ce ne sont plus seulement les agences de presse et les journalistes professionnels qui produisent les nouvelles mais également les acteurs culturels, économiques, politiques et militaires par l’intermédiaire de leurs sites et de leurs agents dans les médias sociaux. N’oublions pas non plus les citoyens ordinaires qui prennent des photos et des vidéos grâce à leurs téléphones intelligents, qui diffusent ce qu’ils voient et ce qu’ils pensent sur toutes les plateformes et qui réagissent en temps réel aux nouvelles diffusées par les médias classiques. Du côté de la réception, la consommation des nouvelles se fait de plus en plus en ligne par le biais de Facebook, de Twitter, de Google news et d’autres plateformes sociales. Puisque chacun peut accéder directement aux sources (les messages émis par les acteurs eux-mêmes), les médias classiques ont perdu le monopole de l’information. Sur les sujets qui m’intéressent, je suis les experts de mon choix, j’écoute tous les sons de cloche et je me fais ma propre idée sans être obligé de m’en remettre à des synthèses journalistiques simplificatrices et forcément tributaires d’un agenda ou d’un maître-récit (« narrative ») politique ou national. En somme, aussi bien les professionnels de l’information que le nouveau public critique en ligne pratiquent assidûment la curation collaborative de données

L’intelligence open-source

Le domaine du renseignement économique (« business intelligence »), politique ou militaire échappe progressivement à l’ancienne logique de l’espionnage. Désormais, l’abondance des sources d’information en ligne rend de moins en moins judicieux l’entretien d’un personnel spécialement chargé de recueillir des informations sur place. En revanche, les compétences linguistiques, culturelles et scientifiques, l’érudition en sciences humaines, la capacité à extraire les renseignements pertinents du flot des données, le monitoring des médias sociaux et le savoir-faire collaboratif deviennent indispensables. A part les noms et adresses des agents doubles et le détail des plans d’attaque, tout est désormais disponible sur internet. A qui sait chercher en ligne et lire entre les mots, les images des satellites, les sites médiatiques, académiques, diplomatiques et militaires, sans oublier les rapports des « think tanks » en pdf, permettent de comprendre les situations et de prendre des décisions éclairées. Certes, les agents d’influence, trolls, utilisateurs masqués et robots logiciels tentent de brouiller les cartes, mais ils révèlent à la longue les stratégies des marionnettistes qui les manipulent. Dans le domaine en pleine expansion de l’open source intelligence les agences de renseignement – comme la nuée de leurs fournisseurs d’information, d’analyse et de synthèse – coopèrent dans la production, l’échange et l’évaluation des données. Ici encore, la curation collaborative de contenu est à l’ordre du jour.

La gestion des connaissances

Une équipe de travail, une entreprise quelconque – qu’elle soit publique, privée ou associative – se trouve dans la nécessité de « gérer ses connaissances » pour atteindre ses buts. Le terme de gestion des connaissances a commencé à être utilisé vers le milieu des années 1990, au moment même où naissait le Web et alors que l’idée d’une économie basée sur les savoirs et l’innovation commençait à s’affirmer. L’un des principaux fondateurs de cette nouvelle discipline, Ikujiro Nonaka (né en 1935), s’est attaché à décrire le cycle de création des connaissances dans les entreprises en insistant sur la phase d’explicitation des savoir-faire pratiques. A la suite de Nonaka, de nombreux chercheurs et praticiens ont tenté de déterminer les meilleures méthodes pour expliciter les savoirs tacites – nés de l’expérience – afin de les conserver et de les diffuser dans les organisations. Les premiers outils de gestion des connaissances étaient assez rigides et centralisés, à l’image de l’informatique de l’époque. On met en place aujourd’hui (2016) de véritables médias sociaux d’entreprise, dans lesquels les collaborateurs peuvent repérer mutuellement leurs compétences, créer des groupes de travail et des communautés de pratique, accumuler des ressources et partager des données. Indépendamment des outils techniques utilisés, la gestion des connaissances est une dimension transversale de toute entreprise. Cette épistémologie appliquée inclut la conservation des savoirs et savoir-faire, le développement des compétences et des ressources humaines, l’art de créer et de diffuser les connaissances. De fait, en observant les pratiques contemporaines dans les médias sociaux d’entreprise qui supportent la gestion des connaissances, on découvre que l’une des principales activités se trouve être justement la curation collaborative de données.

Il existe donc une pratique commune à de nombreux secteurs de la culture mondiale contemporaine, pratique dont les cloisonnements sociaux et la disparité des jargons professionnels dissimulent l’unité et la transversalité. Je fais l’hypothèse que la curation collaborative de données est le support techno-social de l’intelligence collective à l’époque du médium algorithmique : écrire et lire… sur des flots de données.

Pour en savoir plus sur les compétences en curation collaborative de données, lisez-donc le post qui suit!

L’intelligence collective désigne l’augmentation des capacités cognitives des groupes humains grâce à une utilisation judicieuse des médias numériques. On vise ici la mémoire partagée, l’apprentissage collaboratif et la coordination des compétences en temps réel.
L’éthologie étudie l’intelligence collective des espèces sociales. Par exemple, les abeilles, les fourmis et les termites ont une division du travail poussée et communiquent de manière étroite. Même si les capacités cognitives d’une fourmi sont limitées, la fourmilière dans son ensemble manifeste une « intelligence émergente » qui lui permet d’apprendre et de résoudre des problèmes. Les grands singes ont un comportement social complexe et des modes de communication particulièrement développés.

Ruche

L’intelligence collective humaine se situe dans la continuité de l’intelligence collective animale, mais elle est plus perfectionnée à cause du langage, des techniques et des institutions politiques, économiques, légales et autres qui nous caractérisent. La principale différence entre les intelligences collectives animale et humaine tient à la culture, c’est-à-dire à une capacité d’apprentissage accélérée de l’espèce, dont les savoir-faire s’accumulent et se transmettent d’une génération à l’autre au moyen de signes et d’outils plutôt que par la simple évolution biologique. Aucun individu ne serait « intelligent » s’il ne participait pas à la communication sociale et s’il n’héritait pas des connaissances créées par les générations précédentes.
L’évolution culturelle a déjà franchi plusieurs seuils d’intelligence collective. En effet, les inventions de l’écriture, de l’imprimerie et des médias électroniques (enregistrement musical, téléphone, radio, télévision) ont déjà augmenté de manière irréversible nos capacités de mémoire et de communication sociale. L’intelligence collective des groupes humains n’est pas à créer, elle existe déjà et elle a derrière elle une longue histoire. Le véritable enjeu du méta medium algorithmique est donc le franchissement d’un nouveau seuil d’augmentation de l’intelligence collective.

Cuneiform

L’internet supporte de nouvelles formes d’intelligence collective pour trois grandes raisons. Premièrement, il permet une communication ubiquitaire indépendante des distances géographiques. La capacité d’émettre et de sélectionner l’information à volonté se trouve entre les mains de tous. Deuxièmement, l’internet enregistre et interconnecte progressivement la plus grande partie des connaissances produites par l’humanité, construisant ainsi une mémoire dynamique commune et participative. Troisièmement, les algorithmes traitent automatiquement l’information, ouvrant la voie à de nouvelles formes de traduction, d’analyse de données, de fouille et de filtrage collaboratif.
Une grande partie de l’intelligence collective à support numérique est implicite. Chaque fois que l’on fait une requête sur un moteur de recherche, que l’on envoie un message en ligne, que l’on crée un hyperlien, que l’on catégorise une information au moyen d’un hashtag, que l’on achète un produit en ligne ou que l’on « aime » une photo, on alimente des algorithmes qui transforment la structure de la mémoire collective et qui contribuent à orienter l’attention et l’activité des autres internautes.
Il existe aussi des formes explicites d’intelligence collective. Citons la programmation collaborative (logiciels libres, Github…), les nouvelles formes d’encyclopédie en ligne comme Wikipedia, qui rassemblent d’immenses communautés internationales de rédacteurs et d’éditeurs, les dispositifs d’apprentissage collaboratif en réseau (pédagogies innovantes, MOOCs…), les jeux en ligne massivement multi-joueurs ou les diverses applications de curation collaborative de contenu qui visent à filtrer et catégoriser les flux d’information dans une optique de gestion décentralisée des connaissances.

hashtag

Au-delà de pratiques sociales largement répandues, l’intelligence collective est également un mot d’ordre programmatique. En informatique, c’est une ligne de recherche qui fait contrepoint à l’intelligence artificielle et qui a été initié par Douglas Engelbart, l’inventeur de la souris et des premières applications de travail collaboratif. Au lieu d’essayer de rendre les ordinateurs plus intelligents que les humains, on vise ici à rendre les humains plus intelligents ensemble au moyen des ordinateurs. Dans le domaine du management de l’économie de la connaissance, l’intelligence collective se présente comme un art de maximiser simultanément la liberté créatrice et l’efficacité collaborative. En politique, il s’agit de permettre au plus grand nombre de voix singulières de se faire entendre (par opposition à l’homogénéisation partisane), de favoriser la délibération en ligne et la création rapide de réseaux de mobilisation et d’entraide.
La notion d’intelligence collective donne lieu à quelques malentendus. On lui oppose la « stupidité collective » constatée sur les réseaux sociaux. Mais parler d’intelligence collective n’implique aucun jugement de valeur. On peut noter l’augmentation des capacités cognitives des groupes sans nécessairement approuver tout ce qui se dit sur Internet. Il ne s’agit pas non plus d’attribuer une conscience autonome aux collectivités. La conscience réflexive est personnelle alors que l’intelligence collective est un phénomène social émergeant. Enfin, l’augmentation technique des capacités cognitives des groupes ne dispense nullement d’un effort personnel d’apprentissage et de création originale. Un des grands défis de l’enseignement contemporain consiste à éduquer les étudiants à une utilisation responsable des nouveaux outils de communication. Apprendre à gérer son attention, faire une analyse critique des sources auxquelles on se branche, tenir compte de la culture de ses correspondants, identifier les différents récits et leurs contradictions : tout cela contribue aussi bien aux apprentissages individuels qu’à bonifier l’intelligence collective.

Pour plus de détails sur ma théorie de l’intelligence collective, aller là!

Ce post est la version française d’un entretien en portugais (Brésil) avec le prof.  Juremir Machado da Silva

 

1 – JMDS: Le développement d’internet a pris plus de temps qu’on n’imagine, mais pour presque tout le monde internet c’est l’explosion du web pendant les années 1990. On peut dire d’une certaine façon que ça fait 30 ans qu’on est entré dans un nouvel imaginaire. Est-ce qu’il y a encore beaucoup de choses à venir ou le cycle a atteint son plafond?

PL: Internet s’est developpé de façon beaucoup plus rapide que n’importe quel autre système de communication. Il y avait moins de 1% de la population mondiale branchée au début des années 1990 et près de 45% une génération plus tard. On avance très vite vers 50% et plus…
Nous sommes seulement au début de la révolution du medium algorithmique. Au cours des générations suivantes nous allons assister à plusieurs grandes mutations. L’informatique ubiquitaire fondue dans le paysage et constamment accessible va se généraliser. L’accès à l’analyse de grandes masses de données (qui est aujourd’hui dans les mains des gouvernements et grandes entreprises) va se démocratiser. Nous aurons de plus en plus d’images de notre fonctionnement collectif en temps réel, etc. L’éducation va se recentrer sur la formation critique à la curation collective des données. La sphère publique va devenir internationale et va s’organiser par « nuages sémantiques » dans les réseaux sociaux. Les états vont passer de la forme « état-nation » à la forme « état en essaim » avec un territoire souverain et une strate déterritorialisée dans l’info-sphère ubiquitaire, les crypto-monnaies vont se répandre, etc.

2 –JMDS: On parte beaucoup d’internet des objets et de tout internet. Ce sont des vraies mutations ou juste des accélérations?

Internet peut être analysé en deux aspects conceptuellement distincts mais pratiquement interdépendants et inséparables. D’une part l’infosphère, les données, les algorithmes, qui sont immatériels et ubiquitaires : ce sont les « nuages ». D’autre part les capteurs, les gadgets, les smart-phones, les dispositifs portables de toutes sortes, les ordinateurs, les data centers, les robots, tout ce qui est inévitablement physique et localisé : les « objets ». Les nuages ne peuvent pas fonctionner sans les objets et vice versa: les objets ne peuvent pas fonctionner sans les nuages. L’Internet, c’est l’interaction constante du localisé et du délocalisé, des objets et des nuages. Tout cela est en quelque sorte logiquement déductible de l’automatisation de la manipulation symbolique au moyen de systèmes électroniques, mais nous allons de plus en plus en sentir les effets dans notre vie de tous les jours.

3 –JMDS:  Avec internet les prédictions sont déchaînées. On continue à parle de l’avenir des journaux en papier et du livre. Il y a ceux qui disent que le papier va cohabiter avec des nouveaux supports et ceux qui disent que c’est juste une question de temps pour la fin de l’imprimé. Les arguments des uns et des autres sont sérieux? Par exemple, par rapport au papier, l’affectif et l’effet de nostalgie n’y compte pas trop? C’est une affaire de génération?

PL: Je crois que la fin de la presse papier est une affaire de temps. Pour la recherche, l’éducation, l’information, tout va passer au numérique. En revanche, j’imagine qu’il va toujours y avoir des lecteurs sur papier pour des romans ou des livres rares, un peu comme il y a toujours un petit marché pour le vinyl en musique. Personnellement, j’aime lire des livres sur papier et les nouvelles sur Internet (surtout par Twitter), mais ce ne sont pas mes préférences personnelles qui sont en jeu… l’électrification, voire l’algorithmisation, de la lecture et de l’écriture sont inévitables.

4 –JMDS:  Après 30 ans de nouveautés comme les réseaux sociaux, quelle a été la grande transformation, le point principal de cette mutation?

PL: Depuis l’apparition du Web au milieu des années 1990, il n’y a pas eu de grande mutation technique, seulement une multitude de petits progrès. Sur un plan socio-politique, le grand basculement me semble le passage d’une sphère publique dominée par la presse, la radio et la télévision à une sphère publique dominée par les wikis, les blogs, les réseaux sociaux et les systèmes de curation de contenu où tout le monde peut s’exprimer. Cela signifie que le monopole intellectuel des journalistes, éditeurs, hommes politiques et professeurs est en train de s’éroder. Le nouvel équilibre n’a pas encore été trouvé mais l’ancien équilibre n’a plus cours.

5 –JMDS: Tu parles depuis beaucoup de temps d’intelligence collective et des collectifs intelligents. On voit cependant internet et ses réseaux sociaux utilisés pour le bien et pour le mal, par exemple, pour disséminer les idées radicales des extrémistes musulmans. Peut-on parler d’une « intelligence collective du mal » d’internet ou d’un outil de la bêtise universelle?

PL: Je parle d’intelligence collective pour signaler et encourager une augmentation des capacités cognitives en général, sans jugement de valeur : augmentation de la mémoire collective, des possibilités de coordination et de création de réseaux, des opportunités d’apprentissage collaboratif, de l’ouverture de l’accès à l’information, etc. Je pense que cet aspect est indéniable et que tous les acteurs intellectuels et sociaux responsables devraient se servir de ces nouvelles possibilités dans l’éducation, dans la gestion des connaissances dans les entreprises et les administrations, pour la délibération politique démocratique, etc. Il faut voir l’invention de Internet dans le prolongement de l’invention de l’écriture ou de l’imprimerie. Il s’agit d’une augmentation des capacités humaines de manipulation symbolique. Maintenant, le coeur de cette capacité c’est le langage, qui ne dépend d’aucune technique particulière et qui existe dès l’origine de l’espèce humaine. C’est grâce au langage qu’existent l’art, la culture, la religion, les valeurs, la complexité de nos institutions économiques, sociales, politiques… Mais qui dit langage dit aussi mensonge et manipulation. Qui dit valeurs dit bien ET mal, beau ET laid. Il est absurde d’imaginer qu’un instrument qui augmente les pouvoirs du langage en général ne laisserait subsister que le vrai, le bien et le beau. Vrai pour qui, bien pour qui ? Le vrai n’émerge que du dialogue ouvert des points de vue. Je dirais même plus, si l’on essayait de faire de l’Internet une machine à produire du vrai, du bien et du beau, on ne parviendrait qu’à un projet totalitaire, d’ailleurs voué à l’échec.

6 –JMDS:  Dans les réseaux sociaux la violence verbale est énorme. On s’attaque, on s’insulte, on divise le monde entre droite et gauche, les bons et les mauvais, les miens et les tiens. Il y a déjà des journalistes qui ferment leurs blogs aux commentaires des lecteurs saturés de post racistes, des menaces et d’insultes. On est encore dans une étape d’apprentissage de l’utilisation des ces outils?

PL: Si quelqu’un m’insulte ou m’envoie des choses choquantes sur Twitter, je le bloque et c’est tout! On n’aura jamais une humanité parfaite. En revanche, l’utilisateur d’Internet n’est pas un mineur intellectuel, il possède un grand pouvoir mais aussi une grande responsabilité. Le problème, surtout pour les enseignants, consiste à éduquer les utilisateurs. Il faut apprendre à décider de ses priorités, à gérer son attention, à faire un choix judicieux et une analyse critique des sources auxquelles on se branche, prêter attention à la culture de ses correspondants, apprendre à identifier les récits et leurs contradictions, etc. C’est cela, la nouvelle « literacy digitale »: devenir responsable!

7 –JMDS:  Une des questions les plus discutées à propos d’internet concerne les droits d’auteur et la gratuité. Les internautes ont tendance à exiger le tout gratuit. Mais l’information a un coût. Qui va payer? La publicité? Les journaux ferment leurs sites? Le temps de payer pour consommer sur internet est définitivement arrivé?

PL: Il n’est pas impossible de faire payer les utilisateurs pour de très bons services. Par ailleurs, oui, la publicité et surtout la vente des informations produites par les utilisateurs à des firmes de marketing constitue aujourd’hui la principale manière de « monétiser » les services en ligne. Le droit d’auteur est clairement en crise pour la musique et de plus en plus pour les films. Je voudrais souligner particulièrement le domaine de la recherche et de l’enseignement où les éditeurs apparaissent dorénavant comme le frein principal au partage de la connaissance. La rémunération de la création à l’âge du médium algorithmique est un problème complexe auquel je n’ai pas de réponse simple valable dans tous les cas…

8 –JMDS:  Tu as parlé aussi de démocratie virtuelle. On peut dire aujourd’hui qu’on avance vers une nouvelle ère de démocratisation?

PL: Oui, dans la mesure où il est possible d’accéder à des sources d’information beaucoup plus diverses que dans le passé, dans la mesure aussi où tout le monde peut s’exprimer à destination d’un vaste public et enfin parce qu’il est beaucoup plus facile aux citoyens de se coordonner et de s’organiser à des fins de discussion, de délibération ou d’action. Cette « démocratie virtuelle » peut avoir un fondement local, comme dans certains projets de « villes intelligentes », mais il y a aussi une déterritorialisation ou une internationalisation de la sphère publique. Il est par exemple possible de suivre la vie politique de nombreux pays en direct ou de vivre au diapason de l’ensemble de la planète selon les points de vue ou les sujets qui nous intéressent. On ne peut pas non plus passer sous silence l’émergence de campagnes politiques utilisant toutes les techniques de l’analyse de données et du profilage marketing, ainsi que le monitoring – voire la manipulation – de l’opinion publique mondiale sur les réseaux sociaux par les agences de renseignements (de tous les pays).

9 –JMDS:  Internet a déjà changé notre façon de penser, de lire et d’organiser notre construction du savoir?

PL: C’est indéniable. L’accessibilité immédiate des dictionnaires, des encyclopédies (dont Wikipedia), des livres en accès ouvert ou payant, de multiples vidéos éducatives a mis l’équivalent d’immenses bibliothèques et médiathèques à la portée de tous, partout. De plus, nous pouvons nous abonner à de nombreux sites web spécialisés et nous connecter à des réseaux de personnes interessées par les mêmes sujets afin de construire nos connaissances de manière collaborative. Le développement de nouveaux types de réseaux de collaboration dans la recherche ou d’apprentissage dans l’enseignement (les fameux MOOCs) en témoignent clairement.

10 –JMDS:  Il y a une chanson au Brésil qui dit “malgré tout ce qu’on a fait et vécu nous sommes toujours les mêmes et vivons comme nos parents”. Sommes-nous toujours les mêmes ou bien l’Internet nous a changé et séparés de la vie de nos parents?

PL: Nous sommes toujours des êtres humains incarnés et mortels, heureux et malheureux. La condition humaine fondamentale ne change pas. Ce qui change c’est notre culture matérielle et intellectuelle. Notre puissance de communication s’est multipliée et distribuée dans l’ensemble de la société. La perception du monde qui nous entoure s’est aggrandie et précisée. Notre mémoire a augmenté. Nos capacités d’analyse de situations complexes à partir de flots de données vont bientôt transformer notre rapport à notre environnement biologique et social. Grâce à la quantité de données disponibles et à la croissance de notre puissance de calcul, nous allons probablement connaître au XXIe siècle une révolution des sciences humaines comparable à la révolution des sciences de la nature du XVIIe siècle. Nous sommes toujours les mêmes ET nous changeons.

Par Pierre Lévy (@plevy sur Twitter), prof. à l’Université d’Ottawa

Ce texte a été publié dans la revue Sciences du design, n°2, décembre 2015

Danah Boyd (@zephoria sur Twitter) est chercheuse chez Microsoft et enseigne à Harvard. C’est une des plus brillantes chercheuses américaines sur le thème des médias sociaux. Son dernier ouvrage It’s Complicated, the social lives of networked teens (Yale, 2014) est consacré à démonter les mythes concernant les adolescents sur les médias sociaux. Ce travail de sociologie fort solide est fondé sur dix ans d’enquête de terrain (interviews, observations) et de sérieuses études en sciences sociales.
Au lieu de céder à la panique morale devant les prétendues incongruités émises par les ados sur My Space, Facebook, Twitter, Instagram et autres, Boyd prend un soin infini à reconstituer les contextes micro-sociologiques et macro-culturels qui leur donnent sens. La fameuse question de la vie privée sur Facebook, généralement posée de manière abstraite, est ramenée à la situation concrète des adolescents américains. Ces derniers sont coincés entre l’école et la maison – deux univers généralement très régulés – et ils sont peu libres d’interagir entre eux comme ils le veulent. C’est pourquoi ils travaillent activement à se construire des espaces publics sui generis en ligne qu’ils peuplent de leurs pairs. Et tant pis si les posts sont accessibles à tous et permanents. L’« addiction » aux gadgets ou aux réseaux sociaux fait les choux gras des médias traditionnels, des psy et des moralistes grincheux. Mais Boyd trouve plus pertinent d’évoquer une sociabilité adolescente brimée qui trouve à s’exprimer en ligne que d’utiliser le vocabulaire de la psychiatrie. Les loups-garous favoris des journalistes, à savoir les « prédateurs sexuels sur Internet » et « l’intimidation en ligne » (appelée aussi cyber-bullying) sont ramenés à leur juste proportion. L’immense majorité des enfants et adolescents victimes d’abus sexuels ont été brutalisés par des figures familières de leur entourage immédiat et non par des inconnus rencontrés en ligne. Après avoir lu Boyd, on ne confondra plus les farces un peu corsées, les drames affectifs et les échanges rituels d’insultes sur les réseaux sociaux avec la véritable intimidation (qui s’exerce systématiquement d’un fort sur un faible) et qui est somme toute assez rare. Dans les cas où les jeunes sont vraiment en danger, le médium social s’avère plutôt protecteur puisque les abuseurs peuvent être facilement retracés par la police avec l’aide des administrateurs des réseaux.
Après avoir dégonflé les peurs, Boyd s’attache à refroidir les espérances illusoires. Non, la communication par Internet ne fait pas disparaître miraculeusement les inégalités économiques et sociales, ni le racisme, ni les passions toxiques, qui s’exercent et se manifestent en ligne comme ailleurs. Non, les « digital natives » ne sont pas tous des geeks, ils ne savent pas forcément utiliser les outils disponibles en ligne et ils ne font pas preuve d’un esprit critique à toute épreuve devant les flots d’information. Ne confondons pas la familiarité avec un médium et la connaissance approfondie de la manière de s’en servir. La ligne de partage ne passe pas par la date de naissance mais par la culture générale et l’éducation aux médias numériques.
Au-delà de l’effort louable pour contrer la désinformation journalistique et pour rassurer les parents et les éducateurs, le livre de Boyd nous offre un riche accès aux données de son enquête. La présence (un peu redondante) de ce matériau quasi ethnographique a l’avantage de permettre au lecteur qui ne partage pas tous les présupposés de l’auteur d’approfondir sa réflexion sur le médium algorithmique et de tirer ses propres conclusions. Pour ma part, la lecture de cet ouvrage confirme l’idée selon laquelle nous vivons déjà à l’ère data-centrique, dans laquelle les relations sociales passent de plus en plus par les algorithmes et les données. Etant symbolisés par des bits disponibles et computables, les rapports sociaux sont ainsi mis en transparence (pour le meilleur ou pour le pire). Il est clair que cette évolution ouvre de nouvelles avenues économiques, politiques et militaires, mais aussi scientifiques. Un jour, les humanités numériques devront dépasser les belles visualisations de réseaux sociaux pour exploiter en profondeur toutes ces données au moyen d’hypothèses théoriques novatrices et surtout pour renvoyer aux internautes des images utiles des processus socio-cognitifs dans lesquels ils sont engagés.
It’s complicated permet aussi de commencer à réfléchir avec quelque recul sur les déclencheurs non-techniques de l’explosion de popularité des médias sociaux au tournant des XXe et XXIe siècles. Les communautés virtuelles existaient dès les années 1970, mais les médias sociaux ne sont devenus un phénomène massif à l’échelle planétaire que durant la première décennie du XXIe siècle. Les matériaux proposés par Boyd laissent entrevoir l’émergence de ce phénomène à partir de « lignes de faille » socio-démographiques. Pourquoi sont-ce les adolescents (et pas un autre groupe social) qui se sont engouffrés dans le nouvel espace d’interaction en ligne ? Sans doute parce que cette cohorte turbulente occupe un espace interstitiel entre l’âge adulte et l’enfance. Les ados ont cherché à se ménager une zone de liberté dans les réseaux qui soit protégée aussi bien des règlements scolaires que d’une lourde sollicitude parentale obsédée par la sécurité. Les explications de Boyd à ce sujet sont fondées sur une analyse minutieuse de ses entretiens avec des jeunes vivant aux USA. Nous sommes ainsi éclairés sur les évolutions récentes de la société américaine. Mais ce phénomène, qui a certes commencé aux Etats-Unis, s’est immédiatement étendu au reste du monde, où les contraintes sociales sur les adolescents sont différentes et fort variées… L’explication en termes sociologiques et démographiques est donc partielle et limitée à un seul pays. La lecture de Neurotribes (Penguin, 2015) de Steve Silverman nous suggère une autre hypothèse, qui n’est pas forcément contradictoire avec la première. Ce ne serait pas les ados en général, mais les jeunes autistes (les « aspies ») qui seraient les pionniers du développement de la sociabilité en ligne, dès les années 1980 et 1990, parce qu’ils ont trouvé là une manière de communiquer leur permettant de surmonter leur maladresse sociale ! Les minorités cognitives doivent aussi être considérées.
Dès que l’on commence à réfléchir aux causes, on se trouve immédiatement confronté à la fameuse question du « déterminisme technologique », à savoir une hérésie combattue avec force par diverses chapelles de la recherche en sciences sociales. Comme si la technologie n’était pas de la société, de la culture et de l’histoire ! De manière rituelle (et sans nul doute sincère) Boyd critique le déterminisme technologique (par exemple p. 15). Il s’agit pour elle d’assurer que des résultats socialement souhaitables – ou détestables – ne sont nullement garantis par des outils ou des procédés techniques. Nous sommes tous d’accord sur ce point de simple bon sens. Mais ne faudrait-il pas distinguer entre le conditionnement par la technique – le fait que la technique rende possible une vaste gamme de comportements et d’interactions sociales – et la détermination complète d’un phénomène social par une technique considérée indépendamment de son contexte? Si l’hypothèse d’une détermination complète est presque toujours fausse, il me semble que celle du conditionnement (une forme douce du déterminisme technologique) est bien souvent pertinente.
Le livre de Boyd intervient dans une vaste conversation publique sur la jeunesse en ligne à laquelle participent les ados, les parents, les éducateurs, les journalistes, les législateurs et l’industrie. Ici, Boyd se présente essentiellement comme la porte-parole des ados « sans voix » dans le débat civique. Mais son livre intervient aussi dans une autre conversation, plus restreinte, animée par les chercheurs qui travaillent sur les transformations culturelles liées au développement du médium algorithmique. Or nombre de ces chercheurs pensent que leur rôle est avant tout de dénoncer « le système » en général et « le capitalisme » en particulier, dont les techniques numériques sont évidemment le soutien, voire le fer de lance. Boyd paye tribut (p. 27) à la critique du capitalisme, et cela d’autant plus qu’elle doit expier le péché d’être salariée de Microsoft, mais elle nous annonce juste ensuite cette brève révérence qu’elle va considérer la société américaine telle qu’elle est, sans s’appesantir sur la dénonciation du système. Je note à ce sujet que les catégories sociales qu’elle utilise dans l’analyse de ses données (sexe, genre, race, âge, classe, etc.) sont exactement les catégories qui sont utilisées couramment par les adolescents qui sont les objets de ses recherches. En d’autres termes, elle fait de l’ethnométhodologie sans le dire. Cela donne un texte hyper américain, dans lequel les étiquettes classantes de la culture locale (teen, white, latino, black, bi-racial, queer, etc.) sont admises comme naturelles. Or, paradoxalement, c’est précisément son acceptation de la réalité sociale telle qu’elle est et des catégories sociales telles qu’elles sont utilisées par les acteurs eux-mêmes qui donne à son texte son efficacité politique… et donc sa portée critique concrète ! J’en arrive finalement à une réflexion concernant la posture dénonciatrice d’un grand nombre d’intellectuels et d’universitaires qui se spécialisent dans l’analyse du numérique. Un Morozov écrase de son mépris d’intellectuel européen les ingénieurs américains et les publicistes effervescents et superficiels de la Silicon Valley qui n’ont pas lu Latour et qui s’imaginent qu’on peut régler des problèmes politiques complexes avec des gadgets. Mais n’est pas Walter Benjamin ou Theodor Adorno qui veut… Par contraste, Boyd essaye de résoudre des problèmes en faisant travailler ensemble l’industrie, les politiques, les sciences sociales et les humanités. Il n’est pas sûr que les sombres prophètes de l’apocalypse culturelle et les dénonciateurs systématiques (que l’on trouve aussi bien aux USA qu’en Amérique Latine, en Europe et en Asie) soient, au bout du compte, les meilleurs représentants d’une véritable pensée critique, capable de projeter et d’aménager la civilisation en émergence.

BIBLIOGRAPHIE

Adorno, Theodor et Horkheimer, Max, La dialectique de la raison, Gallimard, 1974 (version originale en allemand : 1947).

Benjamin, Walter, «L’œuvre d’art à l’époque de sa reproductibilité technique», dernière version 1939, in Œuvres III, Gallimard, 2000.

Boyd, Dana, It’s complicated, the social lives of networked teens, Yale UP, 2014

Latour, Bruno, Science in Action, Harvard UP, 1987

Lehn, Dirk vom, Harold Garfinkel: The Creation and Development of Ethnomethodology, Left Coast Press, 2014.

Morozov, Evgeni, To Save Everything, Click Here: The Folly of Technological Solutionism, Public Affairs, 2013

Silberman, Steve, NeuroTribes: The Legacy of Autism and the Future of Neurodiversity, Penguin, 2015

lampadaire-5

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : « Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus « complexes » les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ? » Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

lampadaire-13c0c12

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

biface

Le concepteur

J’ai saisi dès la fin des années 1970 que la cognition était une activité sociale et outillée par des technologies intellectuelles. Il ne faisait déjà aucun doute pour moi que les algorithmes allaient transformer le monde. Et si je réfléchis au sens de mon activité de recherche depuis les trente dernières années, je réalise qu’elle a toujours été orientée vers la construction d’outils cognitifs à base d’algorithmes.

A la fin des années 1980 et au début des années 1990, la conception de systèmes experts et la mise au point d’une méthode pour l’ingénierie des connaissances m’ont fait découvrir la puissance du raisonnement automatique (J’en ai rendu compte dans De la programmation considérée comme un des beaux-arts, Paris, La Découverte, 1992). Les systèmes experts sont des logiciels qui représentent les connaissances d’un groupe de spécialistes sur un sujet restreint au moyen de règles appliquées à une base de données soigneusement structurée.  J’ai constaté que cette formalisation des savoir-faire empiriques menait à une transformation de l’écologie cognitive des collectifs de travail, quelque chose comme un changement local de paradigme. J’ai aussi vérifié in situ que les systèmes à base de règles fonctionnaient en fait comme des outils de communication de l’expertise dans les organisations, menant ainsi à une intelligence collective plus efficace. J’ai enfin expérimenté les limites de la modélisation cognitive à base purement logique : elle ne débouchait alors, comme les ontologies d’aujourd’hui, que sur des micro-mondes de raisonnement cloisonnés. Le terme d’« intelligence artificielle », qui évoque des machines capables de décisions autonomes, était donc trompeur.

Je me suis ensuite consacré à la conception d’un outil de visualisation dynamique des modèles mentaux (Ce projet est expliqué dans L’Idéographie dynamique, vers une imagination artificielle, La Découverte, Paris, 1991). Cet essai m’a permis d’explorer la complexité sémiotique de la cognition en général et du langage en particulier. J’ai pu apprécier la puissance des outils de représentation de systèmes complexes pour augmenter la cognition. Mais j’ai aussi découvert à cette occasion les limites des modèles cognitifs non-génératifs, comme celui que j’avais conçu. Pour être vraiment utile, un outil d’augmentation intellectuelle devait être pleinement génératif, capable de simuler des processus cognitifs et de faire émerger de nouvelles connaissances.

Au début des années 1990 j’ai co-fondé une start up qui commercialisait un logiciel de gestion personnelle et collective des connaissances. J’ai été notamment impliqué dans l’invention du produit, puis dans la formation et le conseil de ses utilisateurs (Voir Les Arbres de connaissances, avec Michel Authier, La Découverte, Paris, 1992). Les Arbres de connaissances intégraient un système de représentation interactive des compétences et connaissances d’une communauté, ainsi qu’un système de communication favorisant l’échange et l’évaluation des savoirs. Contrairement aux outils de l’intelligence artificielle classique, celui-ci permettait à tous les utilisateurs d’enrichir librement la base de données commune. J’ai retenu de mon expérience dans cette entreprise la nécessité de représenter les contextes pragmatiques par des simulations immersives, dans lesquelles chaque ensemble de données sélectionné (personnes, connaissances, projets, etc.) réorganise l’espace autour de lui et génère automatiquement une représentation singulière du tout : un point de vue. Mais j’ai aussi rencontré lors de ce travail le défi de l’interopérabilité sémantique, qui allait retenir mon attention pendant les vingt-cinq années suivantes. En effet, mon expérience de constructeur d’outils et de consultant en technologies intellectuelles m’avait enseigné qu’il était impossible d’harmoniser la gestion personnelle et collective des connaissances à grande échelle sans langage commun. La publication de “L’intelligence collective” (La Découverte, Paris, 1994)  traduisait en théorie ce que j’avais entrevu dans ma pratique : de nouveaux outils d’augmentation cognitive à support algorithmique allaient supporter des formes de collaboration intellectuelle inédites. Mais le potentiel des algorithmes ne serait pleinement exploité que grâce à un métalangage rassemblant les données numérisées dans le même système de coordonnées sémantique.

A partir du milieu des années 1990, pendant que je dévouais mon temps libre à concevoir ce système de coordonnées (qui ne s’appelait pas encore IEML), j’ai assisté au développement progressif du Web interactif et social. Le Web offrait pour la première fois une mémoire universelle accessible indépendamment de la localisation physique de ses supports et de ses lecteurs. La communication multimédia entre points du réseau était instantanée. Il suffisait de cliquer sur l’adresse d’une collection de données pour y accéder. Au concepteur d’outils cognitifs que j’étais, le Web apparaissait comme une opportunité à exploiter.

L’utilisateur

J’ai participé pendant près d’un quart de siècle à de multiples communautés virtuelles et médias sociaux, en particulier ceux qui outillaient la curation collaborative des données. Grâce aux plateformes de social bookmarking de Delicious et Diigo, j’ai pu expérimenter la mise en commun des mémoires personnelles pour former une mémoire collective, la catégorisation coopérative des données, les folksonomies émergeant de l’intelligence collective, les nuages de tags qui montrent le profil sémantique d’un ensemble de données. En participant à l’aventure de la plateforme Twine créée par Nova Spivack entre 2008 et 2010, j’ai mesuré les points forts de la gestion collective de données centrée sur les sujets plutôt que sur les personnes. Mais j’ai aussi touché du doigt l’inefficacité des ontologies du Web sémantique – utilisées entre autres par Twine – dans la curation collaborative de données. Les succès de Twitter et de son écosystème m’ont confirmé dans la puissance de la catégorisation collective des données, symbolisée par le hashtag, qui a finalement été adopté par tous les médias sociaux. J’ai rapidement compris que les tweets étaient des méta données contenant l’identité de l’auteur, un lien vers les données, une catégorisation par hashtag et quelques mots d’appréciation. Cette structure est fort prometteuse pour la gestion personnelle et collective des connaissances. Mais parce que Twitter est fait d’abord pour la circulation rapide de l’information, son potentiel pour une mémoire collective à long terme n’est pas suffisamment exploité. C’est pourquoi je me suis intéressé aux plateformes de curation de données plus orientées vers la mémoire à long terme comme Bitly, Scoop.it! et Trove. J’ai suivi sur divers forums le développement des moteurs de recherche sémantiques, des techniques de traitement du langage naturel et des big data analytics, sans y trouver les outils qui feraient franchir à l’intelligence collective un seuil décisif. Enfin, j’ai observé comment Google réunissait les données du Web dans une seule base et comment la firme de Mountain View exploitait la curation collective des internautes au moyen de ses algorithmes. En effet, les résultats du moteur de recherche sont basés sur les hyperliens que nous créons et donc sur notre collaboration involontaire. Partout dans les médias sociaux je voyais se développer la gestion collaborative et l’analyse statistique des données, mais à chaque pas je rencontrais l’opacité sémantique qui fragmentait l’intelligence collective et limitait son développement.

La future intelligence algorithmique reposera forcément sur la mémoire hypertextuelle universelle. Mais mon expérience de la curation collaborative de données me confirmait dans l’hypothèse que j’avais développée dès le début des années 1990, avant même le développement du Web. Tant que la sémantique ne serait pas transparente au calcul et interopérable, tant qu’un code universel n’aurait pas décloisonné les langues et les systèmes de classification, notre intelligence collective ne pourrait faire que des progrès limités.

Mon activité de veille et d’expérimentation a nourri mon activité de conception technique. Pendant les années où je construisais IEML, pas à pas, à force d’essais et d’erreurs, de versions, de réformes et de recommencements, je ne me suis jamais découragé. Mes observations me confirmaient tous les jours que nous avions besoin d’une sémantique calculable et interopérable. Il me fallait inventer l’outil de curation collaborative de données qui reflèterait nos intelligences collectives encore séparées et fragmentées. Je voyais se développer sous mes yeux l’activité humaine qui utiliserait ce nouvel outil. J’ai donc concentré mes efforts sur la conception d’une plateforme sémantique universelle où la curation de données serait automatiquement convertie en simulation de l’intelligence collective des curateurs.

Mon expérience de concepteur technique et de praticien a toujours précédé mes synthèses théoriques. Mais, d’un autre côté, la conception d’outils devait être associée à la connaissance la plus claire possible de la fonction à outiller. Comment augmenter la cognition sans savoir ce qu’elle est, sans connaître son fonctionnement ? Et puisque, dans le cas qui m’occupait, l’augmentation s’appuyait précisément sur un saut de réflexivité, comment aurais-je pu réfléchir, cartographier ou observer quelque chose dont je n’aurais eu aucun modèle ? Il me fallait donc établir une correspondance entre un outil interopérable de catégorisation des données et une théorie de la cognition. A suivre…