Archives for category: French

Diapositive1.jpg
FIGURE 1

J’ai montré dans un post précédent, l’importance contemporaine de la curation collaborative de données.  Les compétences dans ce domaine sont au coeur de la nouvelle litéracie algorithmique. La figure 1 présente ces compétences de manière systématique et, ce faisant, elle met en ordre les savoir-faire intellectuels et pratiques tout comme les « savoir-être » éthiques qui supportent l’augmentation de l’intelligence collective en ligne. L’étoile évoque le signe, le visage l’être et le cube la chose (sur ces concepts voir ce post). La table est organisée en trois rangées et trois colonnes interdépendantes. La première rangée explicite les fondements de l’intelligence algorithmique au niveau personnel, la seconde rappelle l’indispensable travail critique sur les sources de données et la troisième détaille les compétences nécessaires à l’émergence d’une intelligence collective augmentée par les algorithmes. L’intelligence personnelle et l’intelligence collective travaillent ensemble et ni l’une ni l’autre ne peuvent se passer d’intelligence critique ! Les colonnes évoquent trois dimensions complémentaires de la cognition : la conscience réflexive, la production de signification et la mémoire. Aucune d’elles ne doit être tenue pour acquise et toutes peuvent faire l’objet d’entraînement et de perfectionnement. Dans chaque case, l’item du haut pointe vers un exercice de virtualisation tandis que celui du bas indique une mise en oeuvre actuelle de la compétence, plus concrète et située. Je vais maintenant commenter le tableau de la figure 1 rangée par rangée.

L’intelligence personnelle

La notion d’intelligence personnelle doit ici s’entendre au sens d’une compétence cognitive individuelle. Mais elle tire également vers la signification du mot « intelligence » en anglais. Dans ce dernier sens, elle désigne la capacité d’un individu à mettre en place son propre système de renseignement.

La gestion de l’attention ne concerne pas seulement l’exercice de la concentration et l’art complémentaire d’éviter les distractions. Elle inclut aussi le choix réfléchi de priorités d’apprentissage et le discernement de sources d’information pertinentes. Le curateur lui-même doit décider de ce qui est pertinent et de ce qui ne l’est pas selon ses propres critères et en fonction des priorités qu’il s’est donné. Quant à la notion de source, est-il besoin de souligner ici que seuls les individus, les groupes et les institutions peuvent être ainsi qualifiés. Seuls donc ils méritent la confiance ou la méfiance. Quant aux médias sociaux, ce ne sont en aucun cas des sources (contrairement à ce que croient certains journalistes) mais plutôt des plateformes de communication. Prétendre, par exemple, que « Twitter n’est pas une source fiable », n’a pas plus de sens que l’idée selon laquelle « le téléphone n’est pas une source fiable ».

L’interpretation des données relève également de la responsabilité des curateurs. Avec tous les algorithmes statistiques et tous les outils d’analyse automatique de données (« big data analytics ») du monde, nous aurons encore besoin d’hypothèses causales, de théories et de systèmes de catégorisation pour soutenir ces théories. Les corrélations statistiques peuvent suggérer des hypothèses causales mais elles ne les remplacent pas. Car nous voulons non seulement prédire le comportement de phénomènes complexes, mais aussi les comprendre et agir sur la base de cette compréhension. Or l’action efficace suppose une saisie des causes réelles et non seulement la perception de corrélations. Sans les intuitions et les théories dérivées de notre connaissance personnelle d’un domaine, les outils d’analyse automatique de données ne seront pas utilisés à bon escient. Poser de bonnes questions aux données n’est pas une entreprise triviale !

Finalement, les données collectionnées doivent être gérées au plan matériel. Il nous faut donc choisir les bons outils d’entreposage dans les « nuages » et savoir manipuler ces outils. Mais la mémoire doit être aussi entretenue au niveau conceptuel. C’est pourquoi le bon curateur est capable de créer, d’adopter et surtout de maintenir un système de catégorisation qui lui permettra de retrouver l’information désirée et d’extraire de ses collections la connaissance qui lui sera utile.

L’intelligence critique

L’intelligence critique porte essentiellement sur la qualité des sources. Elle exige d’abord un travail de critique « externe ». Nous savons qu’il n’existe pas d’autorité transcendante dans le nouvel espace de communication. Si nous ne voulons pas être trompé, abusé, ou aveuglé par des oeillères informationnelles, il nous faut donc autant que possible diversifier nos sources. Notre fenêtre d’attention doit être maintenue bien ouverte, c’est pourquoi nous nous abonnerons à des sources adoptant divers points de vue, récits organisateurs et théories. Cette diversité nous permettra de croiser les données, d’observer les sujets sur lesquelles elles se contredisent et ceux sur lesquelles elles se confirment mutuellement.

L’évaluation des sources demande également un effort de décryptage des identités : c’est la critique « interne ». Pour comprendre la nature d’une source, nous devons reconnaître son système de classification, ses catégories maîtresses et son récit organisateur. En un sens, une source n’est autre que le récit autour duquel elle organise ses données : sa manière de produire du sens.

Finalement l’intelligence critique possède une dimension « pragmatique ». Cette critique est la plus dévastatrice parce qu’elle compare le récit de la source avec ce qu’elle fait réellement. Je vise ici ce qu’elle fait en diffusant ses messages, c’est-à-dire l’effet concret de ses actes de communication sur les conversations en cours et l’état d’esprit des participants. Je vise également les contributions intellectuelles et esthétiques de la source, ses interactions économiques, politiques, militaires ou autres telles qu’elles sont rapportées par d’autres sources. Grâce à cette bonne mémoire nous pouvons noter les contradictions de la source selon les moments et les publics, les décalages entre son récit officiel et les effets pratiques de ses actions. Enfin, plus une source se montre transparente au sujet de ses propres sources d’informations, de ses références, de son agenda et de son financement et plus elle est fiable. Inversement, l’opacité éveille les soupçons.

L’intelligence collective

Je rappelle que l’intelligence collective dont il est question ici n’est pas une « solution miracle » mais un savoir-faire à cultiver qui présuppose et renforce en retour les intelligences personnelles et critiques.

Commençons par définir la stigmergie : il s’agit d’un mode de communication dans lequel les agents se coordonnent et s’informent mutuellement en modifiant un environnement ou une mémoire commune. Dans le médium algorithmique, la communication tend à s’établir entre des pairs qui créent, catégorisent, critiquent, organisent, lisent, promeuvent et analysent des données au moyen d’outils algorithmiques. Il s’agit bien d’une communication stigmergique parce que, même si les personnes dialoguent et se parlent directement, le principal canal de communication reste une mémoire commune que les participants exploitent et transforment ensemble. Il est utile de distinguer entre les mémoires locale et globale. Dans la mémoire « locale » de réseaux ou de communautés particulières, nous devons prêter attention à des contextes et à des histoires singulières. Il est également recommandé de tenir compte des contributions des autres participants, de ne pas aborder des sujets non-pertinents pour le groupe, d’éviter les provocations, les explosions d’agressivité, les provocations, etc.

Quant à la mémoire « globale », il faut se souvenir que chaque action dans le médium algorithmique réorganise – même de façon infinitésimale – la mémoire commune : lire, taguer, acheter, poster, créer un hyperlien, souscrire, s’abonner, « aimer », etc. Nous créons notre environnement symbolique de manière collaborative. Le bon agent humain de l’intelligence collective gardera donc à la conscience que ses actions en ligne contribuent à l’information des autres agents.

La liberté dont il est question dans la figure 1 se présente comme une dialectique entre pouvoir et responsabilité. Le pouvoir recouvre notre capacité à créer, évaluer, organiser, lire et analyser les données, notre aptitude à faire évoluer la mémoire commune à partir de la multitude distribuée de nos actions. La responsabilité se fonde sur une conscience réfléchie de notre pouvoir collectif, conscience qui informe en retour l’orientation de notre attention et le sens que nous donnons à l’exercice de nos pouvoirs.

Diapositive4.jpg

FIGURE 2

L’apprentissage collaboratif

Finalement, l’apprentissage collaboratif est un des processus cognitifs majeurs de l’intelligence collective et le principal bénéfice social des habiletés en curation de données. Afin de bien saisir ce processus, nous devons distinguer entre savoirs tacites et savoirs explicites. Les savoirs tacites recouvrent ce que les membres d’une communauté ont appris dans des contextes particuliers, les savoir-faire internalisés dans les réflexes personnels à partir de l’expérience. Les savoirs explicites, en revanche, sont des récits, des images, des données, des logiciels ou d’autres ressources documentaires, qui sont aussi clairs et décontextualisés que possible, afin de pouvoir être partagés largement.

L’apprentissage collaboratif enchaîne deux mouvements. Le premier consiste à traduire le savoir tacite en savoir explicite pour alimenter une mémoire commune. Dans un second mouvement, complémentaire du premier, les participants exploitent le savoir explicite et les ressources d’apprentissage disponibles dans la mémoire commune afin d’adapter ces connaissances à leur contexte particulier et de les intégrer dans leurs réflexes quotidiens. Les curateurs sont potentiellement des étudiants ou des apprenants lorsqu’ils internalisent un savoir explicite et ils peuvent se considérer comme des enseignants lorsqu’ils mettent des savoirs explicites à la disposition des autres. Ce sont donc des pairs (voir la figure 2) qui travaillent dans un champ de pratique commun. Ils transforment autant que possible leur savoir tacite en savoir explicite et travaillent en retour à traduire la partie des connaissances explicites qu’ils veulent acquérir en savoir pratique personnel. J’écris “autant que possible” parce que l’explicitation totale du savoir tacite est hors de portée, comme l’a bien montré Michael Polanyi.

Dans le médium algorithmique, le savoir explicite prend la forme de données catégorisées et évaluées. Le cycle de transformation des savoirs tacites en savoirs explicites et vice versa prend place dans les médias sociaux, où il est facilité par une conversation créative civilisée : les compétences intellectuelles et sociales (ou morales) fonctionnent ensemble !

La curation de données

Comme Monsieur Jourdain faisait de la prose sans le savoir, tout le monde fait aujourd’hui de la curation de données – on dit aussi de la curation de contenu – sans le savoir. Sur les grandes plateformes de médias sociaux comme Facebook, Twitter, Pinterest ou Instagram, mais aussi dans une multitude d’applications en ligne plus spécialisées comme Evernote, Scoop.it ou Diigo, les utilisateurs font référence à des données (textes, images, vidéos, musique…) qu’ils accompagnent de commentaires, de hashtags classificateurs et de diverses formes d’évaluations et d’émoticons. Ces posts s’accumulent dans des collections personnelles ou communautaires, apparaissent sur les fils d’autres utilisateurs et sont réexpédiées ad libitum avec d’éventuels changements de commentaires, de hashtags et d’appréciations émotionnelles. Les posts deviennent eux-mêmes des données qui peuvent à leur tour faire l’objet de références, de commentaires, de marquage affectif, de recherche et d’analyse. Les médias sociaux nous proposent des outils perfectionnés de gestion de base de données, avec des algorithmes de fouille, d’apprentissage machine, de reconnaissance de forme et de filtrage collaboratif qui nous aident à naviguer parmi la masse du contenu et les foules d’utilisateurs. Mais l’alimentation de la base tout comme la catégorisation et l’évaluation des données sont à notre charge.

labyrinthe-livres.jpg

Le mot curation, employé d’abord en anglais pour désigner l’activité d’un commissaire d’exposition dans l’univers des galeries d’art et des musées, a été récemment généralisé à toutes les activités de collection d’information. L’étymologie latine du mot évoque le soin médical (la cure) et plus généralement le souci. S’il est vrai que nous entrons dans une société datacentrique, le souci des données, l’activité qui consiste à collectionner et organiser des données pour soi et pour les autres devient cruciale. Et puisque la société datacentrique repose sur une effervescente économie de la connaissance, au sens le plus vaste et le plus « écologique » de la notion d’économie (voir à ce sujet La Sphère sémantique 1, Chp. 6.) l’enjeu ultime de la curation de données n’est autre que la production et le partage des connaissances.

Je vais maintenant évoquer un certain nombre de sphères d’activité dans lesquelles la maîtrise de la curation collaborative de données commence à s’imposer comme une compétence essentielle : la conservation des héritages, la recherche en sciences humaines, l’apprentissage collaboratif, la production et la diffusion des nouvelles, le renseignement à sources ouvertes et la gestion des connaissances.

url.jpg

La conservation des héritages

Les responsables des archives, bibliothèques, médiathèques et musées collectionnent depuis des siècles des artefacts porteurs d’information et les organisent de telle sorte que leur public puisse les retrouver et les consulter. C’est dans ce milieu professionnel qu’est d’abord apparue la distinction entre données et métadonnées. Du côté des données, les documents physiques sont posés sur des étagères. Du côté des métadonnées, un fichier permet de rechercher les documents par auteurs, titres, sujets, disciplines, dates, etc. Le bibliothécaire fabrique une fiche, voire plusieurs fiches, pour chaque document qui entre dans la bibliothèque et le lecteur fouille dans les fiches pour explorer le contenu de la bibliothèque et savoir où se trouvent placés les livres qu’il veut lire. Sans l’appareillage des métadonnées et les principes d’organisation qui les sous-tendent il serait impossible d’exploiter les informations contenues dans une bibliothèque. Depuis la fin du XXe siècle, le monde des archives, des bibliothèques et des musées connaît une grande transformation. La numérisation fait converger toutes les informations dans le médium algorithmique et cette unification met cruellement en évidence la disparité et l’incompatibilité des systèmes de classification en usage. De plus, les principaux systèmes de métadonnées ont été conçus et utilisés à l’époque de l’imprimerie, ils n’exploitent donc pas les nouvelles possibilités de calcul automatique. Finalement, les flots d’information ont tellement crû qu’ils échappent à toute possibilité de catalogage classique par un petit nombre de professionnels. Depuis quelques années, les musées et bibliothèques numérisent et mettent en ligne leurs collections en faisant appel au crowdsourcing, c’est-à-dire à l’intelligence collective des internautes, pour catégoriser les données. Cette curation collaborative de données brouille la distinction entre curateurs et utilisateurs tout en manifestant la diversité des points de vue et des intérêts du public. Par ailleurs, une multitude de sites puisant leurs données dans le Web ouvert, et souvent indépendants des institutions classiques de préservation des héritages culturels, permettent aux amateurs d’art ou aux bibliophiles de partager leurs goûts et leurs trouvailles, de se regrouper par sensibilité et par centres d’intérêts.

La recherche en sciences humaines

La numérisation des archives et des héritages culturels, l’accessibilité des données et statistiques compilées par les gouvernements et les institutions internationales, les communications et transactions des internautes recueillies par les grandes plateformes du Web, toutes ces nouvelles sources offrent aux sciences humaines une matière première dont l’abondance défie l’imagination. Par ailleurs les blogs de chercheurs, les plateformes collaboratives spécialisées dans la collection d’articles (comme Academia.edu, Researchgate, Mendeley, CiteULike…) et les bases de données partagées transforment profondément les pratiques de recherche. Enfin, une frange croissante des professionnels des sciences humaines s’initie à la programmation et à l’usage avancé des algorithmes, produisant et partageant le plus souvent des outils open source. L’édition scientifique traditionnelle est en crise puisque la communication entre chercheurs n’a plus besoin de journaux imprimés. Chaque plateforme en ligne propose ses propres méthodes d’appréciation des publications, basées sur un traitement automatisé des interactions sociales, ce qui remet en question les modes classiques de filtrage et d’évaluation des articles. Certes, le problème posé par l’incompatibilité des plateformes et des systèmes de catégorisation reste à résoudre. Il subsiste donc quelques obstacles à franchir, mais tout est en place pour que la curation collaborative de données s’impose comme l’activité centrale de la recherche en sciences humaines… et de son évaluation.

L’apprentissage collaboratif

La curation collaborative de données émerge également comme une pratique essentielle dans le domaine de l’éducation. A l’époque du médium algorithmique, les connaissances évoluent vite, presque toutes les ressources d’apprentissage sont disponibles gratuitement en ligne et les étudiants sont déjà plongés dans le bain des médias sociaux. Le vieux modèle des communautés d’apprentissage s’organisant autour d’une bibliothèque ou d’un entrepôt physique de documents est donc obsolète. L’apprentissage doit être de plus en plus pensé comme partiellement délocalisé, collaboratif et continu. L’ensemble de la société acquiert une dimension d’apprentissage. Cela n’implique pas que les institutions d’enseignement classiques, école et université, ne soient plus pertinentes, bien au contraire. C’est précisément parce que l’apprentissage va puiser dans un stock de ressources pratiquement infini qu’aucune autorité transcendante ne peut plus organiser et hiérarchiser a priori que l’école a l’obligation d’entraîner les jeunes gens à l’apprentissage collaboratif et critique par le biais des médias sociaux. La fameuse littéracie numérique ne repose pas principalement sur l’acquisition de compétences techniques en informatique (qui changent rapidement), mais plutôt sur un savoir-faire socio-cognitif orienté vers la curation collaborative de données : filtrer les contenus pertinents pour tel ou tel groupe, les catégoriser, les évaluer, consulter les données, rédiger de courtes synthèses… Ainsi les enseignants utilisent des plateformes de social bookmarking (partage de signets) comme Diigo pour animer leurs cours, les MOOCs connectivistes font appel aux étudiants pour alimenter leurs ressources d’apprentissage, on trouvera une multitude de hashtags reliés à l’éducation et à l’apprentissage sur Twitter et les groupes Facebook abritent de plus en plus de classes…

Les nouvelles

La production et la dissémination des nouvelles participe du même type de mutation que celles qui viennent d’être évoquées. Du côté de la production, les journalistes s’initient à l’exploitation statistique des bases de données ouvertes pour en retirer les synthèses et les visualisations qui vont alimenter leurs articles. Ils suivent leurs collègues ainsi qu’une foules de sources sur Twitter afin de rester à jour sur les thèmes dont ils s’occupent. Par ailleurs, ce ne sont plus seulement les agences de presse et les journalistes professionnels qui produisent les nouvelles mais également les acteurs culturels, économiques, politiques et militaires par l’intermédiaire de leurs sites et de leurs agents dans les médias sociaux. N’oublions pas non plus les citoyens ordinaires qui prennent des photos et des vidéos grâce à leurs téléphones intelligents, qui diffusent ce qu’ils voient et ce qu’ils pensent sur toutes les plateformes et qui réagissent en temps réel aux nouvelles diffusées par les médias classiques. Du côté de la réception, la consommation des nouvelles se fait de plus en plus en ligne par le biais de Facebook, de Twitter, de Google news et d’autres plateformes sociales. Puisque chacun peut accéder directement aux sources (les messages émis par les acteurs eux-mêmes), les médias classiques ont perdu le monopole de l’information. Sur les sujets qui m’intéressent, je suis les experts de mon choix, j’écoute tous les sons de cloche et je me fais ma propre idée sans être obligé de m’en remettre à des synthèses journalistiques simplificatrices et forcément tributaires d’un agenda ou d’un maître-récit (« narrative ») politique ou national. En somme, aussi bien les professionnels de l’information que le nouveau public critique en ligne pratiquent assidûment la curation collaborative de données

L’intelligence open-source

Le domaine du renseignement économique (« business intelligence »), politique ou militaire échappe progressivement à l’ancienne logique de l’espionnage. Désormais, l’abondance des sources d’information en ligne rend de moins en moins judicieux l’entretien d’un personnel spécialement chargé de recueillir des informations sur place. En revanche, les compétences linguistiques, culturelles et scientifiques, l’érudition en sciences humaines, la capacité à extraire les renseignements pertinents du flot des données, le monitoring des médias sociaux et le savoir-faire collaboratif deviennent indispensables. A part les noms et adresses des agents doubles et le détail des plans d’attaque, tout est désormais disponible sur internet. A qui sait chercher en ligne et lire entre les mots, les images des satellites, les sites médiatiques, académiques, diplomatiques et militaires, sans oublier les rapports des « think tanks » en pdf, permettent de comprendre les situations et de prendre des décisions éclairées. Certes, les agents d’influence, trolls, utilisateurs masqués et robots logiciels tentent de brouiller les cartes, mais ils révèlent à la longue les stratégies des marionnettistes qui les manipulent. Dans le domaine en pleine expansion de l’open source intelligence les agences de renseignement – comme la nuée de leurs fournisseurs d’information, d’analyse et de synthèse – coopèrent dans la production, l’échange et l’évaluation des données. Ici encore, la curation collaborative de contenu est à l’ordre du jour.

La gestion des connaissances

Une équipe de travail, une entreprise quelconque – qu’elle soit publique, privée ou associative – se trouve dans la nécessité de « gérer ses connaissances » pour atteindre ses buts. Le terme de gestion des connaissances a commencé à être utilisé vers le milieu des années 1990, au moment même où naissait le Web et alors que l’idée d’une économie basée sur les savoirs et l’innovation commençait à s’affirmer. L’un des principaux fondateurs de cette nouvelle discipline, Ikujiro Nonaka (né en 1935), s’est attaché à décrire le cycle de création des connaissances dans les entreprises en insistant sur la phase d’explicitation des savoir-faire pratiques. A la suite de Nonaka, de nombreux chercheurs et praticiens ont tenté de déterminer les meilleures méthodes pour expliciter les savoirs tacites – nés de l’expérience – afin de les conserver et de les diffuser dans les organisations. Les premiers outils de gestion des connaissances étaient assez rigides et centralisés, à l’image de l’informatique de l’époque. On met en place aujourd’hui (2016) de véritables médias sociaux d’entreprise, dans lesquels les collaborateurs peuvent repérer mutuellement leurs compétences, créer des groupes de travail et des communautés de pratique, accumuler des ressources et partager des données. Indépendamment des outils techniques utilisés, la gestion des connaissances est une dimension transversale de toute entreprise. Cette épistémologie appliquée inclut la conservation des savoirs et savoir-faire, le développement des compétences et des ressources humaines, l’art de créer et de diffuser les connaissances. De fait, en observant les pratiques contemporaines dans les médias sociaux d’entreprise qui supportent la gestion des connaissances, on découvre que l’une des principales activités se trouve être justement la curation collaborative de données.

Il existe donc une pratique commune à de nombreux secteurs de la culture mondiale contemporaine, pratique dont les cloisonnements sociaux et la disparité des jargons professionnels dissimulent l’unité et la transversalité. Je fais l’hypothèse que la curation collaborative de données est le support techno-social de l’intelligence collective à l’époque du médium algorithmique : écrire et lire… sur des flots de données.

Pour en savoir plus sur les compétences en curation collaborative de données, lisez-donc le post qui suit!

L’intelligence collective désigne l’augmentation des capacités cognitives des groupes humains grâce à une utilisation judicieuse des médias numériques. On vise ici la mémoire partagée, l’apprentissage collaboratif et la coordination des compétences en temps réel.
L’éthologie étudie l’intelligence collective des espèces sociales. Par exemple, les abeilles, les fourmis et les termites ont une division du travail poussée et communiquent de manière étroite. Même si les capacités cognitives d’une fourmi sont limitées, la fourmilière dans son ensemble manifeste une « intelligence émergente » qui lui permet d’apprendre et de résoudre des problèmes. Les grands singes ont un comportement social complexe et des modes de communication particulièrement développés.

Ruche

L’intelligence collective humaine se situe dans la continuité de l’intelligence collective animale, mais elle est plus perfectionnée à cause du langage, des techniques et des institutions politiques, économiques, légales et autres qui nous caractérisent. La principale différence entre les intelligences collectives animale et humaine tient à la culture, c’est-à-dire à une capacité d’apprentissage accélérée de l’espèce, dont les savoir-faire s’accumulent et se transmettent d’une génération à l’autre au moyen de signes et d’outils plutôt que par la simple évolution biologique. Aucun individu ne serait « intelligent » s’il ne participait pas à la communication sociale et s’il n’héritait pas des connaissances créées par les générations précédentes.
L’évolution culturelle a déjà franchi plusieurs seuils d’intelligence collective. En effet, les inventions de l’écriture, de l’imprimerie et des médias électroniques (enregistrement musical, téléphone, radio, télévision) ont déjà augmenté de manière irréversible nos capacités de mémoire et de communication sociale. L’intelligence collective des groupes humains n’est pas à créer, elle existe déjà et elle a derrière elle une longue histoire. Le véritable enjeu du méta medium algorithmique est donc le franchissement d’un nouveau seuil d’augmentation de l’intelligence collective.

Cuneiform

L’internet supporte de nouvelles formes d’intelligence collective pour trois grandes raisons. Premièrement, il permet une communication ubiquitaire indépendante des distances géographiques. La capacité d’émettre et de sélectionner l’information à volonté se trouve entre les mains de tous. Deuxièmement, l’internet enregistre et interconnecte progressivement la plus grande partie des connaissances produites par l’humanité, construisant ainsi une mémoire dynamique commune et participative. Troisièmement, les algorithmes traitent automatiquement l’information, ouvrant la voie à de nouvelles formes de traduction, d’analyse de données, de fouille et de filtrage collaboratif.
Une grande partie de l’intelligence collective à support numérique est implicite. Chaque fois que l’on fait une requête sur un moteur de recherche, que l’on envoie un message en ligne, que l’on crée un hyperlien, que l’on catégorise une information au moyen d’un hashtag, que l’on achète un produit en ligne ou que l’on « aime » une photo, on alimente des algorithmes qui transforment la structure de la mémoire collective et qui contribuent à orienter l’attention et l’activité des autres internautes.
Il existe aussi des formes explicites d’intelligence collective. Citons la programmation collaborative (logiciels libres, Github…), les nouvelles formes d’encyclopédie en ligne comme Wikipedia, qui rassemblent d’immenses communautés internationales de rédacteurs et d’éditeurs, les dispositifs d’apprentissage collaboratif en réseau (pédagogies innovantes, MOOCs…), les jeux en ligne massivement multi-joueurs ou les diverses applications de curation collaborative de contenu qui visent à filtrer et catégoriser les flux d’information dans une optique de gestion décentralisée des connaissances.

hashtag

Au-delà de pratiques sociales largement répandues, l’intelligence collective est également un mot d’ordre programmatique. En informatique, c’est une ligne de recherche qui fait contrepoint à l’intelligence artificielle et qui a été initié par Douglas Engelbart, l’inventeur de la souris et des premières applications de travail collaboratif. Au lieu d’essayer de rendre les ordinateurs plus intelligents que les humains, on vise ici à rendre les humains plus intelligents ensemble au moyen des ordinateurs. Dans le domaine du management de l’économie de la connaissance, l’intelligence collective se présente comme un art de maximiser simultanément la liberté créatrice et l’efficacité collaborative. En politique, il s’agit de permettre au plus grand nombre de voix singulières de se faire entendre (par opposition à l’homogénéisation partisane), de favoriser la délibération en ligne et la création rapide de réseaux de mobilisation et d’entraide.
La notion d’intelligence collective donne lieu à quelques malentendus. On lui oppose la « stupidité collective » constatée sur les réseaux sociaux. Mais parler d’intelligence collective n’implique aucun jugement de valeur. On peut noter l’augmentation des capacités cognitives des groupes sans nécessairement approuver tout ce qui se dit sur Internet. Il ne s’agit pas non plus d’attribuer une conscience autonome aux collectivités. La conscience réflexive est personnelle alors que l’intelligence collective est un phénomène social émergeant. Enfin, l’augmentation technique des capacités cognitives des groupes ne dispense nullement d’un effort personnel d’apprentissage et de création originale. Un des grands défis de l’enseignement contemporain consiste à éduquer les étudiants à une utilisation responsable des nouveaux outils de communication. Apprendre à gérer son attention, faire une analyse critique des sources auxquelles on se branche, tenir compte de la culture de ses correspondants, identifier les différents récits et leurs contradictions : tout cela contribue aussi bien aux apprentissages individuels qu’à bonifier l’intelligence collective.

Pour plus de détails sur ma théorie de l’intelligence collective, aller là!

Ce post est la version française d’un entretien en portugais (Brésil) avec le prof.  Juremir Machado da Silva

 

1 – JMDS: Le développement d’internet a pris plus de temps qu’on n’imagine, mais pour presque tout le monde internet c’est l’explosion du web pendant les années 1990. On peut dire d’une certaine façon que ça fait 30 ans qu’on est entré dans un nouvel imaginaire. Est-ce qu’il y a encore beaucoup de choses à venir ou le cycle a atteint son plafond?

PL: Internet s’est developpé de façon beaucoup plus rapide que n’importe quel autre système de communication. Il y avait moins de 1% de la population mondiale branchée au début des années 1990 et près de 45% une génération plus tard. On avance très vite vers 50% et plus…
Nous sommes seulement au début de la révolution du medium algorithmique. Au cours des générations suivantes nous allons assister à plusieurs grandes mutations. L’informatique ubiquitaire fondue dans le paysage et constamment accessible va se généraliser. L’accès à l’analyse de grandes masses de données (qui est aujourd’hui dans les mains des gouvernements et grandes entreprises) va se démocratiser. Nous aurons de plus en plus d’images de notre fonctionnement collectif en temps réel, etc. L’éducation va se recentrer sur la formation critique à la curation collective des données. La sphère publique va devenir internationale et va s’organiser par « nuages sémantiques » dans les réseaux sociaux. Les états vont passer de la forme « état-nation » à la forme « état en essaim » avec un territoire souverain et une strate déterritorialisée dans l’info-sphère ubiquitaire, les crypto-monnaies vont se répandre, etc.

2 –JMDS: On parte beaucoup d’internet des objets et de tout internet. Ce sont des vraies mutations ou juste des accélérations?

Internet peut être analysé en deux aspects conceptuellement distincts mais pratiquement interdépendants et inséparables. D’une part l’infosphère, les données, les algorithmes, qui sont immatériels et ubiquitaires : ce sont les « nuages ». D’autre part les capteurs, les gadgets, les smart-phones, les dispositifs portables de toutes sortes, les ordinateurs, les data centers, les robots, tout ce qui est inévitablement physique et localisé : les « objets ». Les nuages ne peuvent pas fonctionner sans les objets et vice versa: les objets ne peuvent pas fonctionner sans les nuages. L’Internet, c’est l’interaction constante du localisé et du délocalisé, des objets et des nuages. Tout cela est en quelque sorte logiquement déductible de l’automatisation de la manipulation symbolique au moyen de systèmes électroniques, mais nous allons de plus en plus en sentir les effets dans notre vie de tous les jours.

3 –JMDS:  Avec internet les prédictions sont déchaînées. On continue à parle de l’avenir des journaux en papier et du livre. Il y a ceux qui disent que le papier va cohabiter avec des nouveaux supports et ceux qui disent que c’est juste une question de temps pour la fin de l’imprimé. Les arguments des uns et des autres sont sérieux? Par exemple, par rapport au papier, l’affectif et l’effet de nostalgie n’y compte pas trop? C’est une affaire de génération?

PL: Je crois que la fin de la presse papier est une affaire de temps. Pour la recherche, l’éducation, l’information, tout va passer au numérique. En revanche, j’imagine qu’il va toujours y avoir des lecteurs sur papier pour des romans ou des livres rares, un peu comme il y a toujours un petit marché pour le vinyl en musique. Personnellement, j’aime lire des livres sur papier et les nouvelles sur Internet (surtout par Twitter), mais ce ne sont pas mes préférences personnelles qui sont en jeu… l’électrification, voire l’algorithmisation, de la lecture et de l’écriture sont inévitables.

4 –JMDS:  Après 30 ans de nouveautés comme les réseaux sociaux, quelle a été la grande transformation, le point principal de cette mutation?

PL: Depuis l’apparition du Web au milieu des années 1990, il n’y a pas eu de grande mutation technique, seulement une multitude de petits progrès. Sur un plan socio-politique, le grand basculement me semble le passage d’une sphère publique dominée par la presse, la radio et la télévision à une sphère publique dominée par les wikis, les blogs, les réseaux sociaux et les systèmes de curation de contenu où tout le monde peut s’exprimer. Cela signifie que le monopole intellectuel des journalistes, éditeurs, hommes politiques et professeurs est en train de s’éroder. Le nouvel équilibre n’a pas encore été trouvé mais l’ancien équilibre n’a plus cours.

5 –JMDS: Tu parles depuis beaucoup de temps d’intelligence collective et des collectifs intelligents. On voit cependant internet et ses réseaux sociaux utilisés pour le bien et pour le mal, par exemple, pour disséminer les idées radicales des extrémistes musulmans. Peut-on parler d’une « intelligence collective du mal » d’internet ou d’un outil de la bêtise universelle?

PL: Je parle d’intelligence collective pour signaler et encourager une augmentation des capacités cognitives en général, sans jugement de valeur : augmentation de la mémoire collective, des possibilités de coordination et de création de réseaux, des opportunités d’apprentissage collaboratif, de l’ouverture de l’accès à l’information, etc. Je pense que cet aspect est indéniable et que tous les acteurs intellectuels et sociaux responsables devraient se servir de ces nouvelles possibilités dans l’éducation, dans la gestion des connaissances dans les entreprises et les administrations, pour la délibération politique démocratique, etc. Il faut voir l’invention de Internet dans le prolongement de l’invention de l’écriture ou de l’imprimerie. Il s’agit d’une augmentation des capacités humaines de manipulation symbolique. Maintenant, le coeur de cette capacité c’est le langage, qui ne dépend d’aucune technique particulière et qui existe dès l’origine de l’espèce humaine. C’est grâce au langage qu’existent l’art, la culture, la religion, les valeurs, la complexité de nos institutions économiques, sociales, politiques… Mais qui dit langage dit aussi mensonge et manipulation. Qui dit valeurs dit bien ET mal, beau ET laid. Il est absurde d’imaginer qu’un instrument qui augmente les pouvoirs du langage en général ne laisserait subsister que le vrai, le bien et le beau. Vrai pour qui, bien pour qui ? Le vrai n’émerge que du dialogue ouvert des points de vue. Je dirais même plus, si l’on essayait de faire de l’Internet une machine à produire du vrai, du bien et du beau, on ne parviendrait qu’à un projet totalitaire, d’ailleurs voué à l’échec.

6 –JMDS:  Dans les réseaux sociaux la violence verbale est énorme. On s’attaque, on s’insulte, on divise le monde entre droite et gauche, les bons et les mauvais, les miens et les tiens. Il y a déjà des journalistes qui ferment leurs blogs aux commentaires des lecteurs saturés de post racistes, des menaces et d’insultes. On est encore dans une étape d’apprentissage de l’utilisation des ces outils?

PL: Si quelqu’un m’insulte ou m’envoie des choses choquantes sur Twitter, je le bloque et c’est tout! On n’aura jamais une humanité parfaite. En revanche, l’utilisateur d’Internet n’est pas un mineur intellectuel, il possède un grand pouvoir mais aussi une grande responsabilité. Le problème, surtout pour les enseignants, consiste à éduquer les utilisateurs. Il faut apprendre à décider de ses priorités, à gérer son attention, à faire un choix judicieux et une analyse critique des sources auxquelles on se branche, prêter attention à la culture de ses correspondants, apprendre à identifier les récits et leurs contradictions, etc. C’est cela, la nouvelle « literacy digitale »: devenir responsable!

7 –JMDS:  Une des questions les plus discutées à propos d’internet concerne les droits d’auteur et la gratuité. Les internautes ont tendance à exiger le tout gratuit. Mais l’information a un coût. Qui va payer? La publicité? Les journaux ferment leurs sites? Le temps de payer pour consommer sur internet est définitivement arrivé?

PL: Il n’est pas impossible de faire payer les utilisateurs pour de très bons services. Par ailleurs, oui, la publicité et surtout la vente des informations produites par les utilisateurs à des firmes de marketing constitue aujourd’hui la principale manière de « monétiser » les services en ligne. Le droit d’auteur est clairement en crise pour la musique et de plus en plus pour les films. Je voudrais souligner particulièrement le domaine de la recherche et de l’enseignement où les éditeurs apparaissent dorénavant comme le frein principal au partage de la connaissance. La rémunération de la création à l’âge du médium algorithmique est un problème complexe auquel je n’ai pas de réponse simple valable dans tous les cas…

8 –JMDS:  Tu as parlé aussi de démocratie virtuelle. On peut dire aujourd’hui qu’on avance vers une nouvelle ère de démocratisation?

PL: Oui, dans la mesure où il est possible d’accéder à des sources d’information beaucoup plus diverses que dans le passé, dans la mesure aussi où tout le monde peut s’exprimer à destination d’un vaste public et enfin parce qu’il est beaucoup plus facile aux citoyens de se coordonner et de s’organiser à des fins de discussion, de délibération ou d’action. Cette « démocratie virtuelle » peut avoir un fondement local, comme dans certains projets de « villes intelligentes », mais il y a aussi une déterritorialisation ou une internationalisation de la sphère publique. Il est par exemple possible de suivre la vie politique de nombreux pays en direct ou de vivre au diapason de l’ensemble de la planète selon les points de vue ou les sujets qui nous intéressent. On ne peut pas non plus passer sous silence l’émergence de campagnes politiques utilisant toutes les techniques de l’analyse de données et du profilage marketing, ainsi que le monitoring – voire la manipulation – de l’opinion publique mondiale sur les réseaux sociaux par les agences de renseignements (de tous les pays).

9 –JMDS:  Internet a déjà changé notre façon de penser, de lire et d’organiser notre construction du savoir?

PL: C’est indéniable. L’accessibilité immédiate des dictionnaires, des encyclopédies (dont Wikipedia), des livres en accès ouvert ou payant, de multiples vidéos éducatives a mis l’équivalent d’immenses bibliothèques et médiathèques à la portée de tous, partout. De plus, nous pouvons nous abonner à de nombreux sites web spécialisés et nous connecter à des réseaux de personnes interessées par les mêmes sujets afin de construire nos connaissances de manière collaborative. Le développement de nouveaux types de réseaux de collaboration dans la recherche ou d’apprentissage dans l’enseignement (les fameux MOOCs) en témoignent clairement.

10 –JMDS:  Il y a une chanson au Brésil qui dit “malgré tout ce qu’on a fait et vécu nous sommes toujours les mêmes et vivons comme nos parents”. Sommes-nous toujours les mêmes ou bien l’Internet nous a changé et séparés de la vie de nos parents?

PL: Nous sommes toujours des êtres humains incarnés et mortels, heureux et malheureux. La condition humaine fondamentale ne change pas. Ce qui change c’est notre culture matérielle et intellectuelle. Notre puissance de communication s’est multipliée et distribuée dans l’ensemble de la société. La perception du monde qui nous entoure s’est aggrandie et précisée. Notre mémoire a augmenté. Nos capacités d’analyse de situations complexes à partir de flots de données vont bientôt transformer notre rapport à notre environnement biologique et social. Grâce à la quantité de données disponibles et à la croissance de notre puissance de calcul, nous allons probablement connaître au XXIe siècle une révolution des sciences humaines comparable à la révolution des sciences de la nature du XVIIe siècle. Nous sommes toujours les mêmes ET nous changeons.

Par Pierre Lévy (@plevy sur Twitter), prof. à l’Université d’Ottawa

Ce texte a été publié dans la revue Sciences du design, n°2, décembre 2015

Danah Boyd (@zephoria sur Twitter) est chercheuse chez Microsoft et enseigne à Harvard. C’est une des plus brillantes chercheuses américaines sur le thème des médias sociaux. Son dernier ouvrage It’s Complicated, the social lives of networked teens (Yale, 2014) est consacré à démonter les mythes concernant les adolescents sur les médias sociaux. Ce travail de sociologie fort solide est fondé sur dix ans d’enquête de terrain (interviews, observations) et de sérieuses études en sciences sociales.
Au lieu de céder à la panique morale devant les prétendues incongruités émises par les ados sur My Space, Facebook, Twitter, Instagram et autres, Boyd prend un soin infini à reconstituer les contextes micro-sociologiques et macro-culturels qui leur donnent sens. La fameuse question de la vie privée sur Facebook, généralement posée de manière abstraite, est ramenée à la situation concrète des adolescents américains. Ces derniers sont coincés entre l’école et la maison – deux univers généralement très régulés – et ils sont peu libres d’interagir entre eux comme ils le veulent. C’est pourquoi ils travaillent activement à se construire des espaces publics sui generis en ligne qu’ils peuplent de leurs pairs. Et tant pis si les posts sont accessibles à tous et permanents. L’« addiction » aux gadgets ou aux réseaux sociaux fait les choux gras des médias traditionnels, des psy et des moralistes grincheux. Mais Boyd trouve plus pertinent d’évoquer une sociabilité adolescente brimée qui trouve à s’exprimer en ligne que d’utiliser le vocabulaire de la psychiatrie. Les loups-garous favoris des journalistes, à savoir les « prédateurs sexuels sur Internet » et « l’intimidation en ligne » (appelée aussi cyber-bullying) sont ramenés à leur juste proportion. L’immense majorité des enfants et adolescents victimes d’abus sexuels ont été brutalisés par des figures familières de leur entourage immédiat et non par des inconnus rencontrés en ligne. Après avoir lu Boyd, on ne confondra plus les farces un peu corsées, les drames affectifs et les échanges rituels d’insultes sur les réseaux sociaux avec la véritable intimidation (qui s’exerce systématiquement d’un fort sur un faible) et qui est somme toute assez rare. Dans les cas où les jeunes sont vraiment en danger, le médium social s’avère plutôt protecteur puisque les abuseurs peuvent être facilement retracés par la police avec l’aide des administrateurs des réseaux.
Après avoir dégonflé les peurs, Boyd s’attache à refroidir les espérances illusoires. Non, la communication par Internet ne fait pas disparaître miraculeusement les inégalités économiques et sociales, ni le racisme, ni les passions toxiques, qui s’exercent et se manifestent en ligne comme ailleurs. Non, les « digital natives » ne sont pas tous des geeks, ils ne savent pas forcément utiliser les outils disponibles en ligne et ils ne font pas preuve d’un esprit critique à toute épreuve devant les flots d’information. Ne confondons pas la familiarité avec un médium et la connaissance approfondie de la manière de s’en servir. La ligne de partage ne passe pas par la date de naissance mais par la culture générale et l’éducation aux médias numériques.
Au-delà de l’effort louable pour contrer la désinformation journalistique et pour rassurer les parents et les éducateurs, le livre de Boyd nous offre un riche accès aux données de son enquête. La présence (un peu redondante) de ce matériau quasi ethnographique a l’avantage de permettre au lecteur qui ne partage pas tous les présupposés de l’auteur d’approfondir sa réflexion sur le médium algorithmique et de tirer ses propres conclusions. Pour ma part, la lecture de cet ouvrage confirme l’idée selon laquelle nous vivons déjà à l’ère data-centrique, dans laquelle les relations sociales passent de plus en plus par les algorithmes et les données. Etant symbolisés par des bits disponibles et computables, les rapports sociaux sont ainsi mis en transparence (pour le meilleur ou pour le pire). Il est clair que cette évolution ouvre de nouvelles avenues économiques, politiques et militaires, mais aussi scientifiques. Un jour, les humanités numériques devront dépasser les belles visualisations de réseaux sociaux pour exploiter en profondeur toutes ces données au moyen d’hypothèses théoriques novatrices et surtout pour renvoyer aux internautes des images utiles des processus socio-cognitifs dans lesquels ils sont engagés.
It’s complicated permet aussi de commencer à réfléchir avec quelque recul sur les déclencheurs non-techniques de l’explosion de popularité des médias sociaux au tournant des XXe et XXIe siècles. Les communautés virtuelles existaient dès les années 1970, mais les médias sociaux ne sont devenus un phénomène massif à l’échelle planétaire que durant la première décennie du XXIe siècle. Les matériaux proposés par Boyd laissent entrevoir l’émergence de ce phénomène à partir de « lignes de faille » socio-démographiques. Pourquoi sont-ce les adolescents (et pas un autre groupe social) qui se sont engouffrés dans le nouvel espace d’interaction en ligne ? Sans doute parce que cette cohorte turbulente occupe un espace interstitiel entre l’âge adulte et l’enfance. Les ados ont cherché à se ménager une zone de liberté dans les réseaux qui soit protégée aussi bien des règlements scolaires que d’une lourde sollicitude parentale obsédée par la sécurité. Les explications de Boyd à ce sujet sont fondées sur une analyse minutieuse de ses entretiens avec des jeunes vivant aux USA. Nous sommes ainsi éclairés sur les évolutions récentes de la société américaine. Mais ce phénomène, qui a certes commencé aux Etats-Unis, s’est immédiatement étendu au reste du monde, où les contraintes sociales sur les adolescents sont différentes et fort variées… L’explication en termes sociologiques et démographiques est donc partielle et limitée à un seul pays. La lecture de Neurotribes (Penguin, 2015) de Steve Silverman nous suggère une autre hypothèse, qui n’est pas forcément contradictoire avec la première. Ce ne serait pas les ados en général, mais les jeunes autistes (les « aspies ») qui seraient les pionniers du développement de la sociabilité en ligne, dès les années 1980 et 1990, parce qu’ils ont trouvé là une manière de communiquer leur permettant de surmonter leur maladresse sociale ! Les minorités cognitives doivent aussi être considérées.
Dès que l’on commence à réfléchir aux causes, on se trouve immédiatement confronté à la fameuse question du « déterminisme technologique », à savoir une hérésie combattue avec force par diverses chapelles de la recherche en sciences sociales. Comme si la technologie n’était pas de la société, de la culture et de l’histoire ! De manière rituelle (et sans nul doute sincère) Boyd critique le déterminisme technologique (par exemple p. 15). Il s’agit pour elle d’assurer que des résultats socialement souhaitables – ou détestables – ne sont nullement garantis par des outils ou des procédés techniques. Nous sommes tous d’accord sur ce point de simple bon sens. Mais ne faudrait-il pas distinguer entre le conditionnement par la technique – le fait que la technique rende possible une vaste gamme de comportements et d’interactions sociales – et la détermination complète d’un phénomène social par une technique considérée indépendamment de son contexte? Si l’hypothèse d’une détermination complète est presque toujours fausse, il me semble que celle du conditionnement (une forme douce du déterminisme technologique) est bien souvent pertinente.
Le livre de Boyd intervient dans une vaste conversation publique sur la jeunesse en ligne à laquelle participent les ados, les parents, les éducateurs, les journalistes, les législateurs et l’industrie. Ici, Boyd se présente essentiellement comme la porte-parole des ados « sans voix » dans le débat civique. Mais son livre intervient aussi dans une autre conversation, plus restreinte, animée par les chercheurs qui travaillent sur les transformations culturelles liées au développement du médium algorithmique. Or nombre de ces chercheurs pensent que leur rôle est avant tout de dénoncer « le système » en général et « le capitalisme » en particulier, dont les techniques numériques sont évidemment le soutien, voire le fer de lance. Boyd paye tribut (p. 27) à la critique du capitalisme, et cela d’autant plus qu’elle doit expier le péché d’être salariée de Microsoft, mais elle nous annonce juste ensuite cette brève révérence qu’elle va considérer la société américaine telle qu’elle est, sans s’appesantir sur la dénonciation du système. Je note à ce sujet que les catégories sociales qu’elle utilise dans l’analyse de ses données (sexe, genre, race, âge, classe, etc.) sont exactement les catégories qui sont utilisées couramment par les adolescents qui sont les objets de ses recherches. En d’autres termes, elle fait de l’ethnométhodologie sans le dire. Cela donne un texte hyper américain, dans lequel les étiquettes classantes de la culture locale (teen, white, latino, black, bi-racial, queer, etc.) sont admises comme naturelles. Or, paradoxalement, c’est précisément son acceptation de la réalité sociale telle qu’elle est et des catégories sociales telles qu’elles sont utilisées par les acteurs eux-mêmes qui donne à son texte son efficacité politique… et donc sa portée critique concrète ! J’en arrive finalement à une réflexion concernant la posture dénonciatrice d’un grand nombre d’intellectuels et d’universitaires qui se spécialisent dans l’analyse du numérique. Un Morozov écrase de son mépris d’intellectuel européen les ingénieurs américains et les publicistes effervescents et superficiels de la Silicon Valley qui n’ont pas lu Latour et qui s’imaginent qu’on peut régler des problèmes politiques complexes avec des gadgets. Mais n’est pas Walter Benjamin ou Theodor Adorno qui veut… Par contraste, Boyd essaye de résoudre des problèmes en faisant travailler ensemble l’industrie, les politiques, les sciences sociales et les humanités. Il n’est pas sûr que les sombres prophètes de l’apocalypse culturelle et les dénonciateurs systématiques (que l’on trouve aussi bien aux USA qu’en Amérique Latine, en Europe et en Asie) soient, au bout du compte, les meilleurs représentants d’une véritable pensée critique, capable de projeter et d’aménager la civilisation en émergence.

BIBLIOGRAPHIE

Adorno, Theodor et Horkheimer, Max, La dialectique de la raison, Gallimard, 1974 (version originale en allemand : 1947).

Benjamin, Walter, «L’œuvre d’art à l’époque de sa reproductibilité technique», dernière version 1939, in Œuvres III, Gallimard, 2000.

Boyd, Dana, It’s complicated, the social lives of networked teens, Yale UP, 2014

Latour, Bruno, Science in Action, Harvard UP, 1987

Lehn, Dirk vom, Harold Garfinkel: The Creation and Development of Ethnomethodology, Left Coast Press, 2014.

Morozov, Evgeni, To Save Everything, Click Here: The Folly of Technological Solutionism, Public Affairs, 2013

Silberman, Steve, NeuroTribes: The Legacy of Autism and the Future of Neurodiversity, Penguin, 2015

lampadaire-5

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : « Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus « complexes » les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ? » Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

lampadaire-13c0c12

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

biface

Le concepteur

J’ai saisi dès la fin des années 1970 que la cognition était une activité sociale et outillée par des technologies intellectuelles. Il ne faisait déjà aucun doute pour moi que les algorithmes allaient transformer le monde. Et si je réfléchis au sens de mon activité de recherche depuis les trente dernières années, je réalise qu’elle a toujours été orientée vers la construction d’outils cognitifs à base d’algorithmes.

A la fin des années 1980 et au début des années 1990, la conception de systèmes experts et la mise au point d’une méthode pour l’ingénierie des connaissances m’ont fait découvrir la puissance du raisonnement automatique (J’en ai rendu compte dans De la programmation considérée comme un des beaux-arts, Paris, La Découverte, 1992). Les systèmes experts sont des logiciels qui représentent les connaissances d’un groupe de spécialistes sur un sujet restreint au moyen de règles appliquées à une base de données soigneusement structurée.  J’ai constaté que cette formalisation des savoir-faire empiriques menait à une transformation de l’écologie cognitive des collectifs de travail, quelque chose comme un changement local de paradigme. J’ai aussi vérifié in situ que les systèmes à base de règles fonctionnaient en fait comme des outils de communication de l’expertise dans les organisations, menant ainsi à une intelligence collective plus efficace. J’ai enfin expérimenté les limites de la modélisation cognitive à base purement logique : elle ne débouchait alors, comme les ontologies d’aujourd’hui, que sur des micro-mondes de raisonnement cloisonnés. Le terme d’« intelligence artificielle », qui évoque des machines capables de décisions autonomes, était donc trompeur.

Je me suis ensuite consacré à la conception d’un outil de visualisation dynamique des modèles mentaux (Ce projet est expliqué dans L’Idéographie dynamique, vers une imagination artificielle, La Découverte, Paris, 1991). Cet essai m’a permis d’explorer la complexité sémiotique de la cognition en général et du langage en particulier. J’ai pu apprécier la puissance des outils de représentation de systèmes complexes pour augmenter la cognition. Mais j’ai aussi découvert à cette occasion les limites des modèles cognitifs non-génératifs, comme celui que j’avais conçu. Pour être vraiment utile, un outil d’augmentation intellectuelle devait être pleinement génératif, capable de simuler des processus cognitifs et de faire émerger de nouvelles connaissances.

Au début des années 1990 j’ai co-fondé une start up qui commercialisait un logiciel de gestion personnelle et collective des connaissances. J’ai été notamment impliqué dans l’invention du produit, puis dans la formation et le conseil de ses utilisateurs (Voir Les Arbres de connaissances, avec Michel Authier, La Découverte, Paris, 1992). Les Arbres de connaissances intégraient un système de représentation interactive des compétences et connaissances d’une communauté, ainsi qu’un système de communication favorisant l’échange et l’évaluation des savoirs. Contrairement aux outils de l’intelligence artificielle classique, celui-ci permettait à tous les utilisateurs d’enrichir librement la base de données commune. J’ai retenu de mon expérience dans cette entreprise la nécessité de représenter les contextes pragmatiques par des simulations immersives, dans lesquelles chaque ensemble de données sélectionné (personnes, connaissances, projets, etc.) réorganise l’espace autour de lui et génère automatiquement une représentation singulière du tout : un point de vue. Mais j’ai aussi rencontré lors de ce travail le défi de l’interopérabilité sémantique, qui allait retenir mon attention pendant les vingt-cinq années suivantes. En effet, mon expérience de constructeur d’outils et de consultant en technologies intellectuelles m’avait enseigné qu’il était impossible d’harmoniser la gestion personnelle et collective des connaissances à grande échelle sans langage commun. La publication de “L’intelligence collective” (La Découverte, Paris, 1994)  traduisait en théorie ce que j’avais entrevu dans ma pratique : de nouveaux outils d’augmentation cognitive à support algorithmique allaient supporter des formes de collaboration intellectuelle inédites. Mais le potentiel des algorithmes ne serait pleinement exploité que grâce à un métalangage rassemblant les données numérisées dans le même système de coordonnées sémantique.

A partir du milieu des années 1990, pendant que je dévouais mon temps libre à concevoir ce système de coordonnées (qui ne s’appelait pas encore IEML), j’ai assisté au développement progressif du Web interactif et social. Le Web offrait pour la première fois une mémoire universelle accessible indépendamment de la localisation physique de ses supports et de ses lecteurs. La communication multimédia entre points du réseau était instantanée. Il suffisait de cliquer sur l’adresse d’une collection de données pour y accéder. Au concepteur d’outils cognitifs que j’étais, le Web apparaissait comme une opportunité à exploiter.

L’utilisateur

J’ai participé pendant près d’un quart de siècle à de multiples communautés virtuelles et médias sociaux, en particulier ceux qui outillaient la curation collaborative des données. Grâce aux plateformes de social bookmarking de Delicious et Diigo, j’ai pu expérimenter la mise en commun des mémoires personnelles pour former une mémoire collective, la catégorisation coopérative des données, les folksonomies émergeant de l’intelligence collective, les nuages de tags qui montrent le profil sémantique d’un ensemble de données. En participant à l’aventure de la plateforme Twine créée par Nova Spivack entre 2008 et 2010, j’ai mesuré les points forts de la gestion collective de données centrée sur les sujets plutôt que sur les personnes. Mais j’ai aussi touché du doigt l’inefficacité des ontologies du Web sémantique – utilisées entre autres par Twine – dans la curation collaborative de données. Les succès de Twitter et de son écosystème m’ont confirmé dans la puissance de la catégorisation collective des données, symbolisée par le hashtag, qui a finalement été adopté par tous les médias sociaux. J’ai rapidement compris que les tweets étaient des méta données contenant l’identité de l’auteur, un lien vers les données, une catégorisation par hashtag et quelques mots d’appréciation. Cette structure est fort prometteuse pour la gestion personnelle et collective des connaissances. Mais parce que Twitter est fait d’abord pour la circulation rapide de l’information, son potentiel pour une mémoire collective à long terme n’est pas suffisamment exploité. C’est pourquoi je me suis intéressé aux plateformes de curation de données plus orientées vers la mémoire à long terme comme Bitly, Scoop.it! et Trove. J’ai suivi sur divers forums le développement des moteurs de recherche sémantiques, des techniques de traitement du langage naturel et des big data analytics, sans y trouver les outils qui feraient franchir à l’intelligence collective un seuil décisif. Enfin, j’ai observé comment Google réunissait les données du Web dans une seule base et comment la firme de Mountain View exploitait la curation collective des internautes au moyen de ses algorithmes. En effet, les résultats du moteur de recherche sont basés sur les hyperliens que nous créons et donc sur notre collaboration involontaire. Partout dans les médias sociaux je voyais se développer la gestion collaborative et l’analyse statistique des données, mais à chaque pas je rencontrais l’opacité sémantique qui fragmentait l’intelligence collective et limitait son développement.

La future intelligence algorithmique reposera forcément sur la mémoire hypertextuelle universelle. Mais mon expérience de la curation collaborative de données me confirmait dans l’hypothèse que j’avais développée dès le début des années 1990, avant même le développement du Web. Tant que la sémantique ne serait pas transparente au calcul et interopérable, tant qu’un code universel n’aurait pas décloisonné les langues et les systèmes de classification, notre intelligence collective ne pourrait faire que des progrès limités.

Mon activité de veille et d’expérimentation a nourri mon activité de conception technique. Pendant les années où je construisais IEML, pas à pas, à force d’essais et d’erreurs, de versions, de réformes et de recommencements, je ne me suis jamais découragé. Mes observations me confirmaient tous les jours que nous avions besoin d’une sémantique calculable et interopérable. Il me fallait inventer l’outil de curation collaborative de données qui reflèterait nos intelligences collectives encore séparées et fragmentées. Je voyais se développer sous mes yeux l’activité humaine qui utiliserait ce nouvel outil. J’ai donc concentré mes efforts sur la conception d’une plateforme sémantique universelle où la curation de données serait automatiquement convertie en simulation de l’intelligence collective des curateurs.

Mon expérience de concepteur technique et de praticien a toujours précédé mes synthèses théoriques. Mais, d’un autre côté, la conception d’outils devait être associée à la connaissance la plus claire possible de la fonction à outiller. Comment augmenter la cognition sans savoir ce qu’elle est, sans connaître son fonctionnement ? Et puisque, dans le cas qui m’occupait, l’augmentation s’appuyait précisément sur un saut de réflexivité, comment aurais-je pu réfléchir, cartographier ou observer quelque chose dont je n’aurais eu aucun modèle ? Il me fallait donc établir une correspondance entre un outil interopérable de catégorisation des données et une théorie de la cognition. A suivre…