Archives for posts with tag: IEML

lampadaire-5

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : « Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus « complexes » les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ? » Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

lampadaire-13c0c12

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

biface

Le concepteur

J’ai saisi dès la fin des années 1970 que la cognition était une activité sociale et outillée par des technologies intellectuelles. Il ne faisait déjà aucun doute pour moi que les algorithmes allaient transformer le monde. Et si je réfléchis au sens de mon activité de recherche depuis les trente dernières années, je réalise qu’elle a toujours été orientée vers la construction d’outils cognitifs à base d’algorithmes.

A la fin des années 1980 et au début des années 1990, la conception de systèmes experts et la mise au point d’une méthode pour l’ingénierie des connaissances m’ont fait découvrir la puissance du raisonnement automatique (J’en ai rendu compte dans De la programmation considérée comme un des beaux-arts, Paris, La Découverte, 1992). Les systèmes experts sont des logiciels qui représentent les connaissances d’un groupe de spécialistes sur un sujet restreint au moyen de règles appliquées à une base de données soigneusement structurée.  J’ai constaté que cette formalisation des savoir-faire empiriques menait à une transformation de l’écologie cognitive des collectifs de travail, quelque chose comme un changement local de paradigme. J’ai aussi vérifié in situ que les systèmes à base de règles fonctionnaient en fait comme des outils de communication de l’expertise dans les organisations, menant ainsi à une intelligence collective plus efficace. J’ai enfin expérimenté les limites de la modélisation cognitive à base purement logique : elle ne débouchait alors, comme les ontologies d’aujourd’hui, que sur des micro-mondes de raisonnement cloisonnés. Le terme d’« intelligence artificielle », qui évoque des machines capables de décisions autonomes, était donc trompeur.

Je me suis ensuite consacré à la conception d’un outil de visualisation dynamique des modèles mentaux (Ce projet est expliqué dans L’Idéographie dynamique, vers une imagination artificielle, La Découverte, Paris, 1991). Cet essai m’a permis d’explorer la complexité sémiotique de la cognition en général et du langage en particulier. J’ai pu apprécier la puissance des outils de représentation de systèmes complexes pour augmenter la cognition. Mais j’ai aussi découvert à cette occasion les limites des modèles cognitifs non-génératifs, comme celui que j’avais conçu. Pour être vraiment utile, un outil d’augmentation intellectuelle devait être pleinement génératif, capable de simuler des processus cognitifs et de faire émerger de nouvelles connaissances.

Au début des années 1990 j’ai co-fondé une start up qui commercialisait un logiciel de gestion personnelle et collective des connaissances. J’ai été notamment impliqué dans l’invention du produit, puis dans la formation et le conseil de ses utilisateurs (Voir Les Arbres de connaissances, avec Michel Authier, La Découverte, Paris, 1992). Les Arbres de connaissances intégraient un système de représentation interactive des compétences et connaissances d’une communauté, ainsi qu’un système de communication favorisant l’échange et l’évaluation des savoirs. Contrairement aux outils de l’intelligence artificielle classique, celui-ci permettait à tous les utilisateurs d’enrichir librement la base de données commune. J’ai retenu de mon expérience dans cette entreprise la nécessité de représenter les contextes pragmatiques par des simulations immersives, dans lesquelles chaque ensemble de données sélectionné (personnes, connaissances, projets, etc.) réorganise l’espace autour de lui et génère automatiquement une représentation singulière du tout : un point de vue. Mais j’ai aussi rencontré lors de ce travail le défi de l’interopérabilité sémantique, qui allait retenir mon attention pendant les vingt-cinq années suivantes. En effet, mon expérience de constructeur d’outils et de consultant en technologies intellectuelles m’avait enseigné qu’il était impossible d’harmoniser la gestion personnelle et collective des connaissances à grande échelle sans langage commun. La publication de “L’intelligence collective” (La Découverte, Paris, 1994)  traduisait en théorie ce que j’avais entrevu dans ma pratique : de nouveaux outils d’augmentation cognitive à support algorithmique allaient supporter des formes de collaboration intellectuelle inédites. Mais le potentiel des algorithmes ne serait pleinement exploité que grâce à un métalangage rassemblant les données numérisées dans le même système de coordonnées sémantique.

A partir du milieu des années 1990, pendant que je dévouais mon temps libre à concevoir ce système de coordonnées (qui ne s’appelait pas encore IEML), j’ai assisté au développement progressif du Web interactif et social. Le Web offrait pour la première fois une mémoire universelle accessible indépendamment de la localisation physique de ses supports et de ses lecteurs. La communication multimédia entre points du réseau était instantanée. Il suffisait de cliquer sur l’adresse d’une collection de données pour y accéder. Au concepteur d’outils cognitifs que j’étais, le Web apparaissait comme une opportunité à exploiter.

L’utilisateur

J’ai participé pendant près d’un quart de siècle à de multiples communautés virtuelles et médias sociaux, en particulier ceux qui outillaient la curation collaborative des données. Grâce aux plateformes de social bookmarking de Delicious et Diigo, j’ai pu expérimenter la mise en commun des mémoires personnelles pour former une mémoire collective, la catégorisation coopérative des données, les folksonomies émergeant de l’intelligence collective, les nuages de tags qui montrent le profil sémantique d’un ensemble de données. En participant à l’aventure de la plateforme Twine créée par Nova Spivack entre 2008 et 2010, j’ai mesuré les points forts de la gestion collective de données centrée sur les sujets plutôt que sur les personnes. Mais j’ai aussi touché du doigt l’inefficacité des ontologies du Web sémantique – utilisées entre autres par Twine – dans la curation collaborative de données. Les succès de Twitter et de son écosystème m’ont confirmé dans la puissance de la catégorisation collective des données, symbolisée par le hashtag, qui a finalement été adopté par tous les médias sociaux. J’ai rapidement compris que les tweets étaient des méta données contenant l’identité de l’auteur, un lien vers les données, une catégorisation par hashtag et quelques mots d’appréciation. Cette structure est fort prometteuse pour la gestion personnelle et collective des connaissances. Mais parce que Twitter est fait d’abord pour la circulation rapide de l’information, son potentiel pour une mémoire collective à long terme n’est pas suffisamment exploité. C’est pourquoi je me suis intéressé aux plateformes de curation de données plus orientées vers la mémoire à long terme comme Bitly, Scoop.it! et Trove. J’ai suivi sur divers forums le développement des moteurs de recherche sémantiques, des techniques de traitement du langage naturel et des big data analytics, sans y trouver les outils qui feraient franchir à l’intelligence collective un seuil décisif. Enfin, j’ai observé comment Google réunissait les données du Web dans une seule base et comment la firme de Mountain View exploitait la curation collective des internautes au moyen de ses algorithmes. En effet, les résultats du moteur de recherche sont basés sur les hyperliens que nous créons et donc sur notre collaboration involontaire. Partout dans les médias sociaux je voyais se développer la gestion collaborative et l’analyse statistique des données, mais à chaque pas je rencontrais l’opacité sémantique qui fragmentait l’intelligence collective et limitait son développement.

La future intelligence algorithmique reposera forcément sur la mémoire hypertextuelle universelle. Mais mon expérience de la curation collaborative de données me confirmait dans l’hypothèse que j’avais développée dès le début des années 1990, avant même le développement du Web. Tant que la sémantique ne serait pas transparente au calcul et interopérable, tant qu’un code universel n’aurait pas décloisonné les langues et les systèmes de classification, notre intelligence collective ne pourrait faire que des progrès limités.

Mon activité de veille et d’expérimentation a nourri mon activité de conception technique. Pendant les années où je construisais IEML, pas à pas, à force d’essais et d’erreurs, de versions, de réformes et de recommencements, je ne me suis jamais découragé. Mes observations me confirmaient tous les jours que nous avions besoin d’une sémantique calculable et interopérable. Il me fallait inventer l’outil de curation collaborative de données qui reflèterait nos intelligences collectives encore séparées et fragmentées. Je voyais se développer sous mes yeux l’activité humaine qui utiliserait ce nouvel outil. J’ai donc concentré mes efforts sur la conception d’une plateforme sémantique universelle où la curation de données serait automatiquement convertie en simulation de l’intelligence collective des curateurs.

Mon expérience de concepteur technique et de praticien a toujours précédé mes synthèses théoriques. Mais, d’un autre côté, la conception d’outils devait être associée à la connaissance la plus claire possible de la fonction à outiller. Comment augmenter la cognition sans savoir ce qu’elle est, sans connaître son fonctionnement ? Et puisque, dans le cas qui m’occupait, l’augmentation s’appuyait précisément sur un saut de réflexivité, comment aurais-je pu réfléchir, cartographier ou observer quelque chose dont je n’aurais eu aucun modèle ? Il me fallait donc établir une correspondance entre un outil interopérable de catégorisation des données et une théorie de la cognition. A suivre…

Miroir-delvaux-2

Conférence à Science Po-Paris le 2 octobre 2014 à 17h 30

Voici ma présentation (PDF) : 2014-Master-Class

Texte introductif à la conférence


Réfléchir l’intelligence

Quels sont les enseignements de la philosophie sur l’augmentation de l’intelligence ? « Connais-toi toi-même » nous avertit Socrate à l’aurore de la philosophie grecque. Sous la multiplicité des traditions et des approches, en Orient comme en Occident, il existe un chemin universellement recommandé : pour l’intelligence humaine, la manière la plus sûre de progresser est d’atteindre un degré supérieur de réflexivité.

Or depuis le début du XXIe siècle, nous apprenons à nous servir d’automates de manipulation symbolique opérant dans un réseau ubiquitaire. Dans le médium algorithmique, nos intelligences personnelles s’interconnectent et fonctionnent en multiples intelligences collectives enchevêtrées. Puisque le nouveau médium abrite une part croissante de notre mémoire et de nos communications, ne pourrait-il pas fonctionner comme un miroir scientifique de nos intelligences collectives ? Rien ne s’oppose à ce que le médium algorithmique supporte bientôt une vision d’ensemble objectivable et mesurable du fonctionnement de nos intelligences collectives et de la manière dont chacun de nous y participe. Dès lors, un méta-niveau d’apprentissage collectif aura été atteint.

En effet, des problèmes d’une échelle de complexité supérieure à tous ceux que l’humanité a été capable de résoudre dans le passé se posent à nous. La gestion collective de la biosphère, le renouvellement des ressources énergétiques, l’aménagement du réseau de mégapoles où nous vivons désormais, les questions afférentes au développement humain (prospérité, éducation, santé, droits humains), vont se poser avec une acuité croissante dans les décennies et les siècles qui viennent. La densité, la complexité et le rythme croissant de nos interactions exigent de nouvelles formes de coordination intellectuelle. C’est pourquoi j’ai cherché toute ma vie la meilleure manière d’utiliser le médium algorithmique afin d’augmenter notre intelligence. Quelques titres parmi les ouvrages que j’ai publié témoignent de cette quête : La Sphère sémantique. Computation, cognition, économie de l’information (2011) ; Qu’est-ce que le virtuel ? (1995) ; L’Intelligence collective (1994) ; De la Programmation considérée comme un des beaux-arts (1992) ; Les Arbres de connaissances (1992) ; L’Idéographie dynamique (1991) ; Les Technologies de l’intelligence (1990) ; La Machine univers. Création, cognition et culture informatique (1987)… Après avoir obtenu ma Chaire de Recherche du Canada en Intelligence Collective à l’Université d’Ottawa en 2002, j’ai pu me consacrer presque exclusivement à une méditation philosophique et scientifique sur la meilleure manière de réfléchir l’intelligence collective avec les moyens de communication dont nous disposons aujourd’hui, méditation dont j’ai commencé à rendre compte dans La Sphère Sémantique et que j’approfondirai dans L’intelligence algorithmique (à paraître).

Élaboration d’un programme de recherche

Les grands sauts évolutifs ou, si l’on préfère, les nouveaux espaces de formes, sont générés par de nouveaux systèmes de codage. Le codage atomique génère les formes moléculaires, le codage génétique engendre les formes biologiques, le codage neuronal simule les formes phénoménales. Le codage symbolique enfin, propre à l’humanité, libère l’intelligence réflexive et la culture.

Je retrouve dans l’évolution culturelle la même structure que dans l’évolution cosmique : ce sont les progrès du codage symbolique qui commandent l’agrandissement de l’intelligence humaine. En effet, notre intelligence repose toujours sur une mémoire, c’est-à-dire un ensemble d’idées enregistrées, conceptualisées et symbolisées. Elle classe, retrouve et analyse ce qu’elle a retenu en manipulant des symboles. Par conséquent, la prise de l’intelligence sur les données, ainsi que la quantité et la qualité des informations qu’elle peut en extraire, dépendent au premier chef des systèmes symboliques qu’elle utilise. Lorsqu’avec l’invention de l’écriture les symboles sont devenus auto-conservateurs, la mémoire s’est accrue, réorganisée, et un nouveau type d’intelligence est apparu, relevant d’une épistémè scribale, comme celle de l’Egypte pharaonique, de l’ancienne Mésopotamie ou de la Chine pré-confucéenne. Quand le médium écrit s’est perfectionné avec le papier, l’alphabet et la notation des nombres par position, alors la mémoire et la manipulation symbolique ont crû en puissance et l’épistémè lettrée s’est développée dans les empires grec, chinois, romain, arabe, etc. La reproduction et la diffusion automatique des symboles, de l’imprimerie aux médias électroniques, a multiplié la disponibilité des données et accéléré l’échange des idées. Née de cette mutation, l’intelligence typographique a édifié le monde moderne, son industrie, ses sciences expérimentales de la nature, ses états-nations et ses idéologies inconnues des époques précédentes. Ainsi, suivant la puissance des outils symboliques manipulés, la mémoire et l’intelligence collective évoluent, traversant des épistémès successives.

Evolution medias

La relation entre l’ouverture d’un nouvel espace de formes et l’invention d’un système de codage se confirme encore dans l’histoire des sciences. Et puisque je suis à la recherche d’une augmentation de la connaissance réflexive, la science moderne me donne justement l’exemple d’une communauté qui réfléchit sur ses propres opérations intellectuelles et qui se pose explicitement le problème de préciser l’usage qu’elle fait de ses outils symboliques. La plupart des grandes percées de la science moderne ont été réalisées par l’unification d’une prolifération de formes disparates au moyen d’un coup de filet algébrique. En physique, le premier pas est accompli par Galilée (1564-1642), Descartes (1596-1650), Newton (1643-1727) et Leibniz (1646-1716). A la place du cosmos clos et cloisonné de la vulgate aristotélicienne qu’ils ont reçu du Moyen-Age, les fondateurs de la science moderne édifient un univers homogène, rassemblé dans l’espace de la géométrie euclidienne et dont les mouvements obéissent au calcul infinitésimal. De même, le monde des ondes électromagnétiques est-il mathématiquement unifié par Maxwell (1831-1879), celui de la chaleur, des atomes et des probabilités statistiques par Boltzmann (1844-1906). Einstein (1869-1955) parvient à unifier la matière-espace-temps en un même modèle algébrique. De Lavoisier (1743-1794) à Mendeleïev (1834, 1907), la chimie émerge de l’alchimie par la rationalisation de sa nomenclature et la découverte de lois de conservation, jusqu’à parvenir au fameux tableau périodique où une centaine d’éléments atomiques sont arrangés selon un modèle unificateur qui explique et prévoit leurs propriétés. En découvrant un code génétique identique pour toutes les formes de vie, Crick (1916-2004) et Watson (1928-) ouvrent la voie à la biologie moléculaire.

Enfin, les mathématiques n’ont-elles pas progressé par la découverte de nouvelles manières de coder les problèmes et les solutions ? Chaque avancée dans le niveau d’abstraction du codage symbolique ouvre un nouveau champ à la résolution de problèmes. Ce qui apparaissait antérieurement comme une multitude d’énigmes disparates se résout alors selon des procédures uniformes et simplifiées. Il en est ainsi de la création de la géométrie démonstrative par les Grecs (entre le Ve et le IIe siècle avant l’ère commune) et de la formalisation du raisonnement logique par Aristote (384-322 avant l’ère commune). La même remontée en amont vers la généralité s’est produite avec la création de la géométrie algébrique par Descartes (1596-1650), puis par la découverte et la formalisation progressive de la notion de fonction. Au tournant des XIXe et XXe siècles, à l’époque de Cantor (1845-1918), de Poincaré (1854-1912) et de Hilbert (1862-1943), l’axiomatisation des théories mathématiques est contemporaine de la floraison de la théorie des ensembles, des structures algébriques et de la topologie.

Mon Odyssée encyclopédique m’a enseigné cette loi méta-évolutive : les sauts intellectuels vers des niveaux de complexité supérieurs s’appuient sur de nouveaux systèmes de codage. J’en viens donc à me poser la question suivante. Quel nouveau système de codage fera du médium algorithmique un miroir scientifique de notre intelligence collective ? Or ce médium se compose justement d’un empilement de systèmes de codage : codage binaire des nombres, codage numérique de caractères d’écriture, de sons et d’images, codage des adresses des informations dans les disques durs, des ordinateurs dans le réseau, des données sur le Web… La mémoire mondiale est déjà techniquement unifiée par tous ces systèmes de codage. Mais elle est encore fragmentée sur un plan sémantique. Il manque donc un nouveau système de codage qui rende la sémantique aussi calculable que les nombres, les sons et les images : un système de codage qui adresse uniformément les concepts, quelles que soient les langues naturelles dans lesquelles ils sont exprimés.

Medium-algo

En somme, si nous voulons atteindre une intelligence collective réflexive dans le médium algorithmique, il nous faut unifier la mémoire numérique par un code sémantique interopérable, qui décloisonne les langues, les cultures et les disciplines.

Tour d’horizon techno-scientifique

Désormais en possession de mon programme de recherche, il me faut évaluer l’avancée du médium algorithmique contemporain vers l’intelligence collective réflexive : nous n’en sommes pas si loin… Entre réalité augmentée et mondes virtuels, nous communiquons dans un réseau électronique massivement distribué qui s’étend sur la planète à vitesse accélérée. Des usagers par milliards échangent des messages, commandent des traitements de données et accèdent à toutes sortes d’informations au moyen d’une tablette légère ou d’un téléphone intelligent. Objets fixes ou mobiles, véhicules et personnes géo-localisés signalent leur position et cartographient automatiquement leur environnement. Tous émettent et reçoivent des flots d’information, tous font appel à la puissance du cloud computing. Des efforts de Douglas Engelbart à ceux de Steve Jobs, le calcul électronique dans toute sa complexité a été mis à la portée de la sensori-motricité humaine ordinaire. Par l’invention du Web, Sir Tim Berners-Lee a rassemblé l’ensemble des données dans une mémoire adressée par le même système d’URL. Du texte statique sur papier, nous sommes passé à l’hypertexte ubiquitaire. L’entreprise de rédaction et d’édition collective de Wikipedia, ainsi qu’une multitude d’autres initiatives ouvertes et collaboratives ont mis gratuitement à la portée de tous un savoir encyclopédique, des données ouvertes réutilisables et une foule d’outils logiciels libres. Des premiers newsgroups à Facebook et Twitter, une nouvelle forme de sociabilité par le réseau s’est imposée, à laquelle participent désormais l’ensemble des populations. Les blogs ont mis la publication à la portée de tous. Tout cela étant désormais acquis, notre intelligence doit maintenant franchir le pas décisif qui lui permettra de maîtriser un niveau supérieur de complexité cognitive.

Du côté de la Silicon Valley, on cherche des réponses de plus en plus fines aux désirs des utilisateurs, et cela d’autant mieux que les big data analytics offrent les moyens d’en tracer le portrait fidèle. Mais il me semble peu probable que l’amélioration incrémentale des services rendus par les grandes entreprises du Web, même guidée par une bonne stratégie marketing, nous mène spontanément à l’unification sémantique de la mémoire numérique. L’entreprise non commerciale du « Web sémantique » promeut d’utiles standards de fichier (XML, RDF) et des langages de programmation ouverts (comme OWL), mais ses nombreuses ontologies sont hétéroclites et elle a échoué à résoudre le problème de l’interopérabilité sémantique. Parmi les projets les plus avancés d’intelligence computationnelle, aucun ne vise explicitement la création d’une nouvelle génération d’outils symboliques. Certains nourrissent même la chimère d’ordinateurs conscients devenant autonomes et prenant le pouvoir sur la planète avec la complicité de cyborgs post-humain…

La lumière viendra-t-elle des recherches académiques sur l’intelligence collective et le knowledge management ? Depuis les travaux pionniers de Nonaka à la fin du XXe siècle, nous savons qu’une saine gestion des connaissances suppose l’explicitation et la communication des savoirs implicites. L’expérience des médias sociaux nous a enseigné la nécessité d’associer étroitement gestion sociale et gestion personnelle des connaissances. Or, dans les faits, la gestion des connaissances par les médias sociaux passe nécessairement par la curation distribuée d’une énorme quantité de données. C’est pourquoi, on ne pourra coordonner le travail de curation collective et exploiter efficacement les données qu’au moyen d’un codage sémantique commun. Mais personne ne propose de solution au problème de l’interopérabilité sémantique.

Le secours nous viendra-t-il des sciences humaines, par l’intermédiaire des fameuses digital humanities ? L’effort pour éditer et mettre en libre accès les corpus, pour traiter et visualiser les données avec les outils des big data et pour organiser les communautés de chercheurs autour de ce traitement est méritoire. Je souscris sans réserve à l’orientation vers le libre et l’open. Mais je ne discerne pour l’instant aucun travail de fond pour résoudre les immenses problèmes de fragmentation disciplinaire, de testabilité des hypothèses et d’hyper-localité théorique qui empêchent les sciences humaines d’émerger de leur moyen-âge épistémologique. Ici encore, nulle théorie de la cognition, ni de la cognition sociale, permettant de coordonner l’ensemble des recherches, pas de système de catégorisation sémantique inter-opérable en vue et peu d’entreprises pratiques pour remettre l’interrogation scientifique sur l’humain entre les mains des communautés elles-mêmes. Quant à diriger l’évolution technique selon les besoins de sciences humaines renouvelées, la question ne semble même pas se poser. Il ne reste finalement que la posture critique, comme celle que manifestent, par exemple, Evgeny Morozov aux Etats-Unis et d’autres en Europe ou ailleurs. Mais si les dénonciations de l’avidité des grandes compagnies de la Silicon Valley et du caractère simpliste, voire dérisoire, des conceptions politiques, sociales et culturelles des chantres béats de l’algorithme touchent souvent juste, on chercherait en vain du côté des dénonciateurs le moindre début de proposition concrète.

En conclusion, je ne discerne autour de moi aucun plan sérieux propre à mettre la puissance computationnelle et les torrents de données du médium algorithmique au service d’une nouvelle forme d’intelligence réflexive. Ma conviction, je la puise dans une longue étude du problème à résoudre. Quant à ma solitude provisoire en 2014, au moment où j’écris ces lignes, je me l’explique par le fait que personne n’a consacré plus de quinze ans à temps plein pour résoudre le problème de l’interopérabilité sémantique. Je m’en console en observant l’exemple admirable de Douglas Engelbart. Ce visionnaire a inventé les interfaces sensori-motrices et les logiciels collaboratifs à une époque où toutes les subventions allaient à l’intelligence artificielle. Ce n’est que bien des années après qu’il ait exposé sa vision de l’avenir dans les années 1960 qu’il fut suivi par l’industrie et la masse des utilisateurs à partir de la fin des années 1980. Sa vision n’était pas seulement technique. Il a appelé à franchir un seuil décisif d’augmentation de l’intelligence collective afin de relever les défis de plus en plus pressants qui se posent, encore aujourd’hui, à notre espèce. Je poursuis son travail. Après avoir commencé à dompter le calcul automatique par nos interactions sensori-motrices avec des hypertextes, il nous faut maintenant explicitement utiliser le médium algorithmique comme une extension cognitive. Mes recherches m’ont affermi dans la conviction que nulle solution technique ignorante de la complexité de la cognition humaine ne nous mènera à bon port. Nous ne pourrons obtenir une intelligence agrandie qu’avec une claire théorie de la cognition et une profonde compréhension des ressorts de la mutation anthropologique à venir. Enfin, sur un plan technique, le rassemblement de la sagesse collective de l’humanité nécessite une unification sémantique de sa mémoire. C’est en respectant toutes ces exigences que j’ai conçu et construit IEML, outil commun d’une nouvelle puissance intellectuelle, origine d’une révolution scientifique.

Les ressorts d’une révolution scientifique

La mise en oeuvre de mon programme de recherche ne sera pas moins complexe ou ambitieuse que d’autres grands projets scientifiques et techniques, comme ceux qui nous ont mené à marcher sur la Lune ou à déchiffrer le génome humain. Cette grande entreprise va mobiliser de vastes réseaux de chercheurs en sciences humaines, en linguistique et en informatique. J’ai déjà réuni un petit groupe d’ingénieurs et de traducteurs dans ma Chaire de Recherche de l’Université d’Ottawa. Avec les moyens d’un laboratoire universitaire en sciences humaines, j’ai trouvé le code que je cherchais et j’ai prévu de quelle manière son utilisation allait mener à une intelligence collective réflexive.

J’étais bien résolu à ne pas me laisser prendre au piège qui consisterait à aménager superficiellement quelque système symbolique de l’épistémè typographique pour l’adapter au nouveau médium, à l’instar des premiers wagons de chemin de fer qui ressemblaient à des diligences. Au contraire, j’étais persuadé que nous ne pourrions passer à une nouvelle épistémè qu’au moyen d’un système symbolique conçu dès l’origine pour unifier et exploiter la puissance du médium algorithmique.

images

Voici en résumé les principales étapes de mon raisonnement. Premièrement, comment pourrais-je augmenter effectivement l’intelligence collective sans en avoir de connaissance scientifique ? C’est donc une science de l’intelligence collective qu’il me faut. Je fais alors un pas de plus dans la recherche des conditions. Une science de l’intelligence collective suppose nécessairement une science de la cognition en général, car la dimension collective n’est qu’un aspect de la cognition humaine. J’ai donc besoin d’une science de la cognition. Mais comment modéliser rigoureusement la cognition humaine, sa culture et ses idées, sans modéliser au préalable le langage qui en est une composante capitale ? Puisque l’humain est un animal parlant – c’est-à-dire un spécialiste de la manipulation symbolique – un modèle scientifique de la cognition doit nécessairement contenir un modèle du langage. Enfin, dernier coup de pioche avant d’atteindre le roc : une science du langage ne nécessite-t-elle pas un langage scientifique ? En effet, vouloir une science computationnelle du langage sans disposer d’une langue mathématique revient à prétendre mesurer des longueurs sans unités ni instruments. Or je ne dispose avant d’avoir construit IEML que d’une modélisation algébrique de la syntaxe : la théorie chomskienne et ses variantes ne s’étendent pas jusqu’à la sémantique. La linguistique me donne des descriptions précises des langues naturelles dans tous leurs aspects, y compris sémantiques, mais elle ne me fournit pas de modèles algébriques universels. Je comprends donc l’origine des difficultés de la traduction automatique, des années 1950 jusqu’à nos jours.

Parce que le métalangage IEML fournit un codage algébrique de la sémantique il autorise une modélisation mathématique du langage et de la cognition, il ouvre en fin de compte à notre intelligence collective l’immense bénéfice de la réflexivité.

IEML, outil symbolique de la nouvelle épistémè

Si je dois contribuer à augmenter l’intelligence humaine, notre intelligence, il me faut d’abord comprendre ses conditions de fonctionnement. Pour synthétiser en quelques mots ce que m’ont enseigné de nombreuses années de recherches, l’intelligence dépend avant tout de la manipulation symbolique. De même que nos mains contrôlent des outils qui augmentent notre puissance matérielle, c’est grâce à sa capacité de manipulation de symboles que notre cognition atteint à l’intelligence réflexive. L’organisme humain a partout la même structure, mais son emprise sur son environnement physico-biologique varie en fonction des techniques mises en oeuvre. De la même manière, la cognition possède une structure fonctionnelle invariable, innée aux êtres humains, mais elle manie des outils symboliques dont la puissance augmente au rythme de leur évolution : écriture, imprimerie, médias électroniques, ordinateurs… L’intelligence commande ses outils symboliques par l’intermédiaire de ses idées et de ses concepts, comme la tête commande aux outils matériels par l’intermédiaire du bras et de la main. Quant aux symboles, ils fournissent leur puissance aux processus intellectuels. La force et la subtilité conférée par les symboles à la conceptualisation se répercute sur les idées et, de là, sur la communication et la mémoire pour soutenir, en fin de compte, les capacités de l’intelligence.

J’ai donc construit le nouvel outil de telle sorte qu’il tire le maximum de la nouvelle puissance offerte par le médium algorithmique global. IEML n’est ni un système de classification, ni une ontologie, ni même une super-ontologie universelle, mais une langue. Comme toute langue, IEML noue une syntaxe, une sémantique et une pragmatique. Mais c’est une langue artificielle : sa syntaxe est calculable, sa sémantique traduit les langues naturelles et sa pragmatique programme des écosystèmes d’idées. La syntaxe, la sémantique et la pragmatique d’IEML fonctionnent de manière interdépendante. Du point de vue syntaxique, l’algèbre d’IEML commande une topologie des relations. De ce fait, les connexions linguistiques entre textes et hypertextes dynamiques se calculent automatiquement. Du point de vue sémantique, un code – c’est-à-dire un système d’écriture, une grammaire et un dictionnaire multilingue – donne sens à l’algèbre. Il en résulte que chacune des variables de l’algèbre devient un noeud d’inter-traduction entre langues naturelles. Les utilisateurs peuvent alors communiquer en IEML tout en utilisant la – ou les – langues naturelles de leur choix. Du point de vue pragmatique enfin, IEML commande la simulation d’écosystèmes d’idées. Les données catégorisées en IEML s’organisent automatiquement en hypertextes dynamiques, explorables et auto-explicatifs. IEML fonctionne donc en pratique comme un outil de programmation distribuée d’une simulation cognitive globale.

Le futur algorithmique de l’intelligence

Lorsqu’elle aura pris en main ce nouvel outil symbolique, notre espèce laissera derrière elle une épistémè typographique assimilée et assumée pour entrer dans le vaste champ de l’intelligence algorithmique. Une nouvelle mémoire accueillera des torrents de données en provenance de milliards de sources et transformera automatiquement le déluge d’information en hypertextes dynamiques auto-organisateurs. Alors que Wikipedia conserve un système de catégorisation hérité de l’épistémè typographique, une bibliothèque encyclopédique perspectiviste s’ouvrira à tous les systèmes de classification possibles. En s’auto-organisant en fonction des points de vue adoptés par leurs explorateurs, les données catégorisées en IEML reflèteront le fonctionnement multi-polaire de l’intelligence collective.

Les relations entre hypertextes dynamiques vont se projeter dans une fiction calculée multi-sensorielle explorable en trois dimensions. Mais c’est une réalité cognitive que les nouveaux mondes virtuels vont simuler. Leur spatio-temporalité sera donc bien différente de celle du monde matériel puisque c’est ici la forme de l’intelligence, et non celle de la réalité physique ordinaire, qui va se laisser explorer par la sensori-motricité humaine.

De la curation collaborative de données émergera de nouveaux types de jeux intellectuels et sociaux. Des collectifs d’apprentissage, de production et d’action communiqueront sur un mode stigmergique en sculptant leur mémoire commune. Les joueurs construiront ainsi leurs identités individuelles et collectives. Leurs tendances émotionnelles et les directions de leurs attentions se reflèteront dans les fluctuations et les cycles de la mémoire commune.

A partir de nouvelles méthodes de mesure et de comptabilité sémantique basés sur IEML, l’ouverture et la transparence des processus de production de connaissance vont connaître un nouvel essor. Les études de la cognition et de la conscience disposeront non seulement d’une nouvelle théorie, mais aussi d’un nouvel instrument d’observation, d’analyse et de simulation. Il deviendra possible d’accumuler et de partager l’expertise sur la culture des écosystèmes d’idées. Nous allons commencer à nous interroger sur l’équilibre, l’interdépendance, la fécondité croisée de ces écosystèmes d’idées. Quels services rendent-ils aux communautés qui les produisent ? Quels sont leurs effets sur le développement humain ?

Le grand projet d’union des intelligences auquel je convie ne sera le fruit d’aucune conquête militaire, ni de la victoire sur les esprits d’une idéologie politique ou religieuse. Elle résultera d’une révolution cognitive à fondement techno-scientifique. Loin de tout esprit de table rase radicale, la nouvelle épistémè conservera les concepts des épistémè antérieures. Mais ce legs du passé sera repris dans un nouveau contexte, plus vaste, et par une intelligence plus puissante.

[Image en tête de l’article: “Le Miroir” de Paul Delvaux, 1936]

Colorado_Springs

I’ll be in Colorado College on Thursday September 18.

I will talk about my current research and my view on collective intelligence, 20 years after the original publication (1994) of my book “Collective Intelligence” in french.

What are the current research programs to augment collective intelligence through the use of the algorithmic medium? I will present the main technical and scientific enterprises related to this question, including knowledge management, the digital humanities, the semantic web and the singularity. I will also discuss my own research program, which aims to build a scientific mirror of human collective intelligence from collaborative data curation.

Here are the slides of my communication!

And there is a longer, more detailed version.

See the same book…
in french and in english

ESFERA

Lançamento do livro  “A Esfera Semantica” de Pierre Levy
São Paulo | Espaço B_arco | 17 de março | 19h

A Esfera Semantica

Resenha em Português

Espace_Barco

Débat sur le livre avec Massimo di Felice à gauche et moi au centre,,,

F-Torsade-mediumalgo

Pour commencer, le lien vers un podcast (France Culture):

Le jour va bientôt se lever pour une civilisation qui se concevra elle-même comme un sujet cognitif à l’échelle planétaire. L’intelligence vivante (et non pas l’intelligence artificielle!) d’une grande civilisation numérique nous attend dans un avenir qui n’est pas si lointain, avec les communautés qui l’animent et les individus qui la portent.

La société de l’ère numérique est datacentrique : les collectivités humaines se réunissent pour produire, échanger, amasser, transformer et exploiter des données. Son médium est algorithmique : c’est par le moyen de programmes informatiques que nous manipulons les données. Nous entrevoyons déjà une économie de l’information irriguée par l’interconnexion universelle et le traitement ubiquitaire d’énormes flots de données. L’activité humaine tournoie dans une boucle qui va du travail intellectuel à un capital d’algorithmes et de données et de ce capital numérique à l’augmentation du travail intellectuel. En somme, les objets de cette nouvelle civilisation sont les données numérisées, ses outils sont les algorithmes et ses activités créent de la connaissance réflexive.

Mais nous ne savons pas encore où tout cela nous mène, vers quelles formes culturelles nous entraîne le cours accéléré de l’évolution. Le changement n’est pas achevé et il offre encore de nombreuses possibilités d’inflexions et d’initiatives créatives. En inventant (voir une courte vidéo explicative) IEML, j’ai voulu intervenir sur la transformation en cours sans contrarier sa direction mais pour l’orienter plus clairement vers une augmentation de la connaissance réflexive. IEML (le lien est vers la grammaire, free) représente certes un système de codage sémantique efficace, une technologie symbolique, mais c’est avant tout le support d’un projet de civilisation.

Pour saisir la nature de ce projet, il faut l’imaginer déjà réalisé (et il l’est en partie, puisque les principaux problèmes scientifiques sont résolus: voir la Grammaire d’IEML). Représentons-nous les prochaines générations pourvues d’un sens supplémentaire qui élargira leur expérience en leur donnant un accès direct au monde des idées. Dans la culture numérique du futur, tout le monde saura et verra « de ses propres yeux » qu’un groupe humain vit en symbiose avec l’écosystème d’idées qu’il nourrit, qui le représente et qui le nourrit en retour. Certes, certains d’entre nous savent déjà aujourd’hui, de manière intuitive, que les collectivités humaines ont toujours vécu en interaction avec des écosystèmes d’idées (puisque l’existence humaine suppose la culture) mais, dans l’avenir, cette interdépendance sera beaucoup plus tangible qu’aujourd’hui parce que les écosystèmes d’idées seront observables, mesurables et explorables sur un mode sensorimoteur selon des mesures et des normes communes. La vie des idées aura acquis une objectivité scientifique et une évidence sensible qu’elle n’a pas encore aujourd’hui. C’est pourquoi nous devons concevoir une civilisation mondiale dans laquelle chaque communauté humaine (famille, école, réseau, équipe de travail, association, entreprise, ville, parti, nation, etc.) possèdera une représentation interactive de son intelligence collective : l’écosystème d’idées qu’elle génère et dont elle s’alimente. Cet écosystème se présentera comme un hologramme dynamique explorable – en réalité virtuelle ou augmentée – que l’on pourra décomposer, analyser ou fusionner à volonté avec ceux d’autres communautés ou d’autres individus.

Les idées émergent de la communication, c’est pourquoi j’ai commencé par évoquer le rapport symbiotique entre les communautés humaines et les écosystèmes d’idées. Mais dans la civilisation numérique du futur, ce ne sont pas seulement les groupes humains qui se réfléchiront dans des écosystèmes d’idées : chaque personne, chaque oeuvre de l’esprit, chaque concept, chaque objet, chaque lieu, chaque événement sera doublé d’un hologramme dynamique figurant l’écosystème d’idées qui le concerne. Nous pouvons aujourd’hui connaître immédiatement notre propre position géographique et accéder automatiquement à la géolocalisation de n’importe quel objet ainsi qu’à la manière d’y accéder à pied ou par un quelconque moyen de transport. De la même façon, nous pourrons dans le futur nous situer dans le monde des idées, y localiser n’importe quelle personne, objet ou ensemble de données et explorer ses voisinages sémantiques. Bien plus, le monde des idées et le monde matériel nous apparaîtront en rapport d’enveloppement réciproque. Alors que, dans le monde matériel, les choses et les gens seront nimbés d’une aura sémantique (via lunettes ou tablettes), dans le monde des idées, chaque concept sera environné de la constellation de personnes, d’objets et de données qui s’y rapportent.

Les écosystèmes d’idées seront produits et explorés de manière collaborative dans un espace public – un réseau social – ouvert et universel : (lien vers le livre, free) la SPHÈRE SÉMANTIQUE. Les navigateurs de la Sphère sémantique s’associeront en une multitude de jeux sémantiques dont chacun obéira à des règles particulières de catégorisation et d’évaluation des données. Le nouvel espace public abritera notamment des jeux d’apprentissage conçus pour augmenter simultanément la gestion personnelle et la gestion sociale des connaissances. Quant aux idées de la Sphère sémantique, ce seront tout simplement les « status updates » de ses utilisateurs. Mais alors que dans les médias sociaux contemporains on se sert de hashtags en langues naturelles, dans la Sphère sémantique on utilisera IEML pour catégoriser les données. Outre les dates, les identités des joueurs et celles des jeux, les idées se composeront principalement d’un concept (un texte en IEML, lisible dans toutes les langues), d’un crédit (positif, négatif ou neutre) et d’un ensemble de données (c’est-à-dire en fait d’un hyperlien menant aux données). A partir d’un ensemble d’idées, la Sphère sémantique génèrera automatiquement un écosystème dynamique et interactif, avec son univers de discours, ses relations et distances sémantiques internes et externes, ses concentrations et circulations de crédits, sa transformation dans le temps, sa distribution dans l’espace et, bien entendu, ses données multimédia. Vu le caractère océanique des flux de données, il est clair que certains jeux autoriseront des méthodes de catégorisation et d’évaluation automatique. La seule obligation sera de déclarer ces méthodes. Les données publiques seront ainsi intégrées au monde des idées : une bibliothèque mondiale multimédia émergeant de l’intelligence collective, acceptant les choix de catégorisation et d’évaluation de tous les joueurs et de tous leurs jeux, partout présente, surgissant sur demande et mise à jour en temps réel.

Je répète que les utilisateurs pourront sélectionner les ensembles d’idées à volonté, en fonction de leurs dates, de leurs auteurs, de leurs données, de leurs concepts, de leurs jeux et ainsi de suite. Les différents points de vue sur un sujet pourront être séparés ou rassemblés à volonté, sur un mode perspectiviste. C’est ainsi que la Sphère sémantique permettra à ses utilisateurs de multiplier leurs possibilités d’interprétation de la mémoire commune. Mais malgré ces options de sélection et de personalisation, tous les écosystèmes d’idées resteront compatibles et interopérables.

Pour maîtriser le nouvel environnement de communication et de pensée, les enfants apprendront à l’école comment créer, échanger et explorer les idées et leurs écosystèmes. Ils apprendront du même coup à manier IEML, une écriture comprise à la fois par les ordinateurs et les humains, qui programme des circuits sémantiques et qui se traduit automatiquement dans toutes les langues. L’extraction automatique d’informations pertinentes à partir des données ne sera plus réservé à une élite politique, technologique et financière : un nouveau médium social et une nouvelle vague de littératie auront distribué ce pouvoir cognitif entre les mains de tous.

European_honey_bee

La fable des abeilles de l’ère industrielle

En 1714, Bernard de Mandeville donna le coup d’envoi de la réflexion sur l’économie capitaliste industrielle en train de naître en Angleterre par la publication de son ouvrage La fable des abeilles, qui montrait comment la poursuite par les individus de leurs intérêts personnels – les vices privés – aboutissait à la prospérité générale – la vertu publique –. Dans la Fable de Mandeville, parce qu’elles ne comprennent pas les ressorts de leur prospérité, les abeilles obtiennent de Jupiter que leur ruche devienne « honnête »… et voient fondre leur richesse collective.

La fable des abeilles inspira notamment Adam Smith (la « main invisible » du marché), John Maynard Keynes (sur l’importance de la consommation pour soutenir l’emploi), Jean-Jacque Rousseau (sur la prise en compte de l’égoisme humain) et Friedrich von Hayek (qui renchérit sur l’intelligence collective inconsciente des acteurs économiques).

Pour introduire l’économie de l’information telle qu’elle est régulée par IEML, je voudrais proposer une nouvelle version de la fable des abeilles. Le petit récit entomologique qui suit montre comment les individus et les groupes, dès qu’ils entrent dans l’espace public réfléchi par l’intelligence algorithmique, contribuent à l’accumulation du bien commun de la connaissance par leur diversité, leurs essais et leurs erreurs, et cela quels que soient les intérêts propres qu’ils poursuivent: richesse matérielle, pouvoir politique, narcissisme, plaisir ludique, vanité d’accumuler des points dans des jeux, passion de connaître ou que sais-je encore…

La fable des abeilles sémantiques

Sur une planète de science-fiction, des humains vivent en symbiose avec des abeilles sémantiques. Lorsque les gens cherchent, rêvent, lisent, écrivent, apprennent, dialoguent, s’amusent et joutent dans le monde extérieur, la pensée de chacun d’eux, de chacune d’elles, se reflète par le vol d’une abeille dans un monde sémantique. Les voyages des abeilles dans leur monde obéissent instantanément aux pensées humaines et les pensées humaines en retour sont informées par l’expérience des abeilles dans leur monde sémantique.

Et quelle expérience ! L’espèce des abeilles sémantiques et leur monde merveilleux sont parfaitement adaptés l’un à l’autre. Parce qu’elles sont des insectes volants, ces abeilles ne voient pas ce qui se trouve devant elles, mais plutôt ce qui se trouve autour d’elles, comme si leurs regards pouvaient suivre simultanément tous les rayons de la grande sphère au centre de laquelle elles se trouvent. Pour saisir de l’intérieur la perception d’une abeille sémantique, il faut savoir que son ciel n’est pas en haut ni sa terre en bas. De son point de vue, la terre est un grand tapis de fleurs lumineuses qui couvrent la surface interne de la sphère dans laquelle elle zigzague. Quant au ciel abritant la danse de la nuée bourdonnante à laquelle elle se mêle, il étend son immensité au milieu de l’univers sémantique, espace de liberté qui invite l’abeille à sauter d’une fleur à l’autre. Ainsi, parce que les abeilles vivent dans le monde sémantique de la mémoire et de la connaissance, où rien ne ressemble au monde matériel extérieur, leur terre palpitante s’étend autour de leur ciel. La prairie des fleurs lumineuses vit, sent et se souvient de la chorégraphie des ouvrières. Symbiose : la danse des abeilles se repère aux signaux des fleurs tandis que les fleurs poussent et se transforment en écho à la sarabande de l’essaim.

Mais à quoi riment ces danses et sautillements d’une fleur à l’autre ? A chacun de ses voyages, l’abeille transporte une cargaison de données fixée à son ventre par une petite goutte de nectar odorant (attirant, alertant ou paisible). Sur chaque fleur visitée elle laisse un double des données transportées, du nectar qui leur sert de liant et de son plan de vol pour le voyage en cours. Les fleurs accumulent toutes ces informations. Et puisque les données qu’elles contiennent sont disposées sur un mandala de concepts symétriques (la fleur), catégorisées (le plan de vol) et évaluées (le parfum) par une multitude d’insectes volants, voici qu’elles se transforment progressivement en miel de connaissance.

L’abeille, ou la pensée qui la commande, veut-elle percevoir les fleurs par le contenu de leur calice ? La grande prairie sémantique est retissée à volonté dans la vision sémantique, rapprochant les fleurs qui portent des miels de même parfum, ou la même quantité d’or liquide. La pensée veut-elle contempler le tapis lumineux des concepts selon les affinités révélées par les récits dansés des abeilles ? Aussitôt le champ est retissé selon cette perspective. La pensée cherche-t-elle des pensées soeurs ou antagonistes ? L’abeille discerne dans la nuée celles qui lui ressemblent, ou les opposées qui zigzaguent en sens inverse. La pensée veut-elle admirer son propre champ de connaissance ? Elle devient aussitôt la seule abeille au milieu de son pré. Veut-elle s’aménager une prairie autour d’un dépôt de données et convoquer les ruches qui font le meilleur miel avec ces données ? Et voici que surgit la bulle sémantique originale, la terre vivante et le ciel bourdonnant qui répond à ce désir… Et lorsque les abeilles, délaissant pour un moment leur infatigable manège, dégustent le miel dans le calice des fleurs, la pensée humaine accède au plaisir de la connaissance.

Mais un jour les humains sont lassés de ces points de vue divergents et convergents, de cette diversité, de cette liberté de choix, de cette capacité de créer dans tous les sens, de ces danses endiablées, de ces essaims qui s’entrecroisent, de ces tapis qui se tissent et se détissent. « Nous voulons la vérité, disent-ils, la vérité vraie, objective, neutre, unique, infaillible, non pas un reflet de notre propre esprit, ce reflet fut-il celui d’une multitude d’intelligences collectives ». On organise un vote et les anti-miel gagnent d’une courte majorité. Selon le programme du parti vainqueur, les humains fabriquent une grande encyclopédie officielle qui ne contient que la vérité, rien que la vérité, toute la vérité : une encyclopédie enfin « honnête ». Ne se sentant plus aimées, perdant leur intime association avec les pensées, les abeilles commencent à mourir, le miel se dessèche et devient immangeable. Le monde sémantique décline, puis disparaît d’un coup, comme une bulle qui éclate sur une épine de cactus. Les humains, diminués, perdent leur sens du monde intérieur. Alors commence l’âge sombre de la planète : on se dispute sur le contenu de l’encyclopédie, on en fabrique des versions antagonistes, on se déclare la guerre, les gens n’en finissent plus de s’entretuer… Et les vieillards nostalgiques se souviennent d’un temps où la connaissance commune fleurissait dans la diversité, la liberté et la transparence d’un monde intérieur auquel ils ont perdu l’accès.

Moon gravity

Voici une vidéo qui explique en cinq minutes en français le “pourquoi” de l’invention d’IEML.

Pour en savoir plus, vous pouvez écouter un podcast sur France Culture d’une quarantaine de minutes.

IEML (pour Information Economy MetaLanguage) est une langue artificielle à la sémantique calculable qui n’impose aucune limite aux possibilités d’expression de nouveaux sens.

Etant donné un texte en IEML, des algorithmes reconstituent le réseau grammatical et sémantique interne au texte, traduisent ce réseau en langues naturelles et calculent les relations sémantiques entre ce texte et les autres textes en IEML. Le métalangage génère un immense groupe de transformations symétriques entre réseaux sémantiques qui peut être mesuré et parcouru à volonté par des algorithmes.

Utilisé comme système de métadonnées, le métalangage IEML ouvre la voie à de nouvelles méthodes d’analyse de grandes masses de données. Dans les médias sociaux, il supporte des formes inédites de communication hypertextuelle translinguistique et permet à des réseaux de conversations d’observer et de perfectionner leur propre intelligence collective. Pour les chercheurs en sciences humaines, IEML structure une bibliothèque encyclopédique ouverte et universelle qui se réorganise automatiquement selon les intérêts de ses utilisateurs.

Cliquez ici pour obtenir La Grammaire d’IEML, avec table des matières, index et hyperliens internes.

Consacré à la Grammaire d’IEML (en français), cette annexe à La sphère sémantique possède un contenu essentiellement formel et technique. Elle démontre notamment la calculabilité d’IEML et de sa sémantique, calculabilité qui fonde le projet de l’intelligence algorithmique. Une version anglaise sera publiée bientôt.

Il n’y a pas encore d’outils pratiques, c’est une recherche fondamentale dont les retombées techniques n’apparaîtront que dans quelques années… Patience…

You can find below my presentation for a symposium at UNIVATES (Brazil) see here:

http://www.univates.br/dialogos/programacao

Click here: 9 ideograms to get the pdf file (10 slides)

The image below is the first slide.

Collective Intel

Chat vairon

MA PRÉFACE À L’EXCELLENT LIVRE DE STÉPHANE VIAL, L’ETRE ET L’ÉCRAN

Au-delà de la simple posture de consommateur ou d’utilisateur, si nous voulons y voir un peu plus clair sur la manière dont nous entremêlons nos pensées et nos symboles dans le médium algorithmique, si nous voulons comprendre la mutation numérique en cours et nous donner les moyens de peser sur son déroulement, il est nécessaire de garder les deux yeux bien ouverts: aussi bien l’oeil critique que l’oeil visionnaire.

L’oeil critique
Du côté de l’oeil critique, apprenons d’abord à sourire devant les slogans de pacotille, les mots-clic du marketing, les courses au Klout et les poses de « rebelle du libre ». L’Internet est peut-être pour certains une nouvelle religion. Pourquoi pas? Mais de grâce, ne nous construisons pas de nouvelles idoles : l’Internet n’est ni un acteur, ni une source d’information, ni une solution universelle, ni un modèle (Evegeny Morozov nous explique fort bien tout cela dans son dernier livre To Save Everything, Click Here: The Folly of Technological Solutionism).
Ce n’est pas un acteur. Le nouveau médium algorithmique qui se complexifie sous nos doigts et nos regards entrecroisés n’est certainement pas un acteur homogène, mais plutôt l’assemblage hypercomplexe d’une multitude d’acteurs humains et non-humains de toutes natures, un assemblage en transformation constante et rapide, un métamédium qui abrite et entremêle une grande diversité de médias dont chacun réclame une analyse particulière dans un contexte socio-historique particulier. Le médium algorithmique ne prend pas de décisions et n’agit pas de manière autonome.
Ce n’est pas non plus une source d’information : seules les personnes et les institutions qui s’y expriment sont de véritables sources. La confusion, entretenue par de nombreux journalistes, vient de ce que, dans les médias de diffusion unilatérale traditionnels (organes de presse, radios, télévisions), le canal se confond avec l’émetteur. Mais, dans le nouvel environnement de communication, les mêmes plateformes peuvent être utilisées par de nombreuses sources indépendantes.
Le simple bon sens nous suggère également que ni l’Internet, ni même le bon usage de l’Internet, fût-ce selon les lignes du crowdsourcing ou de l’open data, ne peuvent évidemment fournir une solution universelle et un peu magique à tous les problèmes économiques, sociaux, culturels ou politiques. Lorsque presque tout le monde n’a plus que les mots de « disruption », d’innovation, de fonctionnement en réseau et d’intelligence collective à la bouche, ces mots d’ordre (voir l’analyse philosophique du mot d’ordre par Deleuze et Guattari dans Mille Plateaux) n’ont plus aucun sens parce qu’ils ne font plus de différence.
Dans le même ordre d’idée l’Internet n’est pas non plus un modèle. Wikipedia (depuis 2001) représente sans aucun doute une réussite dans le domaine du travail collaboratif et de la diffusion des connaissances. Mais faut-il pour autant imiter Wikipedia pour des projets et dans des contextes bien différents de celui de l’encyclopédie en ligne? On peut en dire autant d’autres réussites comme celles des logiciels à sources ouverte (depuis 1983) ou de la licence Creative Commons (depuis 2001). Wikipedia et la propriété intellectuelle libre sont désormais des institutions interdépendantes et bien établies. S’il faut copier la communauté Wikipedia ou celle du « libre », ce serait plutôt dans leur capacité à concevoir – presque de toutes pièces – les modèles singuliers dont elles avaient besoin pour leurs projet à elles. Nous sommes en 2013 et il n’y a aucune raison pour que de nouveaux modèles originaux ne viennent pas s’ajouter à ceux-là, en vue de projets peut-être plus ambitieux. Nous avons certes à faire fructifier les héritages technique, juridique et organisationnel du mouvement socio-technique multiforme qui a porté l’émergence du médium algorithmique, mais pourquoi devrions-nous nous conformer à de quelconques modèles?
Pour en finir avec l’oeil critique, examinons quelques mots d’ordre en vogue tels que les  big data et les digital humanities. Il est clair que l’immensité des données publiques disponibles appelle un effort concerté pour en extraire le maximum d’information utile. Mais les tenants des big data entretiennent l’illusion épistémologique qu’ils pourraient se passer de théories et qu’il leur est possible de faire émerger la connaissance d’une « simple » analyse statistique des données. Comme si la sélection des ensembles de données, le choix des catégories qui leur sont appliquées et la conception des algorithmes qui les traitent ne relevaient d’aucun d’aucun point de vue pragmatique, d’aucune hypothèse particulière et, en somme, d’aucune théorie! Mais peut-on demander à des ingénieurs ou à des journalistes, aussi bien intentionnés soient-ils, d’expliciter des théories en sciences humaines, alors que les chercheurs en sciences humaines eux-mêmes en fournissent si peu, si mal, de si simplistes ou de si limitées à telle ou telle localité?
Cela me mène à l’engouement contemporain pour les digital humanities. L’effort pour éditer et mettre en libre accès les données des sciences humaines, pour traiter ces données avec les outils des big data et pour organiser des communautés de chercheurs autour de ce traitement est certes fort louable. Hélas, je ne discerne pour l’instant aucun travail de fond pour résoudre les immenses problèmes de fragmentation disciplinaire, de testabilité des hypothèses et d’hyper-localité théorique qui empêchent les sciences humaines d’émerger de leur moyen-âge épistémologique. Les outils techniques ne suffisent pas! Quand les sciences humaines se délivreront-elles du sortilège post-moderniste qui leur interdit l’accès à la connaissance scientifique et au dialogue ouvert dans l’universel ? Pourquoi tant de chercheurs, pourtant très doués, se cantonnent-ils à la dénonciation politico-économique, à la protection ou à l’attaque de telle ou telle « identité » ou à l’enfermement disciplinaire? Sans doute faudra-t-il mobiliser de nouveaux instruments algorithmiques (la partie digital), mais il faudra surtout que la communauté des sciences humaines découvre un sens nouveau à sa mission (la partie humanities).

L’oeil visionnaire
Je disais en commençant que nous avions besoin – pour comprendre et pour agir – d’ouvrir nos deux yeux : l’oeil critique et l’oeil visionnaire. L’oeil critique dissout les idoles intellectuelles qui obstruent le champ cognitif. L’oeil visionnaire discerne de nouveaux problèmes, envisage les avenirs dissimulés dans la brume de l’avenir et crée. C’est là qu’intervient notamment la perspective du design, si bien évoquée par Stéphane Vial au sixième chapitre de L’être et l’écran. Mais avant de songer à créer, il faut d’abord discerner. L’humanité est la seule espèce animale à manipuler des symboles et cette singularité lui a donné accès à la conscience réflexive, à la culture et à l’histoire. Dès lors qu’un nouvel univers de communication – un univers qui est évidemment le fruit de sa propre activité – augmente et modifie sa capacité de manipulation symbolique, c’est l’être même de l’humanité – sa singularité ontologique – qui est appelé à se reconstruire. Or le médium algorithmique rassemble et interconnecte sur un mode ubiquitaire aussi bien les flots de données numériques émis par nos activités que les armées d’automates symboliques qui transforment et nous présentent ces données. Dès le XXe siècle, quelques visionnaires avaient osé regarder en face la mutation anthropologique qu’implique ce nouveau régime de manipulation symbolique. Il est temps maintenant que les conditions techno-sociales de la mutation en cours, les problèmes béants qu’elle nous pose et les opportunités inouïes qu’elle nous ouvre soient frontalement pris en compte par la communauté des chercheurs en sciences humaines. Comme le montre parfaitement le livre de Stéfane Vial, la « révolution numérique » ne concerne pas tant les apparences, ou l’observable, auquel les journalistes se limitent par profession, que le système organisateur de nos perceptions, de nos pensées et de nos relations, leur nouveau mode d’apparition, leur fabrique cognitive, leur nature naturante. Ouvrons donc notre oeil visionnaire, traversons le miroir et commençons à explorer le changement de transcendantal historique, l’émergence d’une nouvelle épistémè. Il est clair pour moi, comme je crois pour Stéfane Vial et pour bien d’autres, que ce changement est oeuvre humaine, qu’il n’est pas achevé et qu’il offre encore de nombreuses possibilités d’inflexion et d’intervention créative. Mais pour que les virtualités les plus fécondes de notre évolution historique et culturelle s’actualisent, encore faut-il les apercevoir et se donner les moyens non seulement techniques mais aussi symboliques, théoriques et organisationnels de les réaliser.
Il y a certes quelques exigences à respecter : des exigences culturelles, économiques, techniques, existentielles. Culturelles : ne mépriser ni les traditions locales, ni les traditions transmises par les générations passées ; respecter les trésors de savoir et la sagesse contenues dans les institutions vivantes. Economiques : quelles que soient les options choisies (public, privé, commercial, non commercial, etc.) nos projets doivent être viables. Techniques : familiarisons-nous avec les algorithmes, leur calculabilité, leur complexité. Existentielles : le design des expériences doit prendre en compte l’existence corporelle, relationnelle, affective et esthétique des humains engagés dans les dispositifs d’interaction techniques. Une fois ces exigences respectées, la liberté créatrice n’a pas de limite.
Pour ma part, je crois que la direction d’évolution la plus prometteuse est celle d’un saut de réflexivité de l’intelligence collective, dans une perspective générale de développement humain (voir La sphère sémantique). Ce projet culturel et cognitif s’appuie sur un dispositif techno-symbolique de mon invention : IEML. Ce métalangage algorithmique s’auto-traduit dans toutes les langues et fournit aux sciences humaines un puissant outil de catégorisation et d’explicitation théorique. Ce projet n’en exclut aucun autre. J’invite à penser et à dialoguer au sein d’une universalité ouverte. Ma philosophie, comme celle de Stéphane Vial, accueille l’émergence, la durée et l’évolution de singularités créatives et interprétatives qui soient à la fois distinctes et interdépendantes, compétitives et coopératives.
Il semble que nous ayons oublié pourquoi nous avons édifié le médium algorithmique. Etait-ce pour devenir millionnaire? Etait-ce pour révéler enfin aux peuples opprimés le « marketing des médias sociaux » qu’ils attendaient avec tant d’espoir? Etait-ce pour que chacun, des enfants des écoles aux armées les plus puissantes en passant par les entreprises et les partis politiques, puisse surveiller, calomnier et détruire ses ennemis avec des moyens plus puissants? Stéphane Vial nous rappelle ce que nous avons visé, ce que nous visons toujours, ce but qui semble se dérober au fur et à mesure que nous le poursuivons et qui cependant oriente notre course : une révélation dans les sujets.