Archives for category: French

IEML est fondé sur les grandes découvertes de la linguistique du XXe siècle. Dans cette entrée de blog nous allons étudier successivement les héritages de Chomsky; de Saussure et de l’école structuraliste; de Tesnière et du modèle actantiel de la phrase; de Benveniste, Wittgenstein et Austin pour leurs solutions aux problèmes épineux de l’énonciation et de la pragmatique. Je conclurai en essayant de dissiper un des principaux malentendus au sujet d’IEML: ce n’est pas une langue “vraie” (une langue n’est ni vraie ni fausse, elle est conventionnelle), mais une langue claire.

[For an English version of this article see here.]

Fragonard La liseuse

L’héritage de Chomsky et les langages réguliers

Commençons par évoquer la dette d’IEML à l’égard de Noam Chomsky, un des géants de la linguistique et des sciences cognitives du XXe siècle. Pour le professeur du MIT, la capacité linguistique est un trait génétiquement déterminé de l’espèce humaine. Les langues, malgré leur diversité et leur évolution continuelle, partagent toutes la même “grammaire universelle” correspondant à cette habileté linguistique innée. Cette théorie expliquerait pourquoi les enfants apprennent spontanément et si vite à parler, sans qu’on ait besoin de leur donner des leçons de grammaire. Chomsky a exposé une version formelle – d’ailleurs contestée et plusieurs fois révisée – de la grammaire universelle. La découverte scientifique la plus précieuse de Chomsky est probablement sa théorie des langages réguliers : il a démontré qu’il existait une correspondance entre l’algèbre et la syntaxe formelle. La langue est donc en principe un objet calculable, au moins sur un plan syntaxique . Pour qu’une langue puisse être manipulée facilement par les ordinateurs, c’est-à-dire calculable, il faut qu’elle soit un langage régulier au sens de Chomsky: une sorte de code mathématique. Or les langues naturelles ne sont évidemment pas des langages réguliers. Les langages réguliers effectivement utilisés aujourd’hui sont des langages de programmation. Mais la “sémantique” des langages de programmation n’est autre que l’exécution des opérations qu’ils commandent. Aucun d’eux n’approche la capacité expressive d’une langue naturelle, qui permet de parler de tout et de rien et d’accomplir bien d’autres actes illocutoires que de donner des instructions à une machine. Notons au passage que Hjelmslev critiquait l’expression de « langue naturelle » à laquelle il préférait celle de langue philologique ou langue passe-partout. En effet, on peut tout dire en Espéranto, par exemple, bien que ce soit une langue construite et non pas naturelle. L’Espéranto est donc une langue philologique. Hélas, la sémantique de l’Espéranto n’est pas plus calculable que celle du Français ou de l’Arabe. A cause de leur irrégularité, les ordinateurs n’ont aujourd’hui accès aux langues philologiques que sur un mode statistique. C’est pourquoi notre âge numérique a besoin d’une langue philologique transparente aux algorithmes et donc régulière. IEML est la solution que j’ai trouvée au problème de la construction d’une langue philologique à la sémantique calculable. La calculabilité de sa sémantique n’est évidemment pertinente que s’il s’agit d’une langue philologique, permettant de « tout dire ». Et puisque la sémantique de cette langue devait être calculable, sa syntaxe devait a fortiori l’être aussi. C’est pourquoi IEML est un langage régulier au sens de Chomsky. Mais si le fait d’être un langage régulier était une condition nécessaire à la calculabilité de sa sémantique, ce n’en était pas une condition suffisante. Souvenons-nous que les langages réguliers actuellement en usage ont une sémantique restreinte : ce ne sont pas des langues philologiques. Comment conférer une sémantique philologique à un langage régulier ? Pour répondre à cette question, je me suis appuyé sur les enseignements de Saussure et de ses successeurs.

L’héritage de Saussure et le structuralisme

Selon Ferdinand de Saussure (1857-1913), un des pères de la linguistique contemporaine, les symboles linguistiques sont constitués de deux parties, le signifiant (une image acoustique ou visuelle) et le signifié (un concept ou une catégorie abstraite). Le rapport entre les deux parties du symbole est conventionnel ou arbitraire. Saussure a également montré que le plan du signifiant, ou la phonologie des langues, était basé sur un système de différences entre les sons, chaque langue ayant sa propre liste de phonèmes et surtout sa propre manière de disposer les seuils de passage entre deux phonèmes dans le continuum sonore. Un phonème n’existe pas de manière isolée, en dehors d’un éventail de variations, un peu comme les notes de musique n’existent que par rapport à un système musical. De la même manière, les signifiés ne sont pas des atomes de sens se suffisant à eux-mêmes mais correspondent à des positions dans des systèmes de différences : les paradigmes. La sémantique linguistique ne s’ancre donc pas dans des réalités naturelles fixes et indépendantes, mais dans un processus de comparaison, d’opposition, de différenciation et de renvois entre signifiés au sein d’une grille systémique bouclée sur elle-même, comme le sens d’un mot dans le dictionnaire est défini par d’autres mots qui, eux-mêmes, etc. Les travaux de Saussure ont été notamment poursuivis par Louis Hjemslev (1899-1965), qui a approfondi l’analyse du signe linguistique et a plaidé pour un maximum de rigueur épistémologique dans le traitement du langage, jusqu’à un idéal quasi-algébrique. Hjemslev a rebaptisé l’opposition entre signifiant et signifié en décrivant deux « plans » linguistiques celui de l’expression (le signifiant) et celui du contenu (le signifié). Chacun des deux plans est à son tour analysé en matière et forme. La matière de l’expression est de l’ordre du phénomène sensible, par exemple visuel ou sonore. Par contraste, la forme de l’expression désigne les unités abstraites qui résultent du découpage structurel des signifiants dans une langue donnée. Par exemple, le phonème « a » représente une forme bien déterminée qui s’oppose dans telle ou telle langue au phonème « o ». C’est ce qui permet en français, par exemple, de distinguer entre « bas » et « beau ». En revanche la forme « a » peut être remplie par un grand nombre de matières sonores distinctes selon les voix, les accents, etc. La matière est de l’ordre du continuum concret alors que la forme est de l’ordre du système d’oppositions abstrait. Il en est de même pour le contenu. Hjemslev a supposé qu’il existait un continuum du signifié, une sorte de magma abritant virtuellement l’ensemble des catégories possibles : la matière du contenu. Cette matière est découpée et organisée en paradigmes de manière différente pour chaque langue. En fin de compte, une langue quelconque organise une correspondance particulière entre forme de l’expression et forme du contenu. Le courant structuraliste initié par Saussure et poursuivi par Hjemslev a été prolongé par Julien Algirdas Greimas (1917-1992) et François Rastier (1945- ). Tout en maintenant vivante la tradition qui conçoit l’existence relativement autonome d’un monde des signifiés, ces auteurs ont notamment étendu l’analyse structurale du niveau des mots et des phrases jusqu’au niveau du texte, en particulier grâce à la notion d’isotopie. Revenons maintenant à notre problème : comment construire une langue qui soit simultanément philologique et régulière ? Non seulement les langues sont conventionnelles, mais elles ne peuvent pas ne pas l’être. La correspondance entre signifiant et signifié, ou expression et contenu, est arbitraire par nature. Puisque les langues sont nécessairement conventionnelles, rien n’interdit d’en construire une dont l’arrangement des signifiants soit de type “langage régulier”. Nous savons qu’un langage régulier possède une syntaxe calculable. Or la syntaxe régit les éléments signifiants de la langue, les phonèmes et leurs enchaînements, à plusieurs niveaux de complexité emboîtés. Puisqu’aussi bien les signifiants que les signifiés doivent être organisés par un système de différences, rien n’interdit non plus de donner  – par convention – à ce langage régulier un système de différences des signifiés (une forme du contenu) qui soit une fonction mathématique de celui des signifiants (la forme de l’expression). En accord avec les théories de Saussure et de ses successeurs, les unités de la langue IEML, à commencer par les morphèmes, mais aussi les unités lexicales, les phrases et les super-phrases sont organisées en paradigmes. Ces systèmes de variations sur fond de constantes – ou groupes de transformations – permettent aux unités linguistiques de s’entre-définir et de s’expliquer réciproquement. Or – en IEML – ce sont les mêmes paradigmes qui structurent l’expression et le contenu. Voici donc le principe de résolution de notre problème : dans un langage régulier dont le système de différences des signifiés est une fonction calculable de celui des signifiants, non seulement la syntaxe mais également la sémantique est calculable. C’est précisément le cas d’IEML, qui est donc une langue à la sémantique calculable !

L’héritage de Tesnière et la linguistique cognitive

Parmi toutes les fonctions du langage, l’une des plus importantes est de supporter la construction et la simulation de modèles mentaux [Je m’inspire ici notamment de l’étude de Philip Johnson-Laird, Mental Models, Harvard University Press, 1983]. L’architecture linguistique des modèles mentaux n’est évidemment pas exclusive de modes de représentation sensori-moteurs, et notamment visuels, qui peuvent se rapporter aussi bien à des mondes fictionnels qu’à la réalité vécue. Des linguistes comme Ronald Langacker (1942- ) et George Lakoff (1941- ), qui sont parmi les principaux chefs de file du courant de la linguistique cognitive, ont particulièrement étudié cette fonction de modélisation mentale. La capacité de représenter des « scènes » – à savoir des processus mis en oeuvre par des actants dans certaines circonstances – est une condition sine qua non du travail de modélisation accompli par le langage. Elle fonde la faculté narrative, puisqu’un récit peut être ramené à un enchaînement hypertextuel de scènes, moyennant certaines relations d’anaphore et d’isotopie. J’ajoute qu’en spécifiant les rapports entre processus et/ou entre actants, la scénographie linguistique fonde également la représentation des relations causales. Puisqu’une des missions d’IEML est de servir d’outil formel de modélisation, il doit non seulement organiser un morphisme entre sa sémantique et sa syntaxe, mais également systématiser et faciliter autant que possible la représentation des processus, des actants, des circonstances et de leurs interactions. Pour ce faire, IEML a intégré, avec quelques ajustements, le modèle actantiel de la phrase que Tesnière, préfigurant la linguistique cognitive, avait proposé dès le milieu du XXe siècle.

Cette image a un attribut alt vide ; le nom du fichier est stemmas_1.1.png
Figure 1: Exemple d’arbres de dépendance ou « stemmas » de Tesnière CC BY-SA 3.0, Wikimedia Commons.

En effet, outre le courant structuraliste, la grammaire d’IEML a aussi été largement influencée par l’oeuvre majeure de Lucien Tesnière (1893-1954). Ce linguiste français a été le premier à présenter une grammaire universelle fondée sur les arbres de dépendance, qui met en évidence le lien intime entre syntaxe et sémantique (voir la Figure 1). Bien que les deux systèmes aient été élaborés indépendamment, les arbres de dépendance de Tesnière sont proches des arbres syntaxiques de Chomsky. Tesnière a aussi proposé une théorie subtile de la translation entre les « parties du discours » que sont les verbes, noms, adverbes et adjectifs. Il a surtout développé le modèle actantiel de la phrase dont s’inspire la fonction syntagmatique d’IEML. La citation suivante, extraite de son oeuvre posthume Eléments de syntaxe structurale, explique bien le principe du modèle actantiel : « Le noeud verbal (…) exprime tout un petit drame. Comme un drame, en effet, il comporte (…) un procès et, le plus souvent, des acteurs et des circonstances. Le verbe exprime le procès. (…) Les actants sont des êtres ou des choses (…) participant au procès. (…) Les circonstants expriment les circonstances de temps, lieux, manière, etc. » [Lucien Tesnière, Eléments de syntaxe structurale, Klincksieck, Paris 1959: 102, Chapitre 48] Le modèle actantiel de Tesnière a notamment été repris et développé par deux importants linguistes contemporains, Igor Melchuk (1932- ) et Charles Fillmore (1929-2014). La grammaire des cas de Fillmore publiée en 1968, a été étendue dans les années 1980 à une conception quasi-encyclopédique de la sémantique linguistique notamment mise en oeuvre dans le projet FrameNet centré sur la langue anglaise et qui inspire plusieurs programmes d’intelligence artificielle. Les frames ou « cadres » en français décrivent la manière dont les mots conviennent les uns avec les autres et déterminent mutuellement leurs sens dans une phrase. Par exemple, lorsqu’on utilise le verbe « attaquer » à la voix active, le sujet grammatical est forcément un assaillant et l’objet grammatical une victime de l’attaque. L’approche adoptée par IEML est compatible avec les théories de Fillmore, les cas correspondant aux rôles syntagmatiques et l’équivalent des cadres étant les paradigmes de phrases. Quant à Igor Melchuk, sa contribution la plus originale concerne la morphologie, c’est-à-dire la structure des mots et leurs rapports. Il a en particulier décrit les fonctions lexicales qui règlent les collocations – c’est-à-dire les mots qui vont ou ne vont pas ensemble – et les relations sémantiques entre les unités lexicales d’une langue. Un exemple simple de fonction lexicale est « PLUS » comme dans : [PLUS (colline) = montagne] ou [PLUS (ruisseau) = rivière]. Les fonctions lexicales sont notamment utilisées pour construire des dictionnaires explicatifs et combinatoires (monolingues) et elles alimentent, comme les cadres de Fillmore, certains programmes de traitement automatique des langues naturelles. IEML intègre les principales fonctions lexicales mises en évidence par Melchuk, ce qui permet de composer facilement de nouveaux mots à partir des éléments du dictionnaire et d’expliciter formellement les relations sémantiques entre unités lexicales. Quant aux collocations selon Melchuk elles sont proches des cadres de Fillmore et sont – comme eux – traduites en IEML par des paradigmes de phrases. En somme, de nombreux linguistes ont souligné l’importance de la fonction modélisatrice du langage. Suivant leurs traces, IEML offre à ses locuteurs les outils grammaticaux nécessaires pour décrire des scènes et raconter des histoires. De plus, IEML permet de modéliser un domaine de connaissance spécialisé ou un champ sémantique particulier par la libre élaboration de terminologies (paradigmes de radicaux) et de phrases-cadres (paradigmes de phrases).

Austin, Wittgenstein et l’héritage pragmatique

La langue est une structure abstraite qui combine des paradigmes de morphèmes (atomes de sens indécomposables) et des règles de compositions des unités grammaticales (mots, phrases…) à partir des morphèmes. Par contraste, la parole – ou le texte – est une séquence de morphèmes particulière qui actualise le système de la langue. En ce sens, les terminologies et les phrases-cadres d’IEML appartiennent à une catégorie intermédiaire entre la langue et la parole. Ils font partie de la parole dans la mesure où ils sont librement créés à partir du dictionnaire de morphèmes initial et des règles de construction de syntagmes. Mais ils appartiennent encore à la langue puisque ce ne sont pas à proprement parler des énonciations en contexte. Ce n’est qu’au niveau de l’énonciation, en effet, que se déploient les actes de langages, c’est-à-dire la dimension pragmatique des langues. Or il ne s’agit pas de choisir entre la fonction modélisatrice ou représentative des langues, qui vient d’être évoquée à la section précédente, et leur fonction pratique, que nous allons survoler dans cette section. Bien au contraire : la fonction de représentation et la fonction pratique se soutiennent mutuellement. Sans modèle du monde, l’action n’a pas de sens et sans plongement dans quelque situation pratique, la représentation perd toute pertinence. Quoiqu’on puisse faire remonter la réflexion sur la puissance pratique du langage à la rhétorique antique ou aux plus anciennes réflexions de l’école confucéenne, je me limiterai ici à quelques grands auteurs : Emile Benvéniste pour l’étude de l’énonciation et de la fonction déictique, Ludwig Wittgenstein pour la question de la référence et des jeux de langage, John L. Austin pour la notion même de pragmatique linguistique. Relèvent de la pragmatique linguistique les actes accomplis dans le langage mais qui ont des conséquences extra-linguistiques, comme par exemple baptiser, interdire, condamner, etc. Puisqu’ils sont accomplis dans le langage, ces actes sont de nature symbolique. Ils sont par conséquent régis par des règles et accomplis par des « joueurs » qui tiennent des rôles déterminés. Une multitude de jeux de langage, selon l’expression de Wittgenstein, animent donc la dimension pragmatique qui s’ouvre avec l’énonciation. Une langue peut elle-même être assimilée à un système de règles ou à un jeu. Et si cette langue est philologique elle est capable à son tour de définir une multitude de langues restreintes, de systèmes de règles ou de jeux, qui sont autant de manières distinctes de l’utiliser dans la pratique. IEML étant une langue philologique, nous l’utiliserons non seulement pour modéliser un champ sémantique quelconque, représenter des scènes et raconter des histoires, mais aussi pour expliciter des jeux de langages dont nous formaliserons les règles, les rôles et les coups au moyen de terminologies et de phrases-cadres. Lorsqu’ils reconnaîtront les actes de langages accomplis par les locuteurs d’IEML, des algorithmes pourront déclencher automatiquement leurs conséquences extra-linguistiques et notamment calculer les nouveaux états des « parties » en cours. J’évoquerai ici quatre grands types d’actes de langage qui sont particulièrement pertinents pour IEML : la référence, le raisonnement, la communication sociale et les instructions données à des machines. La première fonction de l’énonciation est de faire référence à des objets non-linguistiques. Une de ses formes les plus évidentes est la distribution des rôles interlocutoires : les première, seconde ou troisième personnes indiquent qui parle, à qui et de quoi. Mentionnons également les possessifs (liés à la distribution des personnes grammaticales), les démonstratifs comme « ça, ici, là-bas », les adverbes comme « aujourd’hui », « demain », etc. Or un texte – ou un énoncé – ne permet pas d’interpréter les déictiques comme « je », « ça » ou « demain ». Seul l’événement d’une énonciation par quelqu’un, dans un contexte spatio-temporel d’interlocution défini, peut leur donner un contenu [« « Je » » signifie « la personne qui énonce la présente instance du discours contenant « je ». » (Emile Benveniste)] . Cette fonction référentielle du langage est particulièrement importante pour IEML, qui a pour vocation de catégoriser des données et donc – par nécessité – de les indexer. Aussi bien la distribution des rôles interlocutoires que la catégorisation des données peuvent se conformer à un grand nombre de jeux de référence distincts. Par exemple, pour interpréter un « nous » il faut connaître le système de distribution des personnes auquel il obéit : pluriel de majesté, chercheurs d’une même discipline, membres d’un tribunal, citoyens d’une nation en guerre…? D’autre part, la catégorisation des données en IEML prend un sens différent selon que l’indexation est faite par un algorithme ou par un humain. Dans le cas de l’indexation automatique, s’agit-il d’un algorithme statistique basé sur un corpus indexé manuellement ? Et dans ce dernier cas, indexé par qui, selon quels critères, etc. Dans le même ordre d’idée, il peut être utile de savoir si un texte est cité (encore un geste déictique) en tant que partie d’un corpus de référence, comme une autorité pour renforcer la crédibilité des idées de l’auteur, pour être critiqué, ou encore pour une autre raison. En somme, l’opération de référence est un acte de langage, cet acte relève d’une multitude de jeux possibles, et ces jeux peuvent être explicités en IEML. Le raisonnement est encore un autre type de jeu de langage modélisable en IEML. Citons dès maintenant, en suivant la typologie de Charles S. Peirce, (1) les divers genres de raisonnement déductifs, (2) les raisonnements inductifs – incluant les calculs statistiques – et (3) les raisonnements abductifs, qui construisent des modèles causaux d’un domaine ou d’un processus. On remarquera que le raisonnement suppose la plupart du temps la référence et que cette dernière est souvent faite pour appuyer le raisonnement. Les jeux de langage qui ont le plus été étudiés par les spécialistes de la pragmatique, à commencer par Austin et Searle, sont les jeux de communication sociale, qui comprennent par exemple les assertions, les questions, les ordres, les promesses, les remerciements, les nominations, etc. Mais nous pouvons ajouter à ce type de jeux les transactions, les contrats et tout ce qui relève des arrangements légaux et des échanges économiques, qui passent de plus en plus par des canaux électroniques et qui auraient avantage à être exprimés dans un langage transparent, univoque et calculable comme IEML. Finalement, puisque nous vivons dans un environnement de plus en plus robotisé, les instructions données à des machines, tout comme d’ailleurs les informations – parfois vitales – que les machines nous transmettent, font évidemment partie des actes de langage aux importantes conséquences extra-linguistiques. Parce que les ordinateurs peuvent décoder IEML et qu’IEML se traduit en langues naturelles, notre métalangage pourrait devenir le noyau logiciel d’une interface ubiquitaire et interopérable entre humains et machines.

Une image du monde ou une image de soi ?

Dans le Tractatus Logico Philosophicus, l’ouvrage de jeunesse qui l’a fait connaître, Wittgenstein examine à quelles conditions les propositions logiques présentent une image fidèle de la réalité. Le monde étant conçu par notre philosophe viennois comme « tout ce qui arrive », chaque fait ou événement devrait être représenté par une proposition dont la structure logico-grammaticale reflète la structure interne du fait. L’idée d’un langage parfait ou d’une langue transparente est souvent associée à cet idéal d’isomorphie entre les expressions du langage et les réalités qu’elles décrivent ou, en d’autres termes, entre la parole et sa référence. Rien n’est plus loin du projet d’IEML. Plutôt que de poursuivre la chimère au parfum vaguement totalitaire d’une langue de la vérité (la vérité se ramène à la correspondance entre parole et réalité), j’ai poursuivi un objectif moins contraignant et surtout plus atteignable : celui d’une langue de la clarté, aussi univoque et traductible que possible. A l’idéal d’une langue logique qui reflèterait des états de choses, j’ai substitué celui d’une langue philologique dont la forme algébrique de l’expression reflèterait la forme du contenu conceptuel : une langue qui serait une image d’elle-même avant d’être une image du monde. Par définition, cette correspondance interne ne relève pas du vrai et du faux mais de la convention utile. Quant au rapport d’IEML avec la réalité extralinguistique, elle relève d’une multitude de jeux de langages (je suis ici le Wittgenstein de la maturité, tel qu’il s’est exprimé dans les Philosophical Investigations), multitude qui englobe les diverses manières de découper, reconnaître et désigner des objets pertinents selon les contextes pratiques. Et grâce à la capacité de description universelle propre à toutes les langues philologiques, nous pouvons modéliser ces multiples jeux de langages en IEML. Cette approche respecte aussi bien la liberté que la créativité de ses locuteurs tout en autorisant ces derniers à se coordonner entre eux et avec les machines. Reprenons la classification des différents niveaux de la sémantique – linguistique, référentielle et illocutoire. Notre métalangage clarifie les relations entre signifiés et signifiants ainsi que les relations entre signifiés au point de pouvoir automatiser leur traitement. Le principal apport d’IEML se situe donc au niveau de la sémantique linguistique. Quant à la sémantique référentielle – le pointage vers des réalités extra-linguistiques – elle peut devenir plus précise dans la mesure où les différents modes de référence sont précisés en IEML. Enfin, la force illocutoire des énonciations, c’est-à-dire les « coups » qui sont joués dans une multitude de jeux de communication sociale, peuvent être reconnus par des algorithmes et traités en conséquence, à condition que les jeux en question aient préalablement été décrits en IEML. En somme, la formalisation de la sémantique linguistique nous offre la clé de la formalisation de la sémantique en général.

Brève bibliographie

  • Austin John L. How to Do Things with Words, Oxford University Press, Oxford, 1962
  • Benveniste Emile Problèmes de linguistique générale, Tomes 1 et 2, Gallimard, Paris, 1966-1974
  • Chomsky Noam New Horizons in the Study of Language and Mind, Cambridge University Press, Cambridge, 2000.
  • Chomsky Noam Syntaxic Structures, Mouton, La Hague et Paris, 1957.
  • Chomsky Noam ; Schützenberger, Marcel P. « The algebraic theory of context free languages », in Braffort, P. ; Hirschberg, D. : Computer Programming and Formal Languages, North Holland, Amsterdam, 118-161, 1963
  • Fillmore Charles “The Case for Case” (1968). In Bach and Harms (Ed.): Universals in Linguistic Theory. New York: Holt, Rinehart, and Winston, 1-88. (Tesnières y est cité à neuf reprises).
  • Fillmore Charles “Frame semantics” (1982). In Linguistics in the Morning Calm. Seoul, Hanshin Publishing Co., 111-137.
  • Hejlmslev Louis, Prolégomènes à une théorie du langageLa Structure fondamentale du langage, Paris, Éditions de minuit, coll. « Arguments », 2000
  • Johnson-Laird Philip, Mental Models, Harvard University Press, 1983
  • Lakoff George Women, Fire and Dangerous Things: What Categories Reveal About the Mind, University of Chicago Press, Chicago, USA, 1987.
  • Lakoff George, Johnson M., Metaphors We Live By, University of Chicago Press, Chicago, USA, 2003.
  • Langacker Ronald W., Foundations of Cognitive Grammar (2 volumes), Stanford University Press, Stanford, USA, 1987-1991.
  • Levy Pierre The Semantic Sphere / La sphère sémantique, Hermès-Lavoisier, Paris-London, 2011
  • Melchuk, Igor, « Actants in Semantics and Syntax. I. Actants in Semantics », Linguistics, 42: 1, 2004, 1-66
  • Melchuk Igor Aspects of the Theory of Morphology. Berlin—New York: Mouton de Gruyter, 2006. 615 pp
  • Peirce, C. S., The Essential Peirce, Selected Philosophical Writings, Volume 1 (1867–1893) and 2 (1893-1913) Nathan Houser and Christian J. W. Kloesel, eds., Indiana University Press, Bloomington and Indianapolis, IN, 1992-1998.
  • Saussure Ferdinand de Cours de Linguistique générale, Payot, Paris, 1916.
  • Searle John Speech Acts, Cambridge University Press, London, 1969.
  • Searle John Intentionality, Cambridge University Press, London, 1983.
  • Tesnière Lucien Eléments de Syntaxe structurale Klincksieck, Paris, 1959 (posthumous)
  • Wittgenstein Ludwig Tractatus Logico Philosophicus, Routledge and Kegan Paul Ltd, London, 1961.
  • Wittgenstein Ludwig Philosophical Investigations, Blackwell, Oxford, 1953.
L’Ecole d’Athènes par Raphael

Un langage scientifique

IEML est un acronyme pour Information Economy MetaLanguage ou, en français : le métalangage de l’économie de l’information. IEML est le fruit de trente ans de recherche fondamentale sous la direction de Pierre Lévy dont quatorze ans ont été financés par le gouvernement fédéral canadien dans le cadre de la Chaire de Recherche du Canada en Intelligence Collective à l’Université d’Ottawa (2002-2016). IEML est en 2020 le seul langage qui possède les trois propriétés suivantes :

  • il a la puissance d’expression d’une langue naturelle ;
  • il possède la syntaxe d’un langage régulier ;
  • sa sémantique est univoque et calculable, parce qu’elle est alignée sur sa syntaxe.

En d’autres termes, c’est un « système symbolique bien formé », qui comporte une bijection entre un ensemble de relations entre signifiés (une langue) et un ensemble de relations entre signifiants (une algèbre) et qui peut être manipulé par un ensemble d’opérations symétriques et automatisables.

Sur la base de ces propriétés, on peut utiliser IEML comme un système de codage des concepts qui résoud de manière originale le problème de l’interopérabilité sémantique, pose les bases d’une nouvelle génération d’intelligence artificielle et autorise une réflexivité de l’intelligence collective. IEML respecte les standards du Web et s’exporte en RDF. Les expressions IEML sont appelées des USLs (Uniform Semantic Locators). Elles se lisent et se traduisent dans n’importe quelle langue naturelle. Les ontologies sémantiques – ensembles d’expressions IEML liés par un réseau de relations – sont interopérables par construction. IEML fournit le système de coordonnées d’une base de connaissances commune qui alimente aussi bien les raisonnements automatiques que les calculs statistiques. En somme, IEML accomplit la promesse du Web sémantique grâce à sa signification calculable et à ses ontologies inter-opérables. La grammaire d’IEML se décompose en trois couches : les éléments, les mots, les phrases et les textes. On trouvera des exemples d’éléments et de mots à l’adresse https://dev.intlekt.io/.

Les éléments

Les éléments sont les briques de base, ou concepts élémentaires, à partir desquelles toutes les expressions du langage sont composées. Un dictionnaire d’environ 5000 éléments traduits en langues naturelles est donné avec le langage et partagé entre tous ses utilisateurs. L’inter-opérabilité sémantique vient du fait que tout le monde partage le même ensemble d’éléments dont les sens sont fixés. Le dictionnaire est organisé en tables et sous-tables se rapportant à un même thème et les éléments se définissent réciproquement grâce à un réseau de relations sémantiques explicites. IEML autorise la conception d’une variété illimitée de concepts à partir d’un nombre limité d’éléments.

Exemple d’une table d’éléments

L’utilisateur n’a pas à se soucier des règles à partir desquelles les éléments sont construits. Sachons toutefois qu’ils sont engendrés de manière régulière à partir de six symboles primitifs qui forment la couche 0 du langage et que, l’opération générative étant récursive, les éléments s’étagent sur six couches au-dessus de la couche zéro.

Les mots  

A partir du dictionnaire des éléments et des règles de grammaire, les utilisateurs peuvent librement modéliser un domaine de connaissance ou de pratique en IEML. Ces modèles peuvent être originaux ou traduire des métadonnées sémantiques existantes. 

L’unité de base des phrases est le mot. Un mot est un couple composé de deux petits ensembles d’éléments : le radical et la flexion. Le choix des éléments de radical est libre mais les éléments de flexion sont sélectionnés dans une liste fermée de tables d’éléments correspondant à des adverbes, prépositions, postpositions, articles, conjugaisons, déclinaisons, modes, etc. (voir les « morphèmes auxiliaires » dans https://dev.intlekt.io/)

Chaque mot correspond à un concept distinct qui pourra se traduire, selon les indications de son auteur et son rôle grammatical, comme un verbe (encourager), un nom (courage), un adjectif (courageux) ou un adverbe (courageusement). 

Les phrases

Les mots se distribuent sur un arbre syntagmatique composé d’une racine (verbale ou nominale) et de huit feuilles correspondant aux rôles de la grammaire classique : sujet, objet, complément de temps, de lieu, etc.

Les neuf rôles grammaticaux

Les neuf rôles grammaticaux

  • La racine de la phrase peut être un process (un verbe), une substance, une essence, l’affirmation d’une existence… 
  • L’initiateur est le sujet d’un process. Il répond à la question « qui? ». Il peut aussi définir les conditions initiales, le premier moteur, la cause première du concept évoqué par la phrase.
  • L’interactant correspond à l’objet de la grammaire classique. Il répond à la question « quoi? ». Il joue aussi le rôle de médium dans la relation entre l’initiateur et le destinataire. 
  • Le destinataire est le bénéficiaire (ou la victime) d’un process. Il répond aux questions « pour qui, à qui, envers qui? » 
  • Le temps répond à la question « quand? ». Il indique le moment dans le passé, le présent, ou le futur et donne des repères quant à l’antériorité, la postériorité, la durée, la date, la fréquence. 
  • Le lieu répond à la question « où? ». Il indique la localisation, la distribution dans l’espace, l’allure du mouvements, les trajets, les chemins, les relations et métaphores spatiales. 
  • L’intention répond à la question de la finalité, du but, de la motivation : « pour quoi? » « A quelle fin? » Il concerne l’orientation mentale, la direction de l’action, le contexte pragmatique, l’émotion ou le sentiment.
  • La manière répond aux questions « comment? » et « combien? ». Elle situe la phrase sur une gamme de qualités ou sur une échelle de valeurs. Elle spécifie les quantités, gradients, mesures et tailles. Elle indique aussi les propriétés, les genres et les styles.
  • La causalité répond à la question « pourquoi? ». Elle précise les déterminations logiques, matérielles et formelles. Elle décrit les causes qui n’ont pas été spécifiées par l’initiateur, l’interactant ou le destinataire : médias, instruments, effets, conséquences. Elle décrit également les unités de mesure et les méthodes. Elle peut également spécifier les règles, lois, raisons, points de vue, conditions et contrats.

Par exemple : Robert (initiateur) offre (racine-process) un cadeau (interactant) à Marie (destinataire) aujourd’hui (temps) dans le jardin (lieu), pour lui faire plaisir (intention), en souriant (manière), pour son anniversaire (causalité).

Les jonctions 

IEML autorise la jonction de plusieurs mots dans le même rôle syntagmatique. Il peut s’agir d’une connexion logique (et, ou inclusif ou bien exclusif), d’une comparaison (même que, différent de), d’un rangement (plus grand que, plus petit que…), d’une antinomie (mais, malgré…), etc.

Les couches de complexité 

Les rôles grammaticaux d’une phrase complexe

Un mot qui joue l’un des huit rôles de feuille dans la couche de complexité 1 peut jouer le rôle de racine secondaire dans la couche de complexité 2, et ainsi de suite récursivement jusqu’à la couche 4.

Les littéraux

IEML stricto sensu ne permet d’exprimer que des catégories ou des concepts généraux. Il est néanmoins possible d’insérer dans une phrase des nombres, des unités de mesure, des dates, des positions géographiques, des noms propres et autres à condition de les catégoriser en IEML. Par exemple t.u.-t.u.-‘ [23] signifie « nombre : 23 ». Les noms d’individus, les nombres, etc. sont appelés littéraux en IEML.

Les textes 

Les relations 

Une relation sémantique est une phrase d’un format spécial qui sert à lier un noeud de départ (élément, mot, phrase) à un noeud d’arrivée. IEML inclut un langage de requête permettant de programmer facilement des relations sémantiques sur un ensemble de noeuds. 

Par construction, une relation sémantique explicite les quatre points qui suivent.

  1. La fonction qui relie le noeud de départ et le noeud d’arrivée.
  2. La forme mathématique de la relation : relation d’équivalence, relation d’ordre, relation symétrique intransitive ou relation asymétrique intransitive.
  3. Le genre de contexte ou de règle sociale qui valide la relation : syntaxique, légal, ludique, scientifique, pédagogique, etc.
  4. Le contenu de la relation : logique, taxinomique, méréologique (rapport tout-partie), temporelle, spatiale, quantitative, causale ou autre. La relation peut également concerner l’ordre de lecture des phrases ou l’anaphore.

Le réseau (hyper) textuel 

Un texte IEML est un réseau de relations sémantiques. Ce réseau peut décrire des successions linéaires, des arbres, des matrices, des cliques, des cycles et des sous-réseaux complexes de tous types.

Un texte IEML peut être considéré comme une théorie, une ontologie ou un récit censé rendre compte de l’ensemble de données qu’il sert à indexer.

Nous pouvons définir un USL comme un ensemble ordonné (normalisé) de triplets de la forme : (un noeud de départ, un noeud d’arrivée, un noeud de relation). Un tel ensemble de triplets décrit un réseau sémantique ou texte IEML. 

On notera les cas particuliers suivants :

  • Le réseau, ou texte, peut ne contenir qu’une seul phrase.
  • La phrase peut ne contenir qu’une racine à l’exclusion des autres rôles grammaticaux.
  • La racine peut ne contenir qu’un mot (pas de jonction).
  • Le mot peut ne contenir qu’un seul élément.

*******

En somme, IEML est une langue à la sémantique calculable qui peut être considérée de trois points de vue complémentaires : linguistique, mathématique et informatique. Sur le plan linguistique, il s’agit d’une langue philologique, c’est-à-dire qu’elle peut traduire n’importe quelle langue naturelle. Sur le plan mathématique, c’est un topos, c’est à dire une structure algébrique (une catégorie) en rapport d’isomorphisme avec un espace topologique (un réseau de relations sémantiques). Enfin, sur le plan informatique, elle fonctionne comme le système d’indexation d’une base de données virtuelle et comme un langage de programmation de réseaux sémantiques.

Plus de 60% de la population humaine est connectée à l’Internet, la plupart des secteurs d’activité ont basculé dans le numérique et le logiciel pilote l’innovation. Or les normes et protocoles de l’Internet ont été inventés à une époque où moins d’un pour cent de la population était connectée. Il est temps d’utiliser les flots de données, la puissance de calcul disponible et les nouvelles possibilités de communication interactive au service du développement humain… et de la solution des graves problèmes auxquels nous sommes confrontés. C’est pourquoi je vais lancer bientôt un projet international – comparable à la construction d’un cyclotron ou d’un voyage vers Mars – autour d’une transcroissance de l’Internet au service de l’intelligence collective.

Saturne (photo Voyager)

Ce projet vise plusieurs objectifs interdépendants : 

  • Décloisonner la mémoire numérique et assurer son interopérabilité sémantique (linguistique, culturelle et disciplinaire).
  • Ouvrir les modes d’indexation et maximiser la diversité des interprétations de la mémoire numérique.
  • Fluidifier la communication entre les machines, mais aussi entre les humains et les machines afin d’assurer notre maîtrise collective sur l’internet des choses, les villes intelligentes, les robots, les véhicules autonomes, etc.
  • Etablir de nouvelles formes de modélisation et d’observation réflexive de l’intelligence collective humaine sur la base de notre mémoire partagée.

IEML

Le fondement technique de ce projet est IEML (Information Economy MetaLanguage), un système de métadonnées sémantiques que j’ai inventé, notamment grâce au soutien du gouvernement fédéral canadien. IEML possède :

  • la puissance d’expression d’une langue naturelle, 
  • la syntaxe d’un langage régulier, 
  • une sémantique calculable alignée sur sa syntaxe.

IEML s’exporte en RDF et il est basé sur les standards du Web. Les concepts IEML sont appelés des USLs (Uniform Semantic Locators). Ils se lisent et se traduisent dans n’importe quelle langue naturelle. Les ontologies sémantiques  – ensembles d’USLs liés par un réseau de relations – sont interopérables par construction. IEML établit une base de connaissances virtuelle qui alimente aussi bien les raisonnements automatiques que les calculs statistiques. En somme, IEML accomplit la promesse du Web sémantique grâce à sa signification calculable et à ses ontologies inter-opérables.

Pour une courte description de la grammaire d’IEML cliquez

Intlekt

Le système des URL et la norme http ne deviennent utiles que grâce à un navigateur. De la même manière, le nouveau système d’adressage sémantique de l’Internet basé sur IEML nécessite une application particulière, nommée Intlekt, dont le chef de projet technique est Louis van Beurden. Intlekt est une plateforme collaborative et distribuée qui supporte l’édition de concepts, la curation de données et de nouvelles formes de recherche, de fouille et de visualisation de données. 

Intlekt permet d’éditer et publier des ontologies sémantiques – ensembles de concepts en relation – liés à un domaine de pratique ou de connaissance. Ces ontologies peuvent être originales ou traduire des métadonnées sémantiques existantes telles que : thésauri, langages documentaires, ontologies, taxonomies SKOS, folksonomies, ensembles de tags ou de hashtags, mots-clés, têtes de colonnes et de rangées, etc. Les ontologies sémantiques publiées augmentent un  dictionnaire de concepts, que l’on peut considérer comme une méta-ontologie ouverte

Intlekt est également un outil de curation de données. Il permet d’éditer, d’indexer en IEML et de publier des collections de données qui viennent alimenter une base de connaissance commune. A terme, on pourra utiliser des algorithmes statistiques pour automatiser l’indexation sémantique des données.

Enfin, Intlekt exploite les propriétés d’IEML pour autoriser de nouvelles formes de search, de raisonnement automatique et de simulation de systèmes complexes.

Des applications particulières peuvent être imaginées dans de nombreux domaines comme:

  • la préservation des héritages culturels, 
  • la recherche en sciences humaines et les humanités numériques, 
  • l’éducation et la formation
  • la santé publique, 
  • la délibération démocratique informée, 
  • les transactions commerciales, 
  • les contrats intelligents, 
  • l’Internet des choses, 
  • etc.

Et maintenant?

Où en sommes-nous de ce projet à l’été 2020 ? Après de nombreux essais qui se sont étalés sur plusieurs années, la grammaire d’IEML s’est stabilisée ainsi que la base de morphèmes d’environ 5000 unités qui permet de construire à volonté n’importe quel concept. J’ai testé positivement les possibilités expressives du langage sur plusieurs domaines des sciences humaines et des sciences de la terre. Néanmoins, au moment où j’écris ces lignes, le dernier état de la grammaire n’est pas encore implémenté. De plus, pour obtenir une version d’Intlekt qui supporte les fonctions d’édition d’ontologies sémantiques, de curation de données et de fouille décrites plus haut, il faut compter une équipe de plusieurs programmeurs travaillant pendant un an. Dans les mois qui viennent, les amis d’IEML vont s’activer à réunir cette masse critique. 

Rejoignez-nous!

Pour plus d’information, consultez: https://pierrelevyblog.com/my-research-in-a-nutshell/ et https://pierrelevyblog.com/my-research-in-a-nutshell/the-basics-of-ieml/

Pour équilibrer le scepticisme de mon précédent blogpost, je voudrais célébrer ici une attitude d’audace existentielle illustrée notamment par Pascal, Kierkegaard et Nietzsche, qui eurent de nombreux émules au XXe siècle.

Kierkegaard

Entendons-nous d’abord sur les mots. Une proposition est vraie – de vérité logique – lorsqu’elle correspond au fait qu’elle décrit. La proposition « Le chat est sur le paillasson » est exacte si le chat est sur le paillasson. Les vérités logiques peuvent faire l’objet d’enquêtes empiriques, de démonstrations et de réfutations. En revanche, les vérités existentielles sont d’un autre ordre. Elles ne portent pas sur des états de choses objectifs mais sur des fins, des valeurs, des priorités ou des engagements personnels. On ne démontre pas une vérité existentielle, on en témoigne par l’authenticité de son adhésion. On ne saurait la prouver ou la réfuter mais seulement la vivre ou la déserter.

Le doute de Descartes était de méthode et n’intervenait qu’à l’origine de son raisonnement. Une fois la perplexité surmontée à la fondation de sa construction intellectuelle, il avance ensuite vers l’achèvement de son système en enchaînant des vérités sûres. Le véritable sceptique du XVIIe siècle fut le mathématicien, physicien et philosophe Pascal (1623-1662). Dans son livre posthume, les Pensées, Pascal doute effectivement de tout. L’Homme est un « roseau pensant » fragile et mortel, perdu dans un petit coin de l’univers entre les deux infinis de l’espace et du temps, toujours à la poursuite de distractions pour apaiser son mal-être. Ses connaissances sont locales et temporaires puisqu’il ne peut percevoir (avec l’aide imparfaite d’instruments scientifiques) que ce qui se rapproche de sa propre échelle spatio-temporelle. Les institutions et les rôles sociaux auxquels il adhère le plus souvent de manière naïve varient selon les lieux et les temps et n’ont donc rien de solide. Mais il faut pourtant bien vivre et agir. On ne peut en rester à un nihilisme destructeur où à un scepticisme cynique qui ne satisfont que les « demi-habiles ». Puisqu’il lui est impossible de s’établir sur une connaissance certaine, l’engagement existentiel ne résultera pas d’un constat ou d’une démonstration mais d’un pari. L’ordre du coeur diffère de l’ordre de la raison. Pascal presse les libertins qui mettent en question l’existence de Dieu de parier sur la foi catholique en respectant les formes extérieures de la religion : prière, messe, bonnes oeuvres, etc. S’il n’y a rien après la mort, ils n’ont pas perdu grand chose. Mais s’il existe un au-delà, ils ont gagné l’éternité. Le point essentiel du pari de Pascal n’est pas dans cette mise en balance d’un presque rien et d’un presque tout qui mène au choix facile du salut éternel. Il tient à ce que l’habitude de respecter les formes extérieures de la religion finit par générer une foi réelle et donne ainsi un sens à la vie au-delà des vérités démontrables. L’engagement existentiel génère l’existence de ce qui était en doute avant la décision.

Comme Pascal, Soren Kierkegaard (1813-1855) élabore une philosophie de la foi. Et comme Pascal son propos est à mille lieux de l’effort millénaire pour « concilier la foi et la raison », c’est-à-dire au fond pour accorder la tradition grecque (la science aristotélicienne) et la tradition sémitique (le texte révélé, Bible ou Coran). Le philosophe danois ne tente pas d’expliquer les passages de l’écriture qui posent problème à la philosophie rationnelle (comme ceux qui prêtent au divin des émotions ou des organes corporels), ni de distinguer entre les mystères indémontrables de la foi et les vérités religieuses qui s’accordent spontanément avec le raisonnement naturel. Ce type de travail a déjà été accompli par Philon (entre –20 et 45), Augustin d’Hippone (354-430), Al Farabi (900-950), Avicenne (Ibn Sina, 980-1037), Averroes (Ibn Roshd, 1126-1198), Maïmonide (1138-1204) et Thomas d’Aquin (1124-1274). Kierkegaard n’appartient pas plus que Pascal à l’univers des théosophes lettrés. Ses voisins à Copenhague sont allés à l’école, lisent les journaux, se réclament de la philosophie hégélienne sans trop la comprendre et se considèrent comme de bons chrétiens éclairés. Pourtant, notre philosophe est accablé par leur superficialité. Pour eux, la foi consiste en l’accomplissement de certains rites et en croyances qu’ils distinguent mal de vérités objectives. Ils ne soupçonnent pas l’abîme qu’un christianisme vécu creuse au coeur du sujet. Que vaut leur foi s’ils ne souffrent pas de l’écart entre une finitude irrémédiable et l’ouverture à la transcendance ? Descartes avait initié la philosophie moderne en jetant un doute radical sur les vérités objectives. Kierkegaard la relance en logeant maintenant le doute au coeur de la vérité existentielle. Rien ne peut prouver ni garantir le bien fondé de la foi, pas même la raison objective, la chaîne d’une tradition ou l’assentiment de nos semblables. Il s’agit d’une prise de responsabilité personnelle, d’un engagement de l’être, d’un courage qui assume la fragilité de ses choix. La foi de Kierkegaard n’aboutit pas au repos qu’offre la certitude, mais à l’éveil qui naît de l’inquiétude. Comme les mystiques du passé, il évoque l’existence humaine à partir de son intériorité et de son expérience singulière. Mais parce que c’est un philosophe moderne, il critique, examine, démasque et raille, il utilise toutes les ressources de la raison pour sonder sa propre authenticité et celle de ses semblables.

Nietzsche (1844-1900) généralise aux valeurs la réflexion de Kierkegaard sur la foi. Il dénonce l’hypocrisie des philosophes qui prétendent déduire logiquement leurs principes moraux. En réalité, ils savent où ils vont avant même de commencer leur enquête et se contentent de rationaliser habilement un choix préalable. Le plaisir, la douleur, les réactions émotionnelles primaires dépendent certes de la nature et elles favorisent probablement la reproduction de l’espèce. Mais le bien et le mal moraux sont des objets conventionnels produits par des choix historiques. Aucune religion, morale ou règle de vie n’est objectivement vraie : nous sommes dans le domaine existentiel. Dans sa réflexion sur la généalogie de la morale, Nietzsche montre que les valeurs adoptées par un groupe humain traduisent ses affects dominants. Par exemple, la valorisation de l’égalité et de la justice sociale habille la jalousie ou le ressentiment par rapport aux puissants, un goût secret de la vengeance. La liberté elle-même couvre une volonté de conquête et de domination, l’orgueil d’une noblesse qui se destine au pouvoir.

Les systèmes de valeurs – avec leurs pôles du noble et de l’ignoble, du bon et du mauvais – servent à augmenter la puissance des individus ou des groupes. Certains cas semblent contredire à cette règle. Par exemple, à première vue, la morale adoptée par des tribus de guerriers pillards semble mieux servir leur volonté de puissance que la règle de vie choisie par des communautés d’ascètes. Mais ces derniers maîtrisent mieux leurs émotions, mobilisent de vastes savoirs et disposent d’une longue mémoire. Si bien que, comparée à celles de barbares mal dégrossis, leur morale leur procure un plus grand pouvoir. Les valeurs orientent la croissance des cultures en idéalisant des stratégies de domination plus ou moins conscientes. Nietzsche prolonge les moralistes qui détectaient l’amour-propre sous les vertus apparentes. Mais il généralise ce dévoilement à l’échelle historique, avec les ressources d’érudition dont dispose un savant philologue en Allemagne à la fin du XIXe siècle : les religions ou les constructions philosophiques poursuivent chacune à leur manière quelque quête de puissance.

Par opposition aux schémas finalisés des religions révélées ou de la philosophie hégélienne, l’histoire se boucle en éternel retour. Nietzsche emprunte cette figure aux stoïciens et à la métaphysique indienne. Il n’existe ni fin des temps, ni jugement dernier, ni position de surplomb d’où juger les valeurs. Chaque coup de dès existentiel occupe à son tour le centre de tout, position d’où il pèse les autres à ses propres balances. La roue des actes tourne entre le temps et l’éternité. Le perspectivisme nietzschéen ne doit pas être interprété comme un relativisme confortable et moins encore comme un nihilisme. Car s’il demande à ses disciples de détruire les prétentions à la vérité absolue, Nietzsche les incite en même temps à assumer leur subjectivité et à affirmer leur puissance créatrice. Ses descendants spirituels sont appelés à forger courageusement leurs propres valeurs, à « philosopher à coups de marteau », c’est-à-dire à briser les idoles et à battre le métal de nouvelles subjectivités. Une telle tâche ne convient certes pas à des brutes maladroites et arrogantes, ni à des enfants gâtés, ignorants et moutonniers, mais à des surhommes au caractère bien trempé, longuement disciplinés, cultivés, récusant tout dogmatisme et à qui la fréquentation des cimes a donné la vision des lointains.

Manjushri, le Bouddha de la sagesse. Thangka Tibétain

“Tout est vide”… “Tout est illusion” …

Que veulent dire les bouddhistes lorsqu’ils parlent de vide ou de vacuité? Veulent-ils signifier que les choses – et nous avec – n’existent pas? Non, car la sagesse est une voie du milieu entre deux extrêmes dont l’un, le nihilisme, consiste précisément à affirmer purement et simplement l’inexistence (et l’impertinence) de nos objets d’expérience. Mais quel est l’autre extrême? L’enthousiasme, l’optimisme? Je dirais plutôt que c’est l’illusion de la solidité et de la certitude. 

Commençons par examiner les illusions ontologiques. L’illusion existentielle imagine la permanence de ses objets. Or toutes choses ont un début et une fin. Rien ne dure et, surtout, rien ne dure identique. Les formes changent, les parties se remplacent. Comme dit Montaigne “Le monde n’est qu’une branloire pérenne. Toutes choses y branlent sans cesse : la terre, les rochers du Caucase, les pyramides d’Egypte, et du branle public et du leur. La constance même n’est autre chose qu’un branle plus languissant.” (Les Essais, III, 2). 

L’illusion substantielle suppose que les phénomènes se soutiennent d’eux-mêmes. Or les choses n’existent qu’en dépendance de leurs causes et de leurs conditions. Ce sont des noeuds ou des moments de systèmes complexes hors desquels elles se dissipent. Supprimez pour voir la mer aux poissons, l’air aux oiseaux et la société aux humains. Rien ne subsiste isolément, telle est la loi de l’interdépendance. 

L’illusion essentielle voit des images sans cadres. Nous ne percevons le monde – et nous-mêmes – que dans les termes de langues, de classifications et de récits sans lesquels rien n’aurait de sens. Or nos concepts se définissent mutuellement et dépendent de notre culture, de notre époque et de notre histoire. Il existe mille autres façons de caractériser ou de modéliser notre expérience. L’essentialisme, comme on dit aujourd’hui, consiste à croire non seulement que nos concepts sont réels mais encore qu’il n’existe pas d’autre façon que la nôtre d’appliquer ces concepts aux individus de notre expérience.

L’illusion ontologique néglige l’impermanence des formes, l’interdépendance des objets et l’arbitraire des conceptualisations. Quant à l’illusion épistémologique – ou cognitive – elle oublie l’inconnu, l’inconscient et l’inconnaissable. Qui peut se vanter de tout connaître, d’avoir réuni l’ensemble des données et d’avoir envisagé les meilleures hypothèses ? La majeure part de nos processus cognitifs a lieu sans réflexion ni conscience. Nos circuits neuronaux et nos supports externes de mémoire conditionnent notre pensée dans notre dos. Même quand nous sommes bien heureux de ne pas céder aux réflexes ou à l’imitation, nos raisonnements restent grevés de biais émotionnels et de préjugés. Finalement, les concepts et les outils dont nous ignorons l’existence excèdent sans mesure ceux dont nous disposons. Nos certitudes? Un îlot croulant battu d’un océan de doutes.

Réaliser le vide revient à toucher du doigt les solidités hallucinées au sein desquelles nous vivons et que nous passons notre temps à fuir ou à poursuivre. La sagesse est une désillusion.

Cela signifie-t-il que nous ne devrions pas tenir compte de notre expérience, mépriser l’accumulation sociale du savoir et rejeter la compréhension commune des choses? Nullement, car il faut bien que nous vivions et que nous agissions. Et, précisément à cause de l’interdépendance universelle et de la propagation des effets, il importe que nos actions soient justes et mesurées. Ni un nihilisme cynique, ni une indifférence paresseuse, la sagesse invite à une reconnaissance de ce qui importe au-delà de la vacuité et met sa puissance dissolvante au service de la compassion.

Enluminure d’un manuscrit médiéval de La Cité de Dieu

Augustin est un “carthaginois” ou un “tunisien” comme moi (comme aussi Ibn Khaldoun), natif de ce cap de l’Afrique du Nord qui pointe vers la Sicile et partage la Mediterranée en deux bassins, oriental et occidental. Ce romain d’origine berbère hante les carrefours. Dans le temps, il clôt le chapitre de l’Empire chrétien et ouvre celui de la chrétienté latine médiévale, dont il sera l’auteur favori. A la confluence des cultures, il noue l’héritage hébraïque de la Bible, la lignée grecque des philosophies platonicienne et néoplatonicienne, l’influence perse du manichéisme dont il fut adepte pendant des années et finalement la tradition, la langue et la rhétorique latine, qu’il enseigna longtemps. Sur un plan littéraire il fut sans doute – avec les “Confessions” – le premier auto-biographe de l’intériorité.

Traité après traité, son verbe abondant dessine le dogme chrétien. Contre l'”hérésie” de Pélage, il affirme le rôle essentiel de la grâce divine dans le salut. Le libre arbitre humain n’est pas seul responsable des bonnes oeuvres accomplies, la grâce divine est nécessaire. Ainsi nul ne peut s’enorgueillir d’être sauvé par soi-même et la bonne action ne sert pas à acheter le paradis. On ne peut forcer la main divine. Ces positions austères influenceront profondément les réformateurs du 16e siècle (Luther était un moine augustin) et les jansénistes des 17e et 18e siècle qui l’ont beaucoup cité. Contre les manichéens, qui pensaient avec les gnostiques que ce monde matériel était l’oeuvre d’un mauvais démiurge, il défend la nature intégralement positive de la création et définit le mal comme une absence d’être. Dans son traité “Sur la Trinité”, qui s’appuie sur les écritures mais aussi sur l’introspection raisonnée, il montre à quel point l’image divine est gravée dans l’âme humaine et anticipe bien des découvertes de la psychologie cognitive, de la sémiologie et de la philosophie moderne, y compris le cogito cartésien. 

Pour mon compte, l’apport d’Augustin à la pensée universelle se trouve dans son oeuvre principale, “La Cité de Dieu”. Il  écrit ce livre au moment de l’écroulement de l’Empire romain sous l’effet – entre autres raisons – des invasions germaines. Les derniers païens de vieille tradition romaine avaient alors beau jeu de dire : “Rome s’écroule parce qu’elle est devenue chrétienne”. Mais Augustin distingue soigneusement l’empire temporel qui repose sur la force et le hasard et la cité divine, communauté invisible des âmes qui cheminent ensemble vers l’idéal et qui repose sur la foi. L’échec de la cité terrestre n’a rien à dire sur la valeur de la cité de Dieu. Je retiens que la force et le succès temporels, toujours transitoires, ne fondent nulle justification éthique. Et surtout : maintenons l’écart entre les deux cités! Le totalitarisme prétend qu’il n’en existe qu’une. La cité unique est purement matérielle chez les communistes, fascistes, nazis, etc. Quant aux théocraties, elles habillent leur domination terrestre forcée du masque de la cité céleste. Naviguons entre ces deux périls et refusons la fusion mortifère de la spiritualité et de la politique.

La pandémie de coronavirus a et continuera à avoir des effets catastrophiques non seulement sur le plan de la santé physique et de la mortalité, mais aussi dans les domaines de la santé mentale et de l’économie, avec des conséquences sociales, politiques et culturelles difficilement calculables. D’ores et déjà on peut affirmer que l’ampleur de la souffrance et de la destruction approche de celle d’une guerre mondiale.

S’il en était encore besoin, nous progressons dans la prise de conscience de l’unité et de la continuité physique d’une population humaine planétaire partageant un environnement commun. L’espace public a basculé dans le virtuel et tout un chacun participe à la communication dans les médias sociaux. Les grandes plateformes du Web et les services en ligne ont enregistré une augmentation considérable de leur utilisation et les infrastructures de communication numérique sont à la limite de leur capacité. La médecine, l’éducation, le travail et le commerce à distance sont entrés dans les moeurs, laissant entrevoir une profonde évolution des habitudes et des compétences, mais aussi une possible limitation de la pollution et des émissions de carbone. L’Internet fait plus que jamais partie des services essentiels, voire des droits humains. Pour apporter des solutions à cette crise multiforme, de nouvelles formes d’intelligence collective court-circuitent les institutions officielles et les barrières nationales, notamment dans les domaines scientifique et sanitaire.

Parallèlement, les conflits d’interprétation, guerres de l’information et batailles de propagande s’intensifient. Les fausses nouvelles – elles aussi virales – fusent de tous côtés, ajoutant à la confusion et à la panique. La manipulation honteuse ou malveillante des données accompagne les disputes idéologiques, culturelles ou nationales au milieu d’une réorganisation géopolitique globale. Les échanges mondiaux et locaux se rééquilibrent au profit des derniers. Les pouvoirs politiques se renforcent à tous les échelons de gouvernement avec une fusion remarquable des services de renseignement, de la police et de la médecine instrumentées par les communications numériques et l’intelligence artificielle. Santé publique et sécurité nationale oblige, la géolocalisation universelle des individus par téléphone portable, bracelet ou anneau se profile à l’horizon. L’identification automatique par la reconnaissance faciale ou les battements du coeur fera le reste. 

Pour équilibrer ces tendances, nous avons besoin d’une transparence accrue des pouvoirs scientifiques, politiques et économiques. L’analyse automatique des flux de données doit devenir une compétence essentielle enseignée à l’école parce qu’elle conditionne désormais la compréhension du monde. Les ressources d’apprentissage et d’analyse doivent être mises en commun et ouvertes à tous gratuitement. Une harmonisation internationale et trans-linguistique des systèmes de métadonnées sémantiques aiderait à traiter et comparer les données et supporterait des formes d’intelligence collective plus puissantes que celles que nous connaissons aujourd’hui.

Une couronne d’épine sur son crâne sanglant, l’humanité entre dans une ère nouvelle.

DESCRIPTION GÉNÉRALE D’IEML
IEML est une langue à la fois formelle et philologique (ayant la même puissance qu’une langue naturelle), dont la sémantique est calculable et qui possède des fonctions de calcul logique et pragmatique. Elle est conçue pour être utilisée dans un environnement numérique pour la catégorisation des données, l’intelligence artificielle et les interfaces homme/machine.
Le métalangage de l’économie de l’information, en bref IEML (Information Economy MetaLanguage) est un projet multidimensionnel à la confluence de l’informatique, des sciences de l’information, de la linguistique et de la philosophie. Parce qu’il rend la sémantique (la signification) calculable, IEML intéressera les personnes travaillant dans les domaines de l’intelligence artificielle, du renseignement économique et de la « science des données ». Parce qu’il propose un renouvellement des usages et de la théorie des métadonnées, il est pertinent pour les chercheurs dans les domaines de la conservation des patrimoines (bibliothèques, musées), des humanités numériques et du journalisme de données. Enfin, et ce n’est pas la moindre de ses qualités, puisque IEML augmente l’intelligence collective, il devrait intéresser les praticiens de la gestion des connaissances, de l’apprentissage collaboratif et des communications numériques.

Mark Rothko Mural, Section 6 {Untitled} [Seagram Mural], 1959

PREMIER SÉMINAIRE IEML

Le premier séminaire IEML (Information Economy Meta Language) aura lieu à l’Université de Montréal au semestre d’Automne 2019, sous l’égide de la Chaire de Recherche du Canada en Ecritures Numériques dirigée par le Prof. Marcello Vitali-Rosati et le Centre de Recherche Inter-universitaire sur les Humanités Numériques dirigé par le prof. Michael Sinatra.

Le séminaire sera donné par le prof. Pierre Lévy, inventeur d’IEML et membre de la Société Royale du Canada. Le séminaire est libre et gratuit, il sera diffusé en ligne. Aucune formalité d’inscription n’est nécessaire, mais il faut tout de même devenir membre du Groupe Facebook du séminaire: Groupe Facebook IEML

CONTENU THÉORIQUE

  1. La finalité et les grands principes d’IEML, une langue à la sémantique calculable.
  2. Premier niveau de complexité: morphèmes et paradigmes de morphèmes
  3. Deuxième niveau de complexité: mots et fonctions lexicales
  4. Troisième niveau de complexité: phrases, fonctions logiques et illocutoires

ACQUISITION DE COMPÉTENCES PRATIQUES:
CONSTRUIRE UN LEXIQUE IEML

  1. Modéliser un domaine de connaissance et/ou de pratique
  2. Traduire ce modèle en un ensemble de paradigmes lexicaux
  3. Utiliser l’application Intlekt (une Github App) pour générer les paradigmes lexicaux et enrichir le lexique IEML

RÉFÉRENCES ET LIENS UTILES
La Sphère Sémantique, Hermès / Wiley, 2011 (fondements philosophiques et scientifiques du projet IEML)
Intlekt (application d’édition IEML)
Github IEML (base de données IEML)
Groupe Facebook du séminaire

HORAIRE

Le séminaire aura lieu tous les mercredis de 13h à 16h à partir du 2 octobre jusqu’au 11 décembre. Lieu: salle C-8132 (Pavillon Lionel Groulx 8e étage). Il y aura en tout dix séances, la date du congé de mi-session est le 23 octobre.

Pour suivre le séminaire en direct sur internet: https://meet.jit.si/ieml

ENREGISTREMENT

Un problème technique a empêché d’enregistrer la première séance

Enregistrement de la deuxième séance :
Première partie: https://archive.org/details/ieml_2019-1009_seance2_premierePartie
Seconde partie: https://archive.org/details/iemlon201910091951

Enregistrement de la troisième séance :
Première partie : https://archive.org/details/iemlon201910161833
Deuxième partie : https://archive.org/details/iemlon201910161859
Troisième partie : https://archive.org/details/iemlon201910162000

Enregistrement de la quatrième séance :
Première partie : https://archive.org/details/iemlon201910301717
Deuxième partie : https://archive.org/details/iemlon201910301833
Troisième partie : https://archive.org/details/iemlon201910301951

Enregistrement de la cinquième séance :
Première partie: https://archive.org/details/iemlon201911061925
Deuxième partie: https://archive.org/details/iemlon201911062039

Enregistrement de la sixième séance :
Première partie : https://archive.org/details/iemlon201911131926
Deuxième partie: https://archive.org/details/iemlon201911132055

Enregistrement de la septième séance : https://archive.org/details/iemlon201911202058

Enregistrement de la huitième séance :
Première partie : https://archive.org/details/iemlon201911271921
Deuxième partie: https://archive.org/details/iemlon201911272027

Enregistrement de la dernière séance
Première partie : https://archive.org/details/iemlon201912041924
Deuxième partie : https://archive.org/details/iemlon201912042044

Ramon Lull

Le Livre Blanc d’IEML, le métalangage de l’économie de l’information. 2019.
RESUMÉ. IEML est une langue à la sémantique calculable inventée par Pierre Lévy. Le “Livre blanc” (version Beta et non finie) explique les grands principes, la grammaire et les premières applications d’IEML. (une centaine de pages)

Etre et Mémoire dans la revue Sens Public 2019
RÉSUMÉ Le premier enjeu de cet article est de replacer l’objet des sciences humaines (la culture et la signification symbolique) dans la continuité des objets des sciences de la nature. Je fais l’hypothèse que le sens n’apparaît pas brusquement avec l’humanité mais que différentes couches de codage et de mémoire (quantique, atomique, génétique, nerveuse et symbolique) s’empilent et se complexifient progressivement, la strate symbolique n’étant que la dernière en date des « machines d’écriture ». Le second enjeu du texte est de définir la spécificité et l’unité de la couche symbolique, et donc le champ des sciences humaines. Par opposition à une certaine tradition logocentrique, je montre que le symbolisme – s’il comprend évidemment le langage – englobe aussi des sémiotiques (comme la cuisine ou la musique) où la coupure signifiant/signifié n’est pas aussi pertinente que pour les langues. Le troisième enjeu de cet essai est de montrer que les formes culturelles et les puissances interprétatives de l’humanité évoluent avec ses machines d’écriture. L’émergence du numérique, en particulier, laisse entrevoir un raffinement des sciences humaines allant jusqu’au calcul de la complexité sémantique. Cet essai de redéfinition des sciences humaines dans la continuité des sciences de la nature suppose une ontologie – ou une méta-ontologie, selon l’expression de Marcello Vitali-Rosati – pour qui les notions d’écriture et de mémoire sont centrales et qui, en rupture avec la critique kantienne, accepte la pleine réalité de la spatialité et de la temporalité naturelle.

Le rôle des humanités numériques dans le nouvel espace politique dans la revue Sens Public, 2019
RESUMÉ. Alors que plus de 50% de la population mondiale est connectée à l’Internet, les grandes plateformes, et particulièrement Facebook, ont acquis un énorme pouvoir politique. Cette nouvelle situation nous oblige a repenser le projet d’émancipation des lumières. Je propose dans cet article que les chercheurs en sciences humaines et sociales relèvent ce défi en adoptant et en diffusant de nouvelles normes d’intelligence collective réflexive. Les communs de la connaissance, la science ouverte et la souveraineté des individus sur les données qu’ils produisent font l’unanimité. Mais ces principes incontournables sont encore insuffisants. La puissance de calcul et de communication disponible, combinée à l’utilisation d’IEML (une langue à la sémantique calculable), nous permettent d’envisager une mise en transparence des opérations de création de connaissance, de sens et d’autorité. Je présente ici les grandes orientations stratégiques permettant d’atteindre ces objectifs. Une révolution épistémologique des sciences humaines est à portée de main, et avec elle une nouvelle étape dans l’évolution de la pensée critique. (une cinquantaine de pages)

La Pyramide algorithmique dans la revue Sens Public 2017
RESUMÉ. Le medium algorithmique est une infrastructure de communication qui augmente les pouvoirs des médias antérieurs en y ajoutant la mécanisation des opérations symboliques. Son émergence au milieu du vingtième siècle résulte d’une longue histoire scientifique et technique que je résume au début de l’article. Je rappelle ensuite les grandes étapes de son développement (ordinateurs centraux, internet et PC, Web social, Cloud augmenté par l’intelligence artificielle et la chaîne de blocs) ainsi que leurs conséquences sociocognitives. J’évoque pour finir les développements futurs de ce médium dans la perspective d’une intelligence collective réflexive basée sur une nouvelle forme de calcul sémantique.

Les opérateurs élémentaires de la réflexionCahiers Sens public, 2018/1 (n° 21-22), p. 75-102. La philosophie qui a inspiré les “primitives” d’IEML.
RÉSUMÉ. Cet article tente de réduire au minimum les concepts fondamentaux nécessaires à la réflexion sur le sens. Deux concepts complémentaires, la virtualité et l’actualité, rendent compte des dualités de l’action et de la grande opposition métaphysique entre transcendance et immanence. L’actuel possède une adresse spatio-temporelle, il est situé dans le temps séquentiel et dans l’espace physique tridimensionnel tandis qu’on ne peut assigner d’adresse spatio-temporelle précise à l’abstraction du virtuel. Le triangle sémiotique rend compte des triades de la représentation. Le signe (1) indique (2) une chose, un objet ou un référent quelconque auprès (3) d’un être ou interprétant. Il n’y a de signe que « de » quelque chose et « pour » quelqu’un. Enfin, il faut pouvoir considérer explicitement une absence, y compris un vide de connaissance, pour poser des questions et réfléchir. Les six opérateurs élémentaires de la réflexion (virtuel, actuel, signe, être, chose et vide) fonctionnent de manière interdépendante et traversent tous les champs des sciences humaines et sociale : on étudie particulièrement dans cet article leur pertinence en sémiotique, épistémologie, cosmologie, religion, politique et économie.

KUO CHENG LIAO-IA-CI

Image: Kuo Cheng Liao (found here).

Je voudrais répondre dans cette petite entrée de blog à quelques questions qui m’ont été posées par des amis Turcs (du site Çeviri Konusmalar) au sujet de l’intelligence artificielle et de l’autonomie des machines. Voir ici sur Twitter…

Un des rôles de la philosophie est de catégoriser l’expérience humaine de façon à réduire le plus possible l’illusion, ou si l’on préfère à trouver les concepts qui vont nous permettre de comprendre notre situation et de mieux guider notre action. Cela amène souvent les philosophes à contredire l’opinion courante. Aujourd’hui cette opinion est propagée par le journalisme et la fiction. Aussi bien les journalistes que les auteurs de roman ou de série TV présentent les robots ou l’intelligence artificielle comme capable d’autonomie et de conscience, que ce soit dès maintenant ou dans un futur proche. Cette représentation est à mon avis fausse, mais elle fonctionne très bien parce qu’elle joue…

  • ou bien sur la peur d’être éliminé ou asservi par des machines (sensationnalisme ou récit dystopique),
  • ou bien sur l’espoir que l’intelligence artificielle va nous aider magiquement à résoudre tous nos problèmes ou – pire – qu’elle représenterait une espèce plus avancée que l’homme (dans le cas de certaines publicités ou d’utopies naïves).

Dans les deux cas, espoir ou peur, le ressort principal est la passion, l’émotion, et non pas une compréhension exacte de ce que c’est que le traitement automatique de l’information et du rôle qu’il joue dans l’intelligence humaine.

Afin de recadrer cette question de l’autonomie des machines, je voudrais répondre ici le plus simplement possible à trois questions:

  1. Qu’est-ce que l’intelligence humaine?
  2. Qu’est-ce que l’informatique, ou les machines à traiter l’information?
  3. Est-ce que les machines peuvent devenir autonomes?

Qu’est-ce que c’est que l’Intelligence humaine?

D’abord il faut reconnaître que les humains sont des animaux et que les animaux ont déjà des capacité de mémoire, de représentation interne des situations, de résolution de problèmes, d’apprentissage, etc. Les animaux sont des êtres sensibles, qui ressentent attraction et répulsion, plaisir et douleur, voire empathie. Les plus plus intelligents d’entre eux ont la capacité de transmettre certaines connaissances acquises dans l’expérience à leur progéniture, d’utiliser des outils, etc. Ensuite, l’intelligence animale se manifeste de manière particulièrement frappante sur un plan collectif ou social et, pour ce qui nous intéresse, notamment chez les primates (les grands singes), dont nous faisons partie. Les primates ont des structures sociales avec des rôles sociaux fort différenciés et des stratégies collectives élaborées pour se défendre, se nourrir, contrôler leur territoire, etc. Nous partageons bien sûr toute cette intelligence animale. Mais nous avons en plus la manipulation symbolique.

Ce qui différencie l’intelligence humaine de l’intelligence animale c’est d’abord et avant tout l’usage du langage et des systèmes symboliques. Un système symbolique c’est un moyen de communication et de pensée dont les éléments – les symboles – ont deux aspects: un aspect sensible (visible, audible) et un aspect invisible, abstrait, la catégorie générale. Et le rapport entre le signifiant sensible – le son – et le signifié intelligible – le sens – est conventionnel, décidé par la société. Il n’y a aucune autre raison que la convention et l’usage pour que le concept de raison, par exemple, se représente par les deux syllabes et zon en français, et la preuve c’est que ça se dit autrement dans d’autres langues. Tous les animaux communiquent mais seuls les êtres humains parlent, posent des questions, reconnaissent leur ignorance, dialoguent et surtout racontent des histoires. L’usage du langage donne aux humains non pas la conscience (que les autres animaux ont déjà), mais la conscience réflexive. La capacité de réfléchir sur les concepts nous est donnée par la manipulation des symboles.

Avec cette capacité de manipulation symbolique et cette réflexivité viennent deux caractéristiques spéciales de l’humanité: les systèmes techniques et les institutions sociales, tous deux d’une grande complexité et en constante évolution historique.

Une énorme partie de l’intelligence humaine est réifiée dans l’environnement technique et vécue dans des institutions sociales (rituels, politique, droit, religion, morale, etc.). La partie individuelle de notre intelligence est marginale, mais essentielle, c’est elle qui nous permet d’innover, de progresser et d’améliorer notre condition.

Qu’est-ce que l’informatique, ou le traitement automatique de l’information?

L’intelligence artificielle est une expression de type « marketing » pour designer en fait la zone la plus avancée et toujours en mouvement des techniques de traitement de l’information.

Quand je dis que l’intelligence humaine a toujours été artificielle, je ne veux pas dire que les humains sont des robots ou des machines, je veux dire que les humains ont toujours utilisé des procédés techniques pour augmenter leur intelligence, qu’il s’agisse de l’intelligence personnelle ou collective. L’écriture nous a donné le moyen d’étendre notre mémoire individuelle et nos capacités critiques. Aujourd’hui l’Internet nous permet un accès rapide à une quantité d’information que nos ancêtres n’auraient jamais pu imaginer. Mais ce n’est pas seulement une question de mémoire, nous avons aussi des capacités de calcul, de simulation de systèmes complexes, d’analyse automatique des données, voire de raisonnement automatique qui amplifient les capacités cognitives “purement biologiques” des premiers homo sapiens. Nous avons le même cerveau que les hommes préhistoriques, avec la même capacité de manipuler les symboles et de raconter des histoires, mais nous avons en plus un énorme appareillage d’enregistrement, de communication et de traitement des symboles qu’ils n’avaient pas et qui se branche sur la partie purement biologique de notre intelligence.

L’informatique, le traitement automatique des données, avec sa pointe avancée et mouvante qu’on appelle l’intelligence artificielle, est apparue dans la seconde moitié du 20e siècle, mais elle poursuit un effort multi-séculaire d’augmentation cognitive qui a commencé avec l’écriture, s’est poursuivi avec le perfectionnement des systèmes de codage de la connaissance, la notation des nombres par position et le 0, l’imprimerie et les médias électriques…

La partie névralgique du nouvel appareillage de traitement automatique des symboles se trouve aujourd’hui dans d’énormes centres de calculs qu’on appelle le “cloud” et dont nos ordinateurs et smartphones ne sont que des terminaux. Mais dans ce réseau de machines, le traitement automatique des données se fait uniquement sur la forme sensible des symboles, sur le signifiant ramené à des zeros et des uns. Les ordinateurs n’ont pas accès au signifié, au sens.

Puisqu’on m’interroge sur le machine learning, oui, parmi toutes les techniques de calcul utilisées aujourd’hui par les ingénieurs en informatique, le machine learning, et le deep learning qui en est un cas particulier, sont en plein développement depuis une dizaine d’années. Mais il faut se garder d’attribuer à l’apprentissage automatique plus qu’il ne peut donner. Il s’agit essentiellement d’algorithmes de traitement statistique auxquels on soumet en entrée d’énormes masses de données et qui produisent en sortie des modèles de reconnaissance de formes ou d’action qui sont “appris” des données. Or non seulement l’apprentissage machine dépend des algorithmes qui sont programmés et continuellement débogués par des humains, mais en plus ses résultats en sortie dépendent des masses de données qui leur sont fournies en entrée. Or ce sont encore des humains qui choisissent les données, les filtrent, les classent, les catégorisent, les organisent, les interprètent, etc. Aussi bien les approches logiques que les approches statistiques de l’intelligence artificielle condensent dans des machines logicielles et matérielles des connaissances et des finalités humaines. Leur autonomie, si autonomie il y a, ne peut être que locale et momentanée. A moyen et long terme, les machines ne peuvent évoluer qu’avec nous et vice versa: nous ne pouvons évoluer qu’avec elles.

La question de l’autonomie des machines

Le traitement automatique des données prolonge l’ensemble du système technique contemporain et il baigne dedans. Il est totalement dépendant de la production d’énergie, de la distribution d’électricité, de la production des matériaux, etc. On ne peut absolument pas imaginer le système technique contemporain sans l’informatique mais pas non plus l’informatique sans toute cette infrastructure technique.

De la même manière, le système technique s’effondrerait rapidement si les humains disparaissaient. Notre environnement technique est conçu, construit, utilisé, entretenu, réparé, interprété par des humains: il n’a aucune autonomie d’aucune sorte.

la technique nous *apparaît* autonome parce que nous projetons sur elle les effets émergents des interactions sociales et des inerties socio-techniques que nous ne pouvons pas contrôler à l’échelle individuelle. Nous avons tendance à réifier les effets de nombreuses décisions et actions humaines agrégées dans les machines et à prêter aux machines une volonté propre. Mais c’est une illusion. Une illusion qui nous décharge de nos responsabilités personnelles et collectives: “c’est la faute de la machine”.

Qu’on utilise une interface pseudo-humaine ou des robots androïdes autant qu’on veut, mais c’est un artifice, un décor. Le robot ou la machine est toujours susceptible d’être éteint ou débranché, quant à son logiciel dans le cloud, il doit sans cesse être déboggué et de nouvelles versions doivent être téléchargées périodiquement. Pour moi, cette idée de la machine autonome relève du fétichisme : on donne une personnalité à un appareil qui n’est pas un être sensible et qui a été – encore une fois – conçu, fabriqué, marqueté, vendu, utilisé, réparé et qui va finalement être jeté à la poubelle au profit d’un nouveau modèle.

Nous avons des machines capables de traitement automatique des symboles. Et nous ne les avons que depuis moins d’un siècle. A l’échelle de l’évolution historique, trois ou quatre générations, ce n’est presque rien. A la fin du XXe siècle, 1% de la population humaine avait accès à l’Internet et le Machine Learning était confiné dans des laboratoires scientifiques. Aujourd’hui plus de 60% de la population est branchée et le machine learning s’applique à grande échelle aux données entreposées dans le cloud. Face à cette mutation si rapide, nous avons la responsabilité d’orienter, autant que possible, le développement technique, social et culturel. Plutôt que de s’égarer dans le fantasme de la machine qui prend le pouvoir, pour le meilleur ou pour le pire, Il me semble beaucoup plus intéressant d’utiliser les machines pour une augmentation de l’intelligence humaine, intelligence à la fois personnelle et collective. C’est plutôt dans cette direction qu’il faut travailler parce que c’est la seule qui soit utile et raisonnable. Et c’est d’ailleurs ce que font en silence les principaux industriels du secteur, même si la “singularité” attire plus l’attention des foules.

Si vous visez le divin, ou le dépassement, ne tentez pas de remplacer l’homme par une machine prétendument consciente et ne craignez pas non plus un tel remplacement, parce qu’il est impossible. Ce qui est peut-être possible, en revanche, est un état de la technique et de la civilisation dans lequel l’intelligence collective humaine pourra s’observer scientifiquement, déployer et cultiver sa complexité inepuisable dans le miroir numérique. Faire travailler les machines à l’emergence d’une intelligence collective réflexive, un pas apres l’autre…