Manjushri, le Bouddha de la sagesse. Thangka Tibétain

“Tout est vide”… “Tout est illusion” …

Que veulent dire les bouddhistes lorsqu’ils parlent de vide ou de vacuité? Veulent-ils signifier que les choses – et nous avec – n’existent pas? Non, car la sagesse est une voie du milieu entre deux extrêmes dont l’un, le nihilisme, consiste précisément à affirmer purement et simplement l’inexistence (et l’impertinence) de nos objets d’expérience. Mais quel est l’autre extrême? L’enthousiasme, l’optimisme? Je dirais plutôt que c’est l’illusion de la solidité et de la certitude. 

Commençons par examiner les illusions ontologiques. L’illusion existentielle imagine la permanence de ses objets. Or toutes choses ont un début et une fin. Rien ne dure et, surtout, rien ne dure identique. Les formes changent, les parties se remplacent. Comme dit Montaigne “Le monde n’est qu’une branloire pérenne. Toutes choses y branlent sans cesse : la terre, les rochers du Caucase, les pyramides d’Egypte, et du branle public et du leur. La constance même n’est autre chose qu’un branle plus languissant.” (Les Essais, III, 2). 

L’illusion substantielle suppose que les phénomènes se soutiennent d’eux-mêmes. Or les choses n’existent qu’en dépendance de leurs causes et de leurs conditions. Ce sont des noeuds ou des moments de systèmes complexes hors desquels elles se dissipent. Supprimez pour voir la mer aux poissons, l’air aux oiseaux et la société aux humains. Rien ne subsiste isolément, telle est la loi de l’interdépendance. 

L’illusion essentielle voit des images sans cadres. Nous ne percevons le monde – et nous-mêmes – que dans les termes de langues, de classifications et de récits sans lesquels rien n’aurait de sens. Or nos concepts se définissent mutuellement et dépendent de notre culture, de notre époque et de notre histoire. Il existe mille autres façons de caractériser ou de modéliser notre expérience. L’essentialisme, comme on dit aujourd’hui, consiste à croire non seulement que nos concepts sont réels mais encore qu’il n’existe pas d’autre façon que la nôtre d’appliquer ces concepts aux individus de notre expérience.

L’illusion ontologique néglige l’impermanence des formes, l’interdépendance des objets et l’arbitraire des conceptualisations. Quant à l’illusion épistémologique – ou cognitive – elle oublie l’inconnu, l’inconscient et l’inconnaissable. Qui peut se vanter de tout connaître, d’avoir réuni l’ensemble des données et d’avoir envisagé les meilleures hypothèses ? La majeure part de nos processus cognitifs a lieu sans réflexion ni conscience. Nos circuits neuronaux et nos supports externes de mémoire conditionnent notre pensée dans notre dos. Même quand nous sommes bien heureux de ne pas céder aux réflexes ou à l’imitation, nos raisonnements restent grevés de biais émotionnels et de préjugés. Finalement, les concepts et les outils dont nous ignorons l’existence excèdent sans mesure ceux dont nous disposons. Nos certitudes? Un îlot croulant battu d’un océan de doutes.

Réaliser le vide revient à toucher du doigt les solidités hallucinées au sein desquelles nous vivons et que nous passons notre temps à fuir ou à poursuivre. La sagesse est une désillusion.

Cela signifie-t-il que nous ne devrions pas tenir compte de notre expérience, mépriser l’accumulation sociale du savoir et rejeter la compréhension commune des choses? Nullement, car il faut bien que nous vivions et que nous agissions. Et, précisément à cause de l’interdépendance universelle et de la propagation des effets, il importe que nos actions soient justes et mesurées. Ni un nihilisme cynique, ni une indifférence paresseuse, la sagesse invite à une reconnaissance de ce qui importe au-delà de la vacuité et met sa puissance dissolvante au service de la compassion.

Enluminure d’un manuscrit médiéval de La Cité de Dieu

Augustin est un “carthaginois” ou un “tunisien” comme moi (comme aussi Ibn Khaldoun), natif de ce cap de l’Afrique du Nord qui pointe vers la Sicile et partage la Mediterranée en deux bassins, oriental et occidental. Ce romain d’origine berbère hante les carrefours. Dans le temps, il clôt le chapitre de l’Empire chrétien et ouvre celui de la chrétienté latine médiévale, dont il sera l’auteur favori. A la confluence des cultures, il noue l’héritage hébraïque de la Bible, la lignée grecque des philosophies platonicienne et néoplatonicienne, l’influence perse du manichéisme dont il fut adepte pendant des années et finalement la tradition, la langue et la rhétorique latine, qu’il enseigna longtemps. Sur un plan littéraire il fut sans doute – avec les “Confessions” – le premier auto-biographe de l’intériorité.

Traité après traité, son verbe abondant dessine le dogme chrétien. Contre l'”hérésie” de Pélage, il affirme le rôle essentiel de la grâce divine dans le salut. Le libre arbitre humain n’est pas seul responsable des bonnes oeuvres accomplies, la grâce divine est nécessaire. Ainsi nul ne peut s’enorgueillir d’être sauvé par soi-même et la bonne action ne sert pas à acheter le paradis. On ne peut forcer la main divine. Ces positions austères influenceront profondément les réformateurs du 16e siècle (Luther était un moine augustin) et les jansénistes des 17e et 18e siècle qui l’ont beaucoup cité. Contre les manichéens, qui pensaient avec les gnostiques que ce monde matériel était l’oeuvre d’un mauvais démiurge, il défend la nature intégralement positive de la création et définit le mal comme une absence d’être. Dans son traité “Sur la Trinité”, qui s’appuie sur les écritures mais aussi sur l’introspection raisonnée, il montre à quel point l’image divine est gravée dans l’âme humaine et anticipe bien des découvertes de la psychologie cognitive, de la sémiologie et de la philosophie moderne, y compris le cogito cartésien. 

Pour mon compte, l’apport d’Augustin à la pensée universelle se trouve dans son oeuvre principale, “La Cité de Dieu”. Il  écrit ce livre au moment de l’écroulement de l’Empire romain sous l’effet – entre autres raisons – des invasions germaines. Les derniers païens de vieille tradition romaine avaient alors beau jeu de dire : “Rome s’écroule parce qu’elle est devenue chrétienne”. Mais Augustin distingue soigneusement l’empire temporel qui repose sur la force et le hasard et la cité divine, communauté invisible des âmes qui cheminent ensemble vers l’idéal et qui repose sur la foi. L’échec de la cité terrestre n’a rien à dire sur la valeur de la cité de Dieu. Je retiens que la force et le succès temporels, toujours transitoires, ne fondent nulle justification éthique. Et surtout : maintenons l’écart entre les deux cités! Le totalitarisme prétend qu’il n’en existe qu’une. La cité unique est purement matérielle chez les communistes, fascistes, nazis, etc. Quant aux théocraties, elles habillent leur domination terrestre forcée du masque de la cité céleste. Naviguons entre ces deux périls et refusons la fusion mortifère de la spiritualité et de la politique.

The coronavirus pandemic has and will continue to have catastrophic effects not only in terms of physical health and mortality, but also in the areas of mental health and the economy, with social, political and cultural consequences that are difficult to calculate. Already it can be said that the scale of suffering and destruction is approaching that of a world war.

If there was still need, we are progressing in the awareness of the unity and physical continuity of a planetary human population sharing a common environment. The public space has shifted to the virtual and everyone is participating in communication through social media. Major web platforms and online services have seen a considerable increase in their use and digital communication infrastructures are at the limit of their capacity. Distance medicine, education, work and commerce have become commonplace, heralding a profound change in habits and skills, but also the possibility of limiting pollution and carbon emissions. The Internet is more than ever a part of essential services and even human rights. To provide solutions to this multifaceted crisis, new forms of collective intelligence are bypassing official institutions and national barriers, particularly in the scientific and health fields.

At the same time, conflicts of interpretation, information wars and propaganda battles are intensifying. False news – also viral – is pouring in from all sides, adding to the confusion and panic. Shameful or malicious manipulation of data accompanies ideological, cultural or national disputes in the midst of a global geopolitical reorganization. Global and local exchanges are rebalancing in favour of the latter. Political power is increasing at all levels of government with a remarkable merging of intelligence, police and medical services instrumented by digital communications and artificial intelligence. In the interests of public health and national security, the universal geolocation of individuals by mobile phone, bracelet or ring is on the horizon. Automatic identification by facial recognition or heartbeat will do the rest. 

To balance these trends, we need greater transparency of scientific, political and economic powers. The automatic analysis of data flows must become an essential skill taught in schools because it now conditions the understanding of the world. Learning and analytical resources must be shared and open to all free of charge. An international and cross-linguistic harmonization of semantic metadata systems would help to process and compare data and support more powerful forms of collective intelligence than those we know today.

With a crown of thorns on his bloody skull, humanity enters a new era.

Pierre Lévy

A pandemia do coronavírus tem e continuará tendo efeitos catastróficos não só em termos de saúde física e mortalidade, mas também nas áreas de saúde mental e economia, com consequências sociais, políticas e culturais difíceis de calcular. Já se pode dizer que a escala do sofrimento e da destruição está se aproximando de uma guerra mundial.

Se ainda houver necessidade, estamos progredindo na consciência da unidade e da continuidade física de uma população humana planetária compartilhando um ambiente comum. O espaço público se deslocou para o virtual e todos estão participando da comunicação por meio das mídias sociais. As principais plataformas web e serviços online têm visto um aumento considerável na sua utilização e as infraestruturas de comunicação digital estão no limite da sua capacidade. Medicina, educação, trabalho e comércio à distância tornaram-se comuns, anunciando uma profunda mudança de hábitos e habilidades, mas também a possibilidade de limitar a poluição e as emissões de carbono. A Internet é mais do que nunca uma parte dos serviços essenciais e até mesmo dos direitos humanos. Para dar soluções a esta crise multifacetada, novas formas de inteligência coletiva estão contornando as instituições oficiais e as barreiras nacionais, particularmente nos campos científico e da saúde.

Ao mesmo tempo, intensificam-se os conflitos de interpretação, as guerras de informação e as batalhas de propaganda. Falsas notícias – também virais – estão chegando de todos os lados, aumentando a confusão e o pânico. A manipulação vergonhosa ou maliciosa de dados acompanha as disputas ideológicas, culturais ou nacionais em meio a uma reorganização geopolítica global. As trocas globais e locais estão se reequilibrando em favor destas últimas. O poder político está aumentando em todos os níveis de governo com uma notável fusão de inteligência, polícia e serviços médicos instrumentados por comunicações digitais e inteligência artificial. No interesse da saúde pública e da segurança nacional, a geolocalização universal dos indivíduos por telefone celular, pulseira ou anel está no horizonte. A identificação automática por reconhecimento facial ou batimento cardíaco fará o resto.

Para equilibrar essas tendências, precisamos de maior transparência do poder científico, político e econômico. A análise automática dos fluxos de dados deve se tornar uma habilidade essencial ensinada nas escolas, pois agora condiciona a compreensão do mundo. O aprendizado e os recursos analíticos devem ser compartilhados e abertos a todos de forma gratuita. Uma harmonização internacional e interlinguística dos sistemas de metadados semânticos ajudaria a processar e comparar dados e a suportar formas mais poderosas de inteligência coletiva do que aquelas que conhecemos hoje.

Com uma coroa de espinhos em seu crânio sangrento, a humanidade entra em uma nova era.

¹ Tradução livre por Zayr Claudio, doutorando em Ciência da Informação pela Universidade Federal de Minas Gerais, Brasil.

Lot Fleeing Sodom by Benjamin West

This is an english excerpt of my book “Collective Intelligence” published in French in 1994. Plenum Trade 1997 for the american edition. An ethics of inclusion and hospitality… Just seven pages.

La pandémie de coronavirus a et continuera à avoir des effets catastrophiques non seulement sur le plan de la santé physique et de la mortalité, mais aussi dans les domaines de la santé mentale et de l’économie, avec des conséquences sociales, politiques et culturelles difficilement calculables. D’ores et déjà on peut affirmer que l’ampleur de la souffrance et de la destruction approche de celle d’une guerre mondiale.

S’il en était encore besoin, nous progressons dans la prise de conscience de l’unité et de la continuité physique d’une population humaine planétaire partageant un environnement commun. L’espace public a basculé dans le virtuel et tout un chacun participe à la communication dans les médias sociaux. Les grandes plateformes du Web et les services en ligne ont enregistré une augmentation considérable de leur utilisation et les infrastructures de communication numérique sont à la limite de leur capacité. La médecine, l’éducation, le travail et le commerce à distance sont entrés dans les moeurs, laissant entrevoir une profonde évolution des habitudes et des compétences, mais aussi une possible limitation de la pollution et des émissions de carbone. L’Internet fait plus que jamais partie des services essentiels, voire des droits humains. Pour apporter des solutions à cette crise multiforme, de nouvelles formes d’intelligence collective court-circuitent les institutions officielles et les barrières nationales, notamment dans les domaines scientifique et sanitaire.

Parallèlement, les conflits d’interprétation, guerres de l’information et batailles de propagande s’intensifient. Les fausses nouvelles – elles aussi virales – fusent de tous côtés, ajoutant à la confusion et à la panique. La manipulation honteuse ou malveillante des données accompagne les disputes idéologiques, culturelles ou nationales au milieu d’une réorganisation géopolitique globale. Les échanges mondiaux et locaux se rééquilibrent au profit des derniers. Les pouvoirs politiques se renforcent à tous les échelons de gouvernement avec une fusion remarquable des services de renseignement, de la police et de la médecine instrumentées par les communications numériques et l’intelligence artificielle. Santé publique et sécurité nationale oblige, la géolocalisation universelle des individus par téléphone portable, bracelet ou anneau se profile à l’horizon. L’identification automatique par la reconnaissance faciale ou les battements du coeur fera le reste. 

Pour équilibrer ces tendances, nous avons besoin d’une transparence accrue des pouvoirs scientifiques, politiques et économiques. L’analyse automatique des flux de données doit devenir une compétence essentielle enseignée à l’école parce qu’elle conditionne désormais la compréhension du monde. Les ressources d’apprentissage et d’analyse doivent être mises en commun et ouvertes à tous gratuitement. Une harmonisation internationale et trans-linguistique des systèmes de métadonnées sémantiques aiderait à traiter et comparer les données et supporterait des formes d’intelligence collective plus puissantes que celles que nous connaissons aujourd’hui.

Une couronne d’épine sur son crâne sanglant, l’humanité entre dans une ère nouvelle.

DESCRIPTION GÉNÉRALE D’IEML
IEML est une langue à la fois formelle et philologique (ayant la même puissance qu’une langue naturelle), dont la sémantique est calculable et qui possède des fonctions de calcul logique et pragmatique. Elle est conçue pour être utilisée dans un environnement numérique pour la catégorisation des données, l’intelligence artificielle et les interfaces homme/machine.
Le métalangage de l’économie de l’information, en bref IEML (Information Economy MetaLanguage) est un projet multidimensionnel à la confluence de l’informatique, des sciences de l’information, de la linguistique et de la philosophie. Parce qu’il rend la sémantique (la signification) calculable, IEML intéressera les personnes travaillant dans les domaines de l’intelligence artificielle, du renseignement économique et de la « science des données ». Parce qu’il propose un renouvellement des usages et de la théorie des métadonnées, il est pertinent pour les chercheurs dans les domaines de la conservation des patrimoines (bibliothèques, musées), des humanités numériques et du journalisme de données. Enfin, et ce n’est pas la moindre de ses qualités, puisque IEML augmente l’intelligence collective, il devrait intéresser les praticiens de la gestion des connaissances, de l’apprentissage collaboratif et des communications numériques.

Mark Rothko Mural, Section 6 {Untitled} [Seagram Mural], 1959

PREMIER SÉMINAIRE IEML

Le premier séminaire IEML (Information Economy Meta Language) aura lieu à l’Université de Montréal au semestre d’Automne 2019, sous l’égide de la Chaire de Recherche du Canada en Ecritures Numériques dirigée par le Prof. Marcello Vitali-Rosati et le Centre de Recherche Inter-universitaire sur les Humanités Numériques dirigé par le prof. Michael Sinatra.

Le séminaire sera donné par le prof. Pierre Lévy, inventeur d’IEML et membre de la Société Royale du Canada. Le séminaire est libre et gratuit, il sera diffusé en ligne. Aucune formalité d’inscription n’est nécessaire, mais il faut tout de même devenir membre du Groupe Facebook du séminaire: Groupe Facebook IEML

CONTENU THÉORIQUE

  1. La finalité et les grands principes d’IEML, une langue à la sémantique calculable.
  2. Premier niveau de complexité: morphèmes et paradigmes de morphèmes
  3. Deuxième niveau de complexité: mots et fonctions lexicales
  4. Troisième niveau de complexité: phrases, fonctions logiques et illocutoires

ACQUISITION DE COMPÉTENCES PRATIQUES:
CONSTRUIRE UN LEXIQUE IEML

  1. Modéliser un domaine de connaissance et/ou de pratique
  2. Traduire ce modèle en un ensemble de paradigmes lexicaux
  3. Utiliser l’application Intlekt (une Github App) pour générer les paradigmes lexicaux et enrichir le lexique IEML

RÉFÉRENCES ET LIENS UTILES
La Sphère Sémantique, Hermès / Wiley, 2011 (fondements philosophiques et scientifiques du projet IEML)
Intlekt (application d’édition IEML)
Github IEML (base de données IEML)
Groupe Facebook du séminaire

HORAIRE

Le séminaire aura lieu tous les mercredis de 13h à 16h à partir du 2 octobre jusqu’au 11 décembre. Lieu: salle C-8132 (Pavillon Lionel Groulx 8e étage). Il y aura en tout dix séances, la date du congé de mi-session est le 23 octobre.

Pour suivre le séminaire en direct sur internet: https://meet.jit.si/ieml

ENREGISTREMENT

Un problème technique a empêché d’enregistrer la première séance

Enregistrement de la deuxième séance :
Première partie: https://archive.org/details/ieml_2019-1009_seance2_premierePartie
Seconde partie: https://archive.org/details/iemlon201910091951

Enregistrement de la troisième séance :
Première partie : https://archive.org/details/iemlon201910161833
Deuxième partie : https://archive.org/details/iemlon201910161859
Troisième partie : https://archive.org/details/iemlon201910162000

Enregistrement de la quatrième séance :
Première partie : https://archive.org/details/iemlon201910301717
Deuxième partie : https://archive.org/details/iemlon201910301833
Troisième partie : https://archive.org/details/iemlon201910301951

Enregistrement de la cinquième séance :
Première partie: https://archive.org/details/iemlon201911061925
Deuxième partie: https://archive.org/details/iemlon201911062039

Enregistrement de la sixième séance :
Première partie : https://archive.org/details/iemlon201911131926
Deuxième partie: https://archive.org/details/iemlon201911132055

Enregistrement de la septième séance : https://archive.org/details/iemlon201911202058

Enregistrement de la huitième séance :
Première partie : https://archive.org/details/iemlon201911271921
Deuxième partie: https://archive.org/details/iemlon201911272027

Enregistrement de la dernière séance
Première partie : https://archive.org/details/iemlon201912041924
Deuxième partie : https://archive.org/details/iemlon201912042044

IEML (the Information Economy Meta Language) has four main directions of research and development in 2019: in mathematics, data science, linguistics and software development. This blog entry reviews them successively.

1- A mathematical research program

I will give here a philosophical description of the structure of IEML, the purpose of the mathematical research to come being to give a formal description and to draw from this formalisation as much useful information as possible on the calculation of relationships, distances, proximities, similarities, analogies, classes and others… as well as on the complexity of these calculations. I had already produced a formalization document in 2015 with the help of Andrew Roczniak, PhD, but this document is now (2019) overtaken by the evolution of the IEML language. The Brazilian physicist Wilson Simeoni Junior has volunteered to lead this research sub-program.

IEML Topos

The “topos” is a structure that was identified by the great mathematician Alexander Grothendieck, who “is considered as the re-founder of algebraic geometry and, as such, as one of the greatest mathematicians of the 20th century” (see Wikipedia).

Without going into technical details, a topos is a bi-directional relationship between, on the one hand, an algebraic structure, usually a “category” (intuitively a group of transformations of transformation groups) and, on the other hand, a spatial structure, which is geometric or topological. 

In IEML, thanks to a normalization of the notation, each expression of the language corresponds to an algebraic variable and only one. Symmetrically, each algebraic variable corresponds to one linguistic expression and only one. 

Topologically, each variable in IEML algebra (i.e. each expression of the language) corresponds to a “point”. But these points are arranged in different nested recursive complexity scales: primitive variables, morphemes of different layers, characters, words, sentences, super-phrases and texts. However, from the level of the morpheme, the internal structure of each point – which comes from the function(s) that generated the point – automatically determines all the semantic relationships that this point has with the other points, and these relationships are modelled as connections. There are obviously a large number of connection types, some very general (is contained in, has an intersection with, has an analogy with…) others more precise (is an instrument of, contradicts X, is logically compatible with, etc.).

The topos that match all the expressions of the IEML language with all the semantic relationships between its expressions is called “The Semantic Sphere”.

Algebraic structure of IEML

In the case of IEML, the algebraic structure is reduced to 

  • 1. Six primitive variables 
  • 2. A non-commutative multiplication with three variables (substance, attribute and mode). The IEML multiplication is isomorphic to the triplet ” departure vertex, arrival vertex, edge ” which is used to describe the graphs.
  • 3. A commutative addition that creates a set of objects.

This algebraic structure is used to construct the following functions and levels of variables…

1. Functions using primitive variables, called “morpheme paradigms”, have as inputs morphemes at layer n and as outputs morphemes at layer n+1. Morpheme paradigms include additions, multiplications, constants and variables and are visually presented in the form of tables in which rows and columns correspond to certain constants.

2. “Character paradigms” are complex additive functions that take morphemes as inputs and characters as outputs. Character paradigms include a group of constant morphemes and several groups of variables. A character is composed of 1 to 5 morphemes arranged in IEML alphabetical order. (Characters may not include more than five morphemes for cognitive management reasons).

3. IEML characters are assembled into words (a substance character, an attribute character, a mode character) by means of a multiplicative function called a “word paradigm”. A word paradigm intersects a series of characters in substance and a series of characters in attribute. The modes are chosen from predefined auxiliary character paradigms, depending on whether the word is a noun, a verb or an auxiliary. Words express subjects, keywords or hashtags. A word can be composed of only one character.

4. Sentence building functions assemble words by means of multiplication and addition, with the necessary constraints to obtain grammatical trees. Mode words describe the grammatical/semantic relationships between substance words (roots) and attribute words (leaves). Sentences express facts, proposals or events; they can take on different pragmatic and logical values.

5. Super-sentences are generated by means of multiplication and addition of sentences, with constraints to obtain grammatical trees. Mode sentences express relationships between substance sentences and attribute sentences. Super-sentences express hypotheses, theories or narratives.

6. A USL (Uniform Semantic Locator) or IEML text is an addition (a set) of words, sentences and super-sentences. 

Topological structure of IEML: a semantic rhizome

Static

The philosophical notion of rhizome (a term borrowed from botany) was developed on a philosophical level by Deleuze and Guattari in the preface to Mille Plateaux (Minuit 1980). In this Deleuzo-Guattarian lineage, by rhizome I mean here a complex graph whose points or “vertices” are organized into several levels of complexity (see the algebraic structure) and whose connections intersect several regular structures such as series, tree, matrix and clique. In particular, it should be noted that some structures of the IEML rhizome combine hierarchical or genealogical relationships (in trees) with transversal or horizontal relationships between “leaves” at the same level, which therefore do not respect the “hierarchical ladder”. 

Dynamic

We can distinguish the abstract, or virtual, rhizomatic grid drawn by the grammar of the language (the sphere to be dug) and the actualisation of points and relationships by the users of the language (the dug sphere of chambers and galleries).  Characters, words, sentences, etc. are all chambers in the centre of a star of paths, and the generating functions establish galleries of “rhizomatic” relationships between them, as many paths for exploring the chambers and their contents. It is therefore the users, by creating their lexicons and using them to index their data, communicate and present themselves, who shape and grow the rhizome…

Depending on whether circuits are more or less used, on the quantity of data or on the strength of interactions, the rhizome undergoes – in addition to its topological transformations – various types of quantitative or metric transformations. 

* The point to remember is that IEML is a language with calculable semantics because it is also an algebra (in the broad sense) and a complex topological space. 

* In the long term, IEML will be able to serve as a semantic coordinate system for the information world at large.

2 A research program in data science

The person in charge of the data science research sub-program is the software engineer (Eng. ENSIMAG, France) Louis van Beurden, who holds also a master’s degree in data science and machine translation from the University of Montréal, Canada. Louis is planning to complete a PhD in computer science in order to test the hypothesis that, from a data science perspective, a semantic metadata system in IEML is more efficient than a semantic metadata system in natural language and phonetic writing. This doctoral research will make it possible to implement phases A and B of the program below and to carry out our first experiment.

Background information

The basic cycle in data science can be schematized according to the following loop:

  • 1. selection of raw data,
  • 2. pre-processing, i.e. cleaning data and metadata imposition (cataloguing and categorization) to facilitate the exploitation of the results by human users,
  • 3. statistical processing,
  • 4. visual and interactive presentation of results,
  • 5. exploitation of the results by human users (interpretation, storytelling) and feedback on steps 1, 2, 3

Biases or poor quality of results may have several causes, but often come from poor pre-treatment. According to the old computer adage “garbage in, garbage out“, it is the professional responsibility of the data-scientists to ensure the quality of the input data and therefore not to neglect the pre-processing phase where this data is organized using metadata.

Two types of metadata can be distinguished: 1) semantic metadata, which describes the content of documents or datasets, and 2) ordinary metadata, which describes authors, creation dates, file types, etc. Let us call “semantic pre-processing” the imposition of semantic metadata on data.

Hypothesis

Since IEML is a univocal language and the semantic relationships between morphemes, words, sentences, etc. are mathematically computable, we assume that a semantic metadata system in IEML is more efficient than a semantic metadata system in natural language and phonetic writing. Of course, the efficiency in question is related to a particular task: search, data analysis, knowledge extraction from data, machine learning, etc.

In other words, compared to a “tokenization” of semantic metadata in phonetic writing noting a natural language, a “tokenization” of semantic metadata in IEML would ensure better processing, better presentation of results to the user and better exploitation of results. In addition, semantic metadata in IEML would allow datasets that use different languages, classification systems or ontologies to be de-compartmentalized, merged and compared.

Design of the first experience

The ideal way to do an experiment is to consider a multi-variable system and transform only one of the system variables, all other things being equal. In our case, it is only the semantic metadata system that must vary. This will make it easy to compare the system’s performance with one (phonetic tokens) or the other (semantic tokens) of the semantic metadata systems.

  • – The dataset of our first experience encompasses all the articles of the Sens Public scientific journal.
  • – Our ordinary metadata are the author, publication date, etc.
  • – Our semantic metadata describe the content of articles.
  •     – In phonetic tokens, using RAMEAU categories, keywords and summaries,
  •     – In IEML tokens by translating phonetic tokens.
  • – Our processes are “big data” algorithms traditionally used in natural language processing 
  •     – An algorithm for calculating the co-occurrences of keywords.
  •     – A TF-IDF (Term Frequency / Inverse Document Frequency) algorithm that works from a word / document matrix.
  •     – A clustering algorithm based on “word embeddings” of keywords in articles (documents are represented by vectors, in a space with as many dimensions as words).
  • – A user interface will offer a certain way to access the database. This interface will be obviously adapted to the user’s task (which remains to be chosen, but could be of the “data analytics” type).
  • Result 1 corresponds to the execution of the “machine task”, i.e. the establishment of a connection network on the articles (relationships, proximities, groupings, etc.). We’ll have to compare….
  •     – result 1.1 based on the use of phonetic tokens with 
  •     – result 1.2 based on the use of IEML tokens.
  • Result 2 corresponds to the execution of the selected user-task (data analytics, navigation, search, etc.). We’ll have to compare….
  •     – result 2.1, based on the use of phonetic tokens, with 
  •     – result 2.2, based on the use of IEML tokens.

Step A: First indexing of a database in IEML

Reminder: the data are the articles of the scientific journal, the semantic metadata are the categories, keywords and summaries of the articles. From the categories, keywords and article summaries, a glossary of the knowledge area covered by the journal is created, or a sub-domain if it turns out that the task is too difficult. It should be noted that in 2019 we do not yet have the software tools to create IEML sentences and super-phrases that allow us to express facts, proposals, theories, narratives, hypotheses, etc. Phrases and super-phrases, perhaps accessible in a year or two, will therefore have to wait for a later phase of the research.

The creation of the glossary will be the work of a project community, linked to the editors of Sens-Public magazine and the Canada Research Chair in Digital Writing (led by Prof. Marcello Vitali-Rosati) at the Université de Montréal (Digital Humanities). Pierre Lévy will accompany this community and help it to identify the constants and variables of its lexicon. One of the auxiliary goals of the research is to verify whether motivated communities can appropriate IEML to categorize their data. Once we are satisfied with the IEML indexing of the article database, we will proceed to the next step.

Step B: First experimental test

  • 1. The test is determined to measure the difference between results based on phonetic tokens and results based on IEML tokens. 
  • 2. All data processing operations are carried out on the data.
  • 3. The results (machine tasks and user tasks) are compared with both types of tokens.

The experiment can eventually be repeated iteratively with minor modifications until satisfactory results are achieved.

If the hypothesis is confirmed, we proceed to the next step

Step C: Towards an automation of semantic pre-processing in IEML.

If the superior efficiency of IEML tokens for semantic metadata is demonstrated, then there will be a strong interest in maximizing the automation of IEML semantic pre-processing

The algorithms used in our experiment are themselves powerful tools for data pre-processing, they can be used, according to methods to be developed, to partially automate semantic indexing in IEML. The “word embeddings” will make it possible to study how IEML words are correlated with the natural language lexical statistics of the articles and to detect anomalies. For example, we will check if similar USLs (a USL is an IEML text) point to very different texts or if very different texts have similar USLs. 

Finally, methods will be developed to use deep learning algorithms to automatically index datasets in IEML.

Step D: Research and development perspective in Semantic Machine Learning

If step C provides the expected results, i.e. methods using AI to automate the indexing of data in IEML, then big data indexed in IEML will be available.  As progress will be made, semantic metadata may become increasingly similar to textual data (summary of sections, paragraphs, sentences, etc.) until translation into IEML is achieved, which remains a distant objective.

The data indexed in IEML could then be used to train artificial intelligence algorithms. The hypothesis that machines learn more easily when data is categorized in IEML could easily be validated by experiments of the same type as described above, by comparing the results obtained from training data indexed in IEML and the results obtained from the same data indexed in natural languages.

This last step paves the way for a better integration of statistical AI and symbolic AI (based on facts and rules, which can be expressed in IEML).

3 A research program in linguistics, humanities and social sciences

Introduction

The semiotic and linguistic development program has two interdependent components:

1. The development of the IEML metalanguage

2. The development of translation systems and bridges between IEML and other sign systems, in particular… 

  •     – natural languages,
  •     – logical formalisms,
  •     – pragmatic “language games” and games in general,
  •     – iconic languages,
  •     – artistic languages, etc.

This research and development agenda, particularly in its linguistic dimension, is important for the digital humanities. Indeed, IEML can serve as a system of semantic coordinates of the cultural universe, thus allowing the humanities to cross a threshold of scientific maturity that would bring their epistemological status closer to that of the natural sciences. Using IEML to index data and to formulate assumptions would result in….

  • (1) a de-silo of databases used by researchers in the social sciences and humanities, which would allow for the sharing and comparison of categorization systems and interpretive assumptions;
  • (2) an improved analysis of data.
  • (3) The ultimate perspective, set out in the article “The Role of the Digital Humanities in the New Political Space” (http://sens-public.org/article1369.html in French), is to aim for a reflective collective intelligence of the social sciences and humanities research community. 

But IEML’s research program in the perspective of the digital humanities – as well as its research program in data science – requires a living and dynamic semiotic and linguistic development program, some aspects of which I will outline here.

IEML and the Meaning-Text Theory

IEML’s linguistic research program is very much based on the Meaning-Text theory developed by Igor Melchuk and his school. “The main principle of this theory is to develop formal and descriptive representations of natural languages that can serve as a reliable and convenient basis for the construction of Meaning-Text models, descriptions that can be adapted to all languages, and therefore universal. ”(Excerpt translated from the Wikipedia article on Igor Melchuk). Dictionaries developed by linguists in this field connect words according to universal “lexical functions” identified through the analysis of many languages. These lexical functions have been formally transposed into the very structure of IEML (See the IEML Glossary Creation Guide) so that the IEML dictionary can be organized by the same tools (e.g. Spiderlex) as those of the Meaning-Text Theory research network. Conversely, IEML could be used as a pivot language – or concept description language – *between* the natural language dictionaries developed by the network of researchers skilled in Meaning-Text theory.

Construction of specialized lexicons in the humanities and social sciences

A significant part of the IEML lexicon will be produced by communities having decided to use IEML to mark out their particular areas of knowledge, competence or interaction. Our research in specialized lexicon construction aims to develop the best methods to help expert communities produce IEML lexicons. One of the approaches consists in identifying the “conceptual skeleton” of a domain, namely its main constants in terms of character paradigms and word paradigms. 

The first experimentation of this type of collaborative construction of specialized lexicons by experts will be conducted by Pierre Lévy in collaboration with the editorial team of the Sens Public scientific journal and the Canada Research Chair in Digital Textualities at the University of Montréal (led by Prof. Marcello Vitali-Rosati). Based on a determination of their economic and social importance, other specialized glossaries can be constructed, for example on the theme of professional skills, e-learning resources, public health prevention, etc.

Ultimately, the “digital humanities” branch of IEML will need to collaboratively develop a conceptual lexicon of the humanities to be used for the indexation of books and articles, but also chapters, sections and comments in documents. The same glossary should also facilitate data navigation and analysis. There is a whole program of development in digital library science here. I would particularly like to focus on the human sciences because the natural sciences have already developed a formal vocabulary that is already consensual.

Construction of logical, pragmatic and narrative character-tools

When we’ll have a sentence and super-phrase editor, it is planned to establish a correspondence between IEML – on the one hand – and propositional calculus and first order logics – on the other hand –. This will be done by specifying special character-tools to implement logical functions. Particular attention will be paid to formalizing the definition of rules and the declaration that “facts” are true in IEML. It should be noted in passing that, in IEML, grammatical expressions represent classes, sets or categories, but that logical individuals (proper names, numbers, etc.) or instances of classes are represented by “literals” expressed in ordinary characters (phonetic alphabets, Chinese characters, Arabic numbers, URLs, etc.).

In anticipation of practical use in communication, games, commerce, law (smart contracts), chatbots, robots, the Internet of Things, etc., we will develop a range of character-tools with illocutionary force such as “I offer”, “I buy”, “I quote”, “I give an instruction”, etc.

Finally, we will making it easier for authors of super-sentences by developing a range of character-tools implementing “narrative functions”.

4 A software development program

A software environment for the development and public use of the IEML language

Logically, the first multi-user IEML application will be dedicated to the development of the language itself. This application is composed of the following three web modules.

  • 1. A morpheme editor that also allows you to navigate in the morphemes database, or “dictionary”.
  • 2. A character and word editor that also allows navigation in the “lexicon”.
  • 3. A navigation and reading tool in the IEML library as a whole, or “IEML database” that brings together the dictionary and lexicon, with translations, synonyms and comments in French and English for the moment.

The IEML database is a “Git” database and is currently hosted by GitHub. Indeed, a Git database makes it possible to record successive versions of the language, as well as to monitor and model its growth. It also allows large-scale collaboration among teams capable of developing specific branches of the lexicon independently and then integrating them into the main branch after discussion, as is done in the collaborative development of large software projects. As soon as a sub-lexicon is integrated into the main branch of the Git database, it becomes a “common” usable by everyone (according to the latest General Public License version.

Morpheme and word editors are actually “Git clients” that feed the IEML database. A first version of this collaborative read-write environment should be available in the fall of 2019 and then tested by real users: the editors of the Scientific Journal “Sens Public” as well as other participants in the University of Montréal’s IEML seminar.

The following versions of the IEML read/write environment should allow the editing of sentences and texts as well as literals that are logical individuals not translated into IEML, such as proper names, numbers, URLs, etc.

A social medium for collaborative knowledge management

A large number of applications using IEML can be considered, both commercial and non-commercial. Among all these applications, one of them seems to be particularly aligned with the public interest: a social medium dedicated to collaborative knowledge and skills management. This new “place of knowledge” could allow the online convergence of the missions of… 

  • – museums and libraries, 
  • – schools and universities, 
  • – companies and administrations (with regard to their knowledge creation and management dimension), 
  • – smart cities, employment agencies, civil society networks, NGO, associations, etc.

According to its general philosophy, such a social medium should…

  • – be supported by an intrinsically distributed platform, 
  • – have the simplicity – or the economy of means – of Twitter,
  • – ensure the sovereignty of users over their data,
  • – promote collaborative processes.

The main functions performed by this social medium would be:

  • – data curation (reference and categorization of web pages, edition of resource collections), 
  • – teaching offers and learning demands,
  • – offers and demands for skills, or employment market.

IEML would serve as a common language for

  • – data categorization, 
  • – description of the knowledge and skills, 
  • – the expression of acts within the social medium (supply, demand, consent, publish, etc.)
  • – addressing users through their knowledge and skills.

Three levels of meaning would thus be formalized in this medium.

  • (1) The linguistic level in IEML  – including lexical and narrative functions – formalizes what is spoken about (lexicon) and what is said (sentences and super-phrases).
  • – (2) The logical – or referential – level adds to the linguistic level… 
  •     – logical functions (first order logic and propositional logic) expressed in IEML using logical character-tools,
  •     – the ability of pointing to references (literals, document URLs, datasets, etc.),
  •     – the means to express facts and rules in IEML and thus to feed inference engines.
  • – (3) The pragmatic level adds illocutionary functions and users to the linguistic and logical levels.
  •     – Illocutionary functions (thanks to pragmatic character-tools) allow the expression of conventional acts and rules (such as “game” rules). 
  •     – The pragmatic level obviously requires the consideration of players or users, as well as user groups.
  •     – It should be noted that there is no formal difference between logical inference and pragmatic inference but only a difference in use, one aiming at the truth of propositions according to referred states of things, the other calculating the rights, obligations, gains, etc. of users according to their actions and the rules of the games they play.

The semantic profiles of users and datasets will be arranged according to the three levels that have just been explained. The “place of knowledge” could be enhanced by the use of tokens or crypto-currencies to reward participation in collective intelligence. If successful, this type of medium could be generalized to other areas such as health, democratic governance, trade, etc.

Ramon Lull

Le Livre Blanc d’IEML, le métalangage de l’économie de l’information. 2019.
RESUMÉ. IEML est une langue à la sémantique calculable inventée par Pierre Lévy. Le “Livre blanc” (version Beta et non finie) explique les grands principes, la grammaire et les premières applications d’IEML. (une centaine de pages)

Etre et Mémoire dans la revue Sens Public 2019
RÉSUMÉ Le premier enjeu de cet article est de replacer l’objet des sciences humaines (la culture et la signification symbolique) dans la continuité des objets des sciences de la nature. Je fais l’hypothèse que le sens n’apparaît pas brusquement avec l’humanité mais que différentes couches de codage et de mémoire (quantique, atomique, génétique, nerveuse et symbolique) s’empilent et se complexifient progressivement, la strate symbolique n’étant que la dernière en date des « machines d’écriture ». Le second enjeu du texte est de définir la spécificité et l’unité de la couche symbolique, et donc le champ des sciences humaines. Par opposition à une certaine tradition logocentrique, je montre que le symbolisme – s’il comprend évidemment le langage – englobe aussi des sémiotiques (comme la cuisine ou la musique) où la coupure signifiant/signifié n’est pas aussi pertinente que pour les langues. Le troisième enjeu de cet essai est de montrer que les formes culturelles et les puissances interprétatives de l’humanité évoluent avec ses machines d’écriture. L’émergence du numérique, en particulier, laisse entrevoir un raffinement des sciences humaines allant jusqu’au calcul de la complexité sémantique. Cet essai de redéfinition des sciences humaines dans la continuité des sciences de la nature suppose une ontologie – ou une méta-ontologie, selon l’expression de Marcello Vitali-Rosati – pour qui les notions d’écriture et de mémoire sont centrales et qui, en rupture avec la critique kantienne, accepte la pleine réalité de la spatialité et de la temporalité naturelle.

Le rôle des humanités numériques dans le nouvel espace politique dans la revue Sens Public, 2019
RESUMÉ. Alors que plus de 50% de la population mondiale est connectée à l’Internet, les grandes plateformes, et particulièrement Facebook, ont acquis un énorme pouvoir politique. Cette nouvelle situation nous oblige a repenser le projet d’émancipation des lumières. Je propose dans cet article que les chercheurs en sciences humaines et sociales relèvent ce défi en adoptant et en diffusant de nouvelles normes d’intelligence collective réflexive. Les communs de la connaissance, la science ouverte et la souveraineté des individus sur les données qu’ils produisent font l’unanimité. Mais ces principes incontournables sont encore insuffisants. La puissance de calcul et de communication disponible, combinée à l’utilisation d’IEML (une langue à la sémantique calculable), nous permettent d’envisager une mise en transparence des opérations de création de connaissance, de sens et d’autorité. Je présente ici les grandes orientations stratégiques permettant d’atteindre ces objectifs. Une révolution épistémologique des sciences humaines est à portée de main, et avec elle une nouvelle étape dans l’évolution de la pensée critique. (une cinquantaine de pages)

La Pyramide algorithmique dans la revue Sens Public 2017
RESUMÉ. Le medium algorithmique est une infrastructure de communication qui augmente les pouvoirs des médias antérieurs en y ajoutant la mécanisation des opérations symboliques. Son émergence au milieu du vingtième siècle résulte d’une longue histoire scientifique et technique que je résume au début de l’article. Je rappelle ensuite les grandes étapes de son développement (ordinateurs centraux, internet et PC, Web social, Cloud augmenté par l’intelligence artificielle et la chaîne de blocs) ainsi que leurs conséquences sociocognitives. J’évoque pour finir les développements futurs de ce médium dans la perspective d’une intelligence collective réflexive basée sur une nouvelle forme de calcul sémantique.

Les opérateurs élémentaires de la réflexionCahiers Sens public, 2018/1 (n° 21-22), p. 75-102. La philosophie qui a inspiré les “primitives” d’IEML.
RÉSUMÉ. Cet article tente de réduire au minimum les concepts fondamentaux nécessaires à la réflexion sur le sens. Deux concepts complémentaires, la virtualité et l’actualité, rendent compte des dualités de l’action et de la grande opposition métaphysique entre transcendance et immanence. L’actuel possède une adresse spatio-temporelle, il est situé dans le temps séquentiel et dans l’espace physique tridimensionnel tandis qu’on ne peut assigner d’adresse spatio-temporelle précise à l’abstraction du virtuel. Le triangle sémiotique rend compte des triades de la représentation. Le signe (1) indique (2) une chose, un objet ou un référent quelconque auprès (3) d’un être ou interprétant. Il n’y a de signe que « de » quelque chose et « pour » quelqu’un. Enfin, il faut pouvoir considérer explicitement une absence, y compris un vide de connaissance, pour poser des questions et réfléchir. Les six opérateurs élémentaires de la réflexion (virtuel, actuel, signe, être, chose et vide) fonctionnent de manière interdépendante et traversent tous les champs des sciences humaines et sociale : on étudie particulièrement dans cet article leur pertinence en sémiotique, épistémologie, cosmologie, religion, politique et économie.

KUO CHENG LIAO-IA-CI

Image: Kuo Cheng Liao (found here).

Je voudrais répondre dans cette petite entrée de blog à quelques questions qui m’ont été posées par des amis Turcs (du site Çeviri Konusmalar) au sujet de l’intelligence artificielle et de l’autonomie des machines. Voir ici sur Twitter…

Un des rôles de la philosophie est de catégoriser l’expérience humaine de façon à réduire le plus possible l’illusion, ou si l’on préfère à trouver les concepts qui vont nous permettre de comprendre notre situation et de mieux guider notre action. Cela amène souvent les philosophes à contredire l’opinion courante. Aujourd’hui cette opinion est propagée par le journalisme et la fiction. Aussi bien les journalistes que les auteurs de roman ou de série TV présentent les robots ou l’intelligence artificielle comme capable d’autonomie et de conscience, que ce soit dès maintenant ou dans un futur proche. Cette représentation est à mon avis fausse, mais elle fonctionne très bien parce qu’elle joue…

  • ou bien sur la peur d’être éliminé ou asservi par des machines (sensationnalisme ou récit dystopique),
  • ou bien sur l’espoir que l’intelligence artificielle va nous aider magiquement à résoudre tous nos problèmes ou – pire – qu’elle représenterait une espèce plus avancée que l’homme (dans le cas de certaines publicités ou d’utopies naïves).

Dans les deux cas, espoir ou peur, le ressort principal est la passion, l’émotion, et non pas une compréhension exacte de ce que c’est que le traitement automatique de l’information et du rôle qu’il joue dans l’intelligence humaine.

Afin de recadrer cette question de l’autonomie des machines, je voudrais répondre ici le plus simplement possible à trois questions:

  1. Qu’est-ce que l’intelligence humaine?
  2. Qu’est-ce que l’informatique, ou les machines à traiter l’information?
  3. Est-ce que les machines peuvent devenir autonomes?

Qu’est-ce que c’est que l’Intelligence humaine?

D’abord il faut reconnaître que les humains sont des animaux et que les animaux ont déjà des capacité de mémoire, de représentation interne des situations, de résolution de problèmes, d’apprentissage, etc. Les animaux sont des êtres sensibles, qui ressentent attraction et répulsion, plaisir et douleur, voire empathie. Les plus plus intelligents d’entre eux ont la capacité de transmettre certaines connaissances acquises dans l’expérience à leur progéniture, d’utiliser des outils, etc. Ensuite, l’intelligence animale se manifeste de manière particulièrement frappante sur un plan collectif ou social et, pour ce qui nous intéresse, notamment chez les primates (les grands singes), dont nous faisons partie. Les primates ont des structures sociales avec des rôles sociaux fort différenciés et des stratégies collectives élaborées pour se défendre, se nourrir, contrôler leur territoire, etc. Nous partageons bien sûr toute cette intelligence animale. Mais nous avons en plus la manipulation symbolique.

Ce qui différencie l’intelligence humaine de l’intelligence animale c’est d’abord et avant tout l’usage du langage et des systèmes symboliques. Un système symbolique c’est un moyen de communication et de pensée dont les éléments – les symboles – ont deux aspects: un aspect sensible (visible, audible) et un aspect invisible, abstrait, la catégorie générale. Et le rapport entre le signifiant sensible – le son – et le signifié intelligible – le sens – est conventionnel, décidé par la société. Il n’y a aucune autre raison que la convention et l’usage pour que le concept de raison, par exemple, se représente par les deux syllabes et zon en français, et la preuve c’est que ça se dit autrement dans d’autres langues. Tous les animaux communiquent mais seuls les êtres humains parlent, posent des questions, reconnaissent leur ignorance, dialoguent et surtout racontent des histoires. L’usage du langage donne aux humains non pas la conscience (que les autres animaux ont déjà), mais la conscience réflexive. La capacité de réfléchir sur les concepts nous est donnée par la manipulation des symboles.

Avec cette capacité de manipulation symbolique et cette réflexivité viennent deux caractéristiques spéciales de l’humanité: les systèmes techniques et les institutions sociales, tous deux d’une grande complexité et en constante évolution historique.

Une énorme partie de l’intelligence humaine est réifiée dans l’environnement technique et vécue dans des institutions sociales (rituels, politique, droit, religion, morale, etc.). La partie individuelle de notre intelligence est marginale, mais essentielle, c’est elle qui nous permet d’innover, de progresser et d’améliorer notre condition.

Qu’est-ce que l’informatique, ou le traitement automatique de l’information?

L’intelligence artificielle est une expression de type « marketing » pour designer en fait la zone la plus avancée et toujours en mouvement des techniques de traitement de l’information.

Quand je dis que l’intelligence humaine a toujours été artificielle, je ne veux pas dire que les humains sont des robots ou des machines, je veux dire que les humains ont toujours utilisé des procédés techniques pour augmenter leur intelligence, qu’il s’agisse de l’intelligence personnelle ou collective. L’écriture nous a donné le moyen d’étendre notre mémoire individuelle et nos capacités critiques. Aujourd’hui l’Internet nous permet un accès rapide à une quantité d’information que nos ancêtres n’auraient jamais pu imaginer. Mais ce n’est pas seulement une question de mémoire, nous avons aussi des capacités de calcul, de simulation de systèmes complexes, d’analyse automatique des données, voire de raisonnement automatique qui amplifient les capacités cognitives “purement biologiques” des premiers homo sapiens. Nous avons le même cerveau que les hommes préhistoriques, avec la même capacité de manipuler les symboles et de raconter des histoires, mais nous avons en plus un énorme appareillage d’enregistrement, de communication et de traitement des symboles qu’ils n’avaient pas et qui se branche sur la partie purement biologique de notre intelligence.

L’informatique, le traitement automatique des données, avec sa pointe avancée et mouvante qu’on appelle l’intelligence artificielle, est apparue dans la seconde moitié du 20e siècle, mais elle poursuit un effort multi-séculaire d’augmentation cognitive qui a commencé avec l’écriture, s’est poursuivi avec le perfectionnement des systèmes de codage de la connaissance, la notation des nombres par position et le 0, l’imprimerie et les médias électriques…

La partie névralgique du nouvel appareillage de traitement automatique des symboles se trouve aujourd’hui dans d’énormes centres de calculs qu’on appelle le “cloud” et dont nos ordinateurs et smartphones ne sont que des terminaux. Mais dans ce réseau de machines, le traitement automatique des données se fait uniquement sur la forme sensible des symboles, sur le signifiant ramené à des zeros et des uns. Les ordinateurs n’ont pas accès au signifié, au sens.

Puisqu’on m’interroge sur le machine learning, oui, parmi toutes les techniques de calcul utilisées aujourd’hui par les ingénieurs en informatique, le machine learning, et le deep learning qui en est un cas particulier, sont en plein développement depuis une dizaine d’années. Mais il faut se garder d’attribuer à l’apprentissage automatique plus qu’il ne peut donner. Il s’agit essentiellement d’algorithmes de traitement statistique auxquels on soumet en entrée d’énormes masses de données et qui produisent en sortie des modèles de reconnaissance de formes ou d’action qui sont “appris” des données. Or non seulement l’apprentissage machine dépend des algorithmes qui sont programmés et continuellement débogués par des humains, mais en plus ses résultats en sortie dépendent des masses de données qui leur sont fournies en entrée. Or ce sont encore des humains qui choisissent les données, les filtrent, les classent, les catégorisent, les organisent, les interprètent, etc. Aussi bien les approches logiques que les approches statistiques de l’intelligence artificielle condensent dans des machines logicielles et matérielles des connaissances et des finalités humaines. Leur autonomie, si autonomie il y a, ne peut être que locale et momentanée. A moyen et long terme, les machines ne peuvent évoluer qu’avec nous et vice versa: nous ne pouvons évoluer qu’avec elles.

La question de l’autonomie des machines

Le traitement automatique des données prolonge l’ensemble du système technique contemporain et il baigne dedans. Il est totalement dépendant de la production d’énergie, de la distribution d’électricité, de la production des matériaux, etc. On ne peut absolument pas imaginer le système technique contemporain sans l’informatique mais pas non plus l’informatique sans toute cette infrastructure technique.

De la même manière, le système technique s’effondrerait rapidement si les humains disparaissaient. Notre environnement technique est conçu, construit, utilisé, entretenu, réparé, interprété par des humains: il n’a aucune autonomie d’aucune sorte.

la technique nous *apparaît* autonome parce que nous projetons sur elle les effets émergents des interactions sociales et des inerties socio-techniques que nous ne pouvons pas contrôler à l’échelle individuelle. Nous avons tendance à réifier les effets de nombreuses décisions et actions humaines agrégées dans les machines et à prêter aux machines une volonté propre. Mais c’est une illusion. Une illusion qui nous décharge de nos responsabilités personnelles et collectives: “c’est la faute de la machine”.

Qu’on utilise une interface pseudo-humaine ou des robots androïdes autant qu’on veut, mais c’est un artifice, un décor. Le robot ou la machine est toujours susceptible d’être éteint ou débranché, quant à son logiciel dans le cloud, il doit sans cesse être déboggué et de nouvelles versions doivent être téléchargées périodiquement. Pour moi, cette idée de la machine autonome relève du fétichisme : on donne une personnalité à un appareil qui n’est pas un être sensible et qui a été – encore une fois – conçu, fabriqué, marqueté, vendu, utilisé, réparé et qui va finalement être jeté à la poubelle au profit d’un nouveau modèle.

Nous avons des machines capables de traitement automatique des symboles. Et nous ne les avons que depuis moins d’un siècle. A l’échelle de l’évolution historique, trois ou quatre générations, ce n’est presque rien. A la fin du XXe siècle, 1% de la population humaine avait accès à l’Internet et le Machine Learning était confiné dans des laboratoires scientifiques. Aujourd’hui plus de 60% de la population est branchée et le machine learning s’applique à grande échelle aux données entreposées dans le cloud. Face à cette mutation si rapide, nous avons la responsabilité d’orienter, autant que possible, le développement technique, social et culturel. Plutôt que de s’égarer dans le fantasme de la machine qui prend le pouvoir, pour le meilleur ou pour le pire, Il me semble beaucoup plus intéressant d’utiliser les machines pour une augmentation de l’intelligence humaine, intelligence à la fois personnelle et collective. C’est plutôt dans cette direction qu’il faut travailler parce que c’est la seule qui soit utile et raisonnable. Et c’est d’ailleurs ce que font en silence les principaux industriels du secteur, même si la “singularité” attire plus l’attention des foules.

Si vous visez le divin, ou le dépassement, ne tentez pas de remplacer l’homme par une machine prétendument consciente et ne craignez pas non plus un tel remplacement, parce qu’il est impossible. Ce qui est peut-être possible, en revanche, est un état de la technique et de la civilisation dans lequel l’intelligence collective humaine pourra s’observer scientifiquement, déployer et cultiver sa complexité inepuisable dans le miroir numérique. Faire travailler les machines à l’emergence d’une intelligence collective réflexive, un pas apres l’autre…