Ou comment passer d’un langage de métadonnées à une culture de l’intelligence collective…

L’ENJEU DES MÉTADONNÉES

Les métadonnées sont les données qui organisent les données. Les données sont comme les livres d’une bibliothèque et les métadonnées comme le fichier et le catalogue de la bibliothèque: leur fonction est d’identifier les livres afin de mieux les ranger et les retrouver. Les métadonnées servent moins à décrire exhaustivement les choses (il ne s’agit pas de faire des cartes à la même échelle que le territoire…) qu’à fournir des repères à partir desquels les utilisateurs pourront trouver ce qu’ils cherchent, avec l’aide d’algorithmes. Tous les systèmes d’information et applications logicielles organisent l’information au moyen de métadonnées. 

On peut distinguer… 

1) les métadonnées matérielles, comme le format d’un fichier, sa date de création, son auteur, sa licence d’utilisation, etc. 

2) les métadonnées sémantiques qui concernent le contenu d’un document ou d’un ensemble de données (de quoi ça parle) ainsi que leur dimension pratique (à quoi servent les données, à qui, dans quelles circonstances, etc.). 

Art: Emma Kunz

On s’intéresse ici principalement aux métadonnées sémantiques. Un système de métadonnées sémantiques peut être aussi simple qu’un vocabulaire. Au niveau de complexité supérieur cela peut être une classification hiérarchique ou taxonomie. Au niveau le plus complexe, c’est une “ontologie”, c’est-à-dire la modélisation d’un domaine de connaissance ou de pratique, qui peut contenir plusieurs taxonomies avec des relations transversales, y compris des relations causales et des possibilités de raisonnement automatique.  

Les métadonnées sémantiques représentent un élément essentiel des dispositifs d’intelligence artificielle :

– elles sont utilisées comme squelettes des graphes de connaissances (knowledge graphs) – ou bases de connaissances – mis en oeuvre par les big techs (Google, Facebook, Amazon, Microsoft, Apple…) et de plus en plus dans des grandes et moyennes entreprises,

– elles sont utilisées – sous le nom de “labels” – pour catégoriser les données d’entraînement des modèles de deep learning.

Parce qu’ils structurent la connaissance contemporaine, dont le support est numérique, les systèmes de métadonnées représentent un enjeu considérable aux niveaux scientifique, culturel, politique…  

Un des buts de ma compagnie INTLEKT Metadata Inc. est de faire de IEML (Information Economy MetaLanguage) un standard pour l’expression des systèmes de métadonnées sémantiques. Quel est le paysage contemporain dans ce domaine?

LE PAYSAGE DES MÉTADONNÉES SÉMANTIQUES AUJOURD’HUI

Formats Standards

Le système de formats et de “langages” standards proposé par le World Wide Web Consortium – W3C – (XML, RDF, OWL, SPARQL) pour atteindre le “Web Sémantique” existe depuis la fin du 20e siècle. Il n’a pas réellement pris, et notamment pas dans les entreprises en général et les big tech en particulier, qui utilisent des formats moins lourds et moins complexes, comme les “property graphs“. De plus, la catégorisation manuelle ou semi-manuelle des données est souvent remplacée par des approches statistiques d’indexation automatique (NLP, deep learning…), qui contournent la nécessité de concevoir des systèmes de métadonnées. Le système de standards du W3C concerne les *formats de fichiers et de programmes* traitant les métadonnées sémantiques mais *pas la sémantique proprement dite*, à savoir les catégories, concepts, propriétés, événements, relations, etc. qui sont toujours exprimées en langues naturelles, avec toutes les ambiguïtés, multiplicités et incompatibilités que cela implique.

Modèles standards

Au dessus de ce système de formats standards existent des modèles standards pour traiter le contenu proprement sémantique des concepts et de leurs relations. Par exemple schema.org pour les sites web, CIDOC-CRM pour le domaine culturel, etc. Il existe des modèles standard pour de très nombreux domaines, de la finance à la médecine. Le problème est qu’il existe souvent plusieurs modèles concurrents pour un domaine et que les modèles eux-mêmes sont hypercomplexes, au point que même les spécialistes d’un modèle n’en maîtrisent qu’une petite partie. De nouveau, ces modèles sont exprimés en langues naturelles, avec les problèmes que cela suppose… et le plus souvent en anglais. 

Systèmes de métadonnées particuliers

Les taxonomies, ontologies et autres systèmes de métadonnées mis en oeuvre dans des applications réelles pour organiser des ensembles de données sont le plus souvent des utilisations partielles des modèles standards et des formats standards. Les utilisateurs se soumettent – plus ou moins bien – à ces couches de standards dans l’espoir que leurs données et applications deviendront les heureux sujets d’un royaume de l’interopérabilité sémantique. Mais leurs espoirs sont déçus. L’idéal du Web intelligent décentralisé de la fin des années 1990 a cédé la place au search engine optimization (SEO) plus ou moins aligné sur le knowledge graph (secret!) de Google. Il faut bien reconnaître, près d’un quart de siècle après son lancement, que le Web Sémantique du W3C n’a pas tenu ses promesses.

Problèmes rencontrés 

Pour obtenir l’interopérabilité sémantique, c’est-à-dire la communication fluide entre bases de connaissance, les responsables de systèmes d’information se soumettent à des modèles et formats rigides. Mais à cause de la multitude des formats, des modèles et de leurs applications disparates, sans parler des différences de langues, ils n’obtiennent pas le gain attendu. De plus, produire un bon système de métadonnées coûte cher, car il faut réunir une équipe pluridisciplinaire comprenant : un chef de projet, un ou des spécialistes du domaine d’utilisation, un spécialiste de la modélisation formelle de type taxonomie ou ontologie (ingénierie cognitive) qui soit capable de se retrouver dans le labyrinthe des modèles standards et enfin un ingénieur informaticien spécialiste des formats de métadonnées sémantiques. Certaines personnes réunissent plusieurs de ces compétences, mais elles sont rares.

COMMENT IEML PEUT-IL RÉSOUDRE LES PROBLÈMES RENCONTRÉS DANS LE MONDE DES MÉTADONNÉES SÉMANTIQUES ? 

IEML en deux mots

IEML – aujourd’hui breveté par INTLEKT Metadata – n’est ni une taxonomie, ni une ontologie universelle, ni un modèle, ni un format: c’est une *langue* ou une *méta-ontologie* composée (1) de quelques milliers de primitives sémantiques organisées en paradigmes et (2) d’une grammaire entièrement régulière.

Caractéristiques uniques du langage IEML

IEML est “agnostique” quand aux formats, langues naturelles et relations hiérarchiques entre concepts. IEML permet de construire et de partager n’importe quel concept, hiérarchie de concepts ou relation entre concepts. IEML ne produit donc pas d’uniformisation ou d’aplatissement des possibilités expressives. Pourtant, IEML assure l’interopérabilité sémantique, c’est-à-dire la possibilité de fusionner, d’échanger, de recombiner, de connecter et de traduire quasi-automatiquement les systèmes de métadonnées et les bases de connaissances organisées par ces métadonnées. IEML permet donc de concilier le maximum d’originalité, de complexité ou de simplicité cognitive d’un côté et l’interopérabilité ou la communication de l’autre, contrairement à ce qui se passe dans la situation contemporaine où l’interopérabilité se “paye” par la réduction des possibilités expressives.

Fonctions uniques de l’éditeur IEML 

Autre avantage: contrairement aux principaux outils d’édition de métadonnées contemporains (Smart Logic Semaphore, Pool Party, Synaptica, Top Braid Composer) l’éditeur IEML conçu par INTLEKT sera intuitif (interface visuelle à base de tables et de graphes) et collaboratif. Il n’est pas destiné aux spécialistes de RDF et OWL (les formats standards), comme les éditeurs cités plus hauts, mais aux spécialistes des domaines d’applications. Une méthode accompagnant l’outil va aider les experts à formaliser leurs domaines en IEML. Le logiciel importera et exportera automatiquement les métadonnées dans les formats standards choisis par l’utilisateur. C’est ainsi que l’éditeur IEML permettra de réduire la complexité et le coût de la création des systèmes de métadonnées sémantiques. 

Marché des outils d’édition et de gestion des systèmes de métadonnées

On comprend aisément que, la masse des données produites ne cessant de croître, tout comme le besoin d’en extraire des connaissances utilisables, on ait de plus en plus besoin de créer et de maintenir de bons systèmes de métadonnées. Le marché des outils d’édition et de gestion des systèmes de métadonnées sémantiques représente aujourd’hui deux milliards de dollars et il pourrait atteindre (selon une estimation très conservatrice) seize milliards de dollars en 2026.  Cette projection agrège : 1) les données de l’industrie sémantique proprement dite (les entreprises qui créent des systèmes de métadonnées pour leurs clients), 2) les outils d’annotation sémantique des datasets d’entraînement pour le machine learning utilisés notamment par les data scientists, 3) la gestion des systèmes de métadonnées en interne par les big tech.

LES BUTS DE INTLEKT METADATA À L’HORIZON DE 5-10 ANS

La fondation

Nous voulons qu’IEML devienne un standard open-source pour les métadonnées sémantiques autour de 2025. Le standard IEML devra être supporté, maintenu et développé par une fondation à but non lucratif. Cette fondation supervisera aussi une communauté d’édition collaborative de systèmes de métadonnées en IEML et une base de  connaissance publique de données catégorisées en IEML. La fondation créera un écosystème socio-technique favorable à la croissance de l’intelligence collective.

L’entreprise privée

INTLEKT continuera à maintenir l’outil d’édition collaborative et à concevoir des bases de connaissances sémantiques sur mesure pour des clients solvables. Nous mettrons également en oeuvre un marché – ou système d’échange – des données privées indexées en IEML qui sera basé sur la blockchain. Les bases de connaissances indexées en IEML seront interopérables sur les plans parallèles de l’analyse des données, du raisonnement automatique et de l’entraînement des modèles neuronaux.

Néanmoins, avant d’arriver à ce point, INTLEKT doit démontrer l’efficacité d’IEML au moyen de plusieurs cas d’usage réels.

LE MARCHÉ D’INTLEKT METADATA À L’HORIZON DE 2-5 ANS

Des entretiens avec de nombreux clients potentiels nous ont permis de définir notre marché pour les années qui viennent. Définissons les domaines pertinents par élimination et approximations successives. 

Les affaires humaines

IEML n’est pas pertinent pour la modélisation d’objets purement mathématiques, physiques ou biologiques. Les sciences exactes disposent déjà de langages formels et de classifications reconnues. En revanche IEML est pertinent pour les objets des sciences humaines et des sciences sociales ou pour les interactions entre objets des sciences exactes et objets des sciences humaines, comme la technologie, la santé, l’environnement ou le phénomène urbain.

Les domaines non-standards

Dans l’immédiat, nous ne nous épuiserons pas à traduire en IEML tous les modèles de métadonnées existants: ils sont très nombreux, parfois contradictoires et rarement utilisés en totalité. Beaucoup d’utilisateurs de ces modèles se contentent d’en sélectionner une petite sous-partie utile et n’investiront pas leur temps et leur argent dans une nouvelle technologie sans nécessité. Par exemple, les nombreuses entreprises qui font du SEO (Search Engine Optimization) extraient un sous-ensemble utile des *classes* de schema.org (patronné par Google) et des *entités* de Wikidata (parce qu’elles sont réputées fiables par Google) et n’ont pas besoin de technologies sémantiques supplémentaires. Autres exemples: les secteurs des galeries, des musées, des bibliothèques ou des archives doivent se soumettre à des standards professionnels rigides avec des possibilités d’innovation limitées. En somme les secteurs qui se contentent d’utiliser un modèle standard existant ne font pas partie de notre marché à court terme. Nous ne mènerons pas de batailles perdues d’avance. A long terme, nous envisageons néanmoins une plateforme collaborative où pourra s’effectuer la traduction volontaire des modèles standards actuels en IEML.

Eliminons également le marché du commerce en ligne pour le moment. Ce secteur utilise bien des systèmes de catégories pour identifier les grands domaines (immobilier, voitures, électroménager, jouets, livres, etc…), mais la multitude des biens et services à l’intérieur de ces catégories assez larges est appréhendée par des systèmes de traitement automatique des langues naturelles ou d’apprentissage machine, plutôt que par des systèmes de métadonnées raffinés. Nous ne croyons pas à une adoption d’IEML à court terme dans le commerce en ligne.

Reste les domaines non-standards – qui n’ont pas de modèles tous faits – ou multi-standards – qui doivent construire des modèles hybrides ou des carrefours – et pour qui les approches statistiques sont utiles… mais pas suffisantes. Pensons par exemple à l’apprentissage collaboratif, à la santé publique, aux villes intelligentes, à la documentation du logiciel, à l’analyse de corpus complexes relevant de plusieurs disciplines, etc. 

La modélisation et la visualisation de systèmes complexes

Au sein des domaines non-standards, nous avons identifié les besoins suivants, qui ne sont pas comblés par les technologies sémantiques en usage aujourd’hui :

– La modélisation de systèmes humains complexes, où se rencontrent plusieurs “logiques” hétérogènes, C’est-à-dire des groupes obéissant à divers types de règles. Citons notamment les données produites par les processus de délibération, d’argumentation, de négociation et d’interaction techno-sociale.

– La modélisation de systèmes causaux, y compris les causalités circulaires et entrelacées.

– La modélisation de systèmes dynamiques au cours desquels les objets ou les actants se transforment. Ces dynamiques peuvent être de type : évolution, ontogénèse, hybridations successives, etc.

– L’exploration et la visualisation interactive 2D ou 3D de structures sémantiques dans des corpus immenses, de préférence sous une forme mémorable, c’est-à-dire facile à retenir. 

Dans les années qui viennent, INTLEKT se propose de modéliser de manière causale des systèmes dynamiques complexes impliquant la participation humaine et de donner accès à une exploration sensori-motrice mémorable de ces systèmes.

IEML étant une langue, tout ce qui peut se définir, se décrire et s’expliquer en langue naturelle peut être modélisé de manière formelle en IEML, fournissant ainsi un cadre qualitatif à des mesures et des calculs quantitatifs. On pourra faire du raisonnement automatique à partir de règles, de la prévision et de l’aide à la décision, mais le principal apport d’IEML sera d’augmenter les capacités, d’analyse, de synthèse, de compréhension mutuelle et de coordination dans l’action des communautés utilisatrices.

LES SIX PROCHAINS MOIS

La langue IEML existe déjà. Son élaboration a été financée à hauteur d’un million de dollars dans un cadre académique. Nous avons également un prototype de l’éditeur. Il nous faut maintenant passer à une version professionnelle de l’éditeur afin de pouvoir répondre aux besoins du marché identifié à la section précédente. Nous avons pour cela besoin d’un investissement privé d’environ 226 K US$, qui servira essentiellement au développement d’une plateforme d’édition collaborative pourvue de l’interface adéquate. Avis aux investisseurs. 

[this is the transcription of an interview that I gave to Daniela Fernandes — Para o Valor.Globo.com published 26/03/2021]

O filósofo francês Pierre Lévy, de 64 anos, começou a pesquisar as implicações culturais da comunicação digital há 30 anos, em uma época em que a web (o famoso www) ainda nem existia e apenas 1% da população estava conectada. Naquele momento, havia uma utopia do conhecimento sem fronteiras propiciado pelo ciberespaço, em que a informação sem limites e acessível a todos permitiria o progresso da humanidade. Lévy criou o conceito de “inteligência coletiva” – tema de um de seus livros publicado nos anos 1990 na França -, um princípio segundo o qual os conhecimentos individuais são somados e compartilhados livremente em escala planetária graças à internet.

Pesquisador da Universidade de Montreal na área de “humanidade digital” e ex-professor da Universidade de Ottawa, no Canadá, Lévy prevê criar uma empresa de inteligência artificial que visa melhorar a categorização de dados. O filósofo esteve no Brasil em 2016 e 2019 para participar do Fronteiras do Pensamento, que neste ano ocorre em formato digital. [Encurtei a introdução do jornalista. PL] A seguir, os principais trechos da entrevista concedida ao Valor:

Pierre Lévy in 2021

Valor: Nos anos 1990, quando o senhor publicou o livro “Inteligência Coletiva”, a comunicação digital era vista como uma ferramenta que permitiria a igualdade à informação e o progresso da humanidade. Mas, na prática, há também desinformação e polarização da sociedade. Como o senhor vê a evolução da internet?

Pierre Lévy: A inteligência coletiva facilitou e melhorou a comunicação entre as pessoas. Temos essa ferramenta extraordinária que é o Wikipedia, um belo exemplo de inteligência coletiva. O movimento do software livre é outro exemplo. Vários programas para computador criados pela rede GitHub, que reúne engenheiros de informática, são públicos e foram realizados de forma colaborativa. No mundo do trabalho e das associações, as mídias sociais são utilizadas de maneira eficiente. Há um real desenvolvimento da inteligência coletiva, da colaboração, da reflexão conjunta. Constrói-se uma memória comum em uma escala que era impossível antes da internet. Com cerca de 60% da população mundial hoje conectada, temos todas as qualidades, mas também os defeitos da humanidade que se refletem na inteligência coletiva: mentiras, incitação à violência, fanatismo e pornografia. Temos um espelho da humanidade. Tudo é lá. A internet nos reenvia uma outra imagem de quem somos.

Valor: Jeff Orlowski, diretor do documentário da Netflix “O Dilema das Redes”, diz que as plataformas de mídia social dispõem hoje de um poder enorme em relação à maneira como bilhões de pessoas vivem suas vidas. O filme mostra que as redes estão manipulando os usuários e afetando a democracia. Qual é o impacto disso?

Lévy: As gigantes da web, como Google, Amazon, Facebook, Apple e Microsoft, adquiriram um poder extraordinário, algo que eu não havia pensado anos atrás. Elas têm um monopólio sobre a memória mundial e registram quase tudo que acontece na internet. Além de serem as companhias mais ricas do mundo, faz tempo que elas ultrapassaram as empresas do setor de energia, têm todos os dados, as tecnologias mais potentes e oferecem as infraestruturas necessárias para a comunicação entre as pessoas. Elas estão desenhando uma nova forma de poder econômico, o que é evidente, mas sobretudo político. Muitas funções sociais e políticas, que são funções tradicionais dos Estados-nação, estão passando para essas companhias. Na minha avaliação, é uma nova forma de Estado, que eu denomino Estado-plataforma.

Valor: Como o Estado-plataforma afeta a sociedade?

Lévy: Entre todas as funções de um Estado, o controle do espaço público é provavelmente a que mais nos afeta diretamente. Quando fazemos uma pesquisa no Google, é a empresa quem decide o que aparece nas primeiras páginas da busca. Ninguém vai olhar a centésima página. Essas companhias podem fazer censura. Não no sentido de proibir totalmente, mas de maneira que o que aparece para os internautas é o que a plataforma decidiu. Twitter ou Facebook, particularmente implicados nessa noção de conversa pública, aplicam agora claramente a censura. É um poder que vai além do econômico. O Facebook, por exemplo, passou a verificar identidades. Google Maps vai funcionar como cadastro para pequenos países que não têm muitos recursos, administrando a cartografia do território. Amazon vai começar a certificar as transações financeiras de maneira mais eficiente do que os governos. E há o desenvolvimento das famosas criptomoedas (como os bitcoins). Facebook e outras companhias da web têm projetos de criar isso. Amazon e Facebook estão entrando na corrida espacial e devem lançar satélites para facilitar o acesso à internet. São essas companhias que terão a infraestrutura física de tudo isso.

Valor: É uma nova forma de poder político, em termos históricos?

Lévy: O Estado-nação surgiu no século XVI na Europa, com uma unidade cultural, uma língua comum, um controle da economia. Essa forma de organização econômica e política permitiu a países do continente de dominar o mundo. Mas o que vejo agora, em termos de desenvolvimento histórico, é uma nova forma política que se baseia na potência da memória e do cálculo dessas companhias da nuvem. Não há nenhuma burocracia governamental que seja tão eficiente como a potência de memória e de cálculo da Amazon, da Apple ou do Google.

Valor: O Estado-plataforma introduz, na sua avaliação, uma forma de domínio ideológico radicalmente novo graças às tecnologias da comunicação?

Lévy: Podemos voltar muito no tempo sobre as técnicas de dominação política. Na época da cultura oral, havia tribos e reinos, mas não existia burocracia. As primeiras civilizações, baseadas em palácios-templos, inauguram as primeiras formas de Estado. Depois vieram os impérios, que impuseram uma forma de domínio multinacional, multilinguístico, sem homogeneidade cultural. O Estado-nação introduziu um novo tipo de domínio político que implica uniformidade cultural por meio da educação e do serviço militar obrigatório. Com o surgimento das grandes plataformas digitais, como Google, o que aparece não é uma nação, e sim o princípio de um Estado.

Valor: Isso não é uma ameaça à democracia?

Lévy: Não se nos desligarmos afetivamente dessas grandes plataformas digitais. Há uma dimensão de vício no uso desses serviços. Quando alguém utiliza uma mídia social, espera sempre um retorno positivo. Há o receio de não ficar a par do que está acontecendo e de se sentir excluído. São sentimentos humanos, mas quando transpostos a esse espaço virtual, sobretudo em escala planetária, criam uma dependência. Esses novos “Estados” têm tentáculos no nosso cérebro porque somos vítimas de uma forma de vício. Cada vez que temos um “like” é como uma secreção de dopamina. Se não conseguirmos nos desligar dessa dependência, não vejo meios de se opor aos Estados-plataforma. Atualmente, até mesmo os governos se servem dessas empresas.

Valor: Os serviços digitais estão totalmente integrados ao dia a dia das pessoas. Continuaremos ameaçados de sofrer manipulação com a ascensão dos Estados-plataforma?

Lévy: Não mais do que antes. Sempre houve um domínio das elites políticas e econômicas sobre o restante da população. Mas não era nessa escala geográfica. Pessoalmente, como filósofo humanista que reflete sobre a história, penso que o melhor a ser feito é desenvolver a educação, o espírito crítico e a leitura para manter um certo distanciamento em relação às exigências da política, da economia e dos conflitos ideológicos.

Valor: Qual futuro os Estados-plataforma preparam à sociedade?

Lévy: Não tenho a pretensão de prever algo. Os Estados tradicionais estão se fundindo com as plataformas digitais por uma razão simples: elas têm meios bem mais potentes que os Estados tradicionais. Em relação às políticas de defesa nacional, os Estados precisam dessas companhias, por exemplo, para gerenciar os dados de campos de batalhas. Nas questões de segurança, as tecnologias da informação são utilizadas pelos serviços de inteligência. As políticas de saúde pública integram igualmente um imperativo de gestão de dados em massa de dossiês médicos. Captores colocados em pacientes coletam dados enviados às nuvens. A segurança, a saúde e a economia só podem, de agora em diante, ser administrados por meios ultrapoderosos propiciados pelas tecnologias da informação. Há também a opinião das pessoas, que pode ser controlada por meios sutis. É a direção na qual vamos. Já estamos nisso. O controle do espírito não é algo novo. Esquecemos que não faz muito
tempo que muitos eram influenciadas pela religião. O que é novo, agora, é o método.

Valor: As redes sociais favoreceram a ultrapolarização política da sociedade em vários países. Qual pode ser o impacto da influência dessas plataformas nas eleições presidenciais americanas no mês que vem?

Lévy: Já faz cerca de dez anos que o marketing personalizado é utilizado por todos os partidos políticos em países relativamente ricos para influenciar o voto das pessoas. Com as mídias sociais, surgiu a possibilidade de cálculos estatísticos direcionados às pessoas, com o envio de mensagens diferentes segundo a categoria social. Isso foi feito pelos republicanos e pelos democratas nos Estados Unidos e em países como o Canadá e a França. O escândalo da Cambridge Analytica, empresa de análise, que utilizou o vazamento de dados pessoais de milhões de usuários do Facebook para influenciar o voto das pessoas (nas eleições presidenciais americanas de 2016), foi algo marginal. O que é novo é a comunicação política baseada nos dados. A então candidata Hillary Clinton usou uma segmentação por sexo, idade e cor, enquanto a campanha de Trump aplicou os métodos da
Cambridge Analytica, baseados em uma categorização psicológica, que foi mais eficaz do que a categorização social. Mas, agora, todo mundo utiliza os dados em massa e as tecnologias digitais para influenciar o voto dos cidadãos.

Valor: O Facebook vem reforçando suas regras às vésperas da eleição americana: anunciou que suspenderá toda publicidade política após a votação e proibiu as páginas ligadas à teoria conspiratória QAnon, classificado como ameaça terrorista pelo FBI. A violência dos ataques nas mídias sociais durante a campanha presidencial pode levar a conflitos nas ruas?

Lévy: Todos têm medo de uma guerra civil nos Estados Unidos. A ala esquerda do Partido Democrata fez declarações que iam no mesmo sentido das feitas pelo presidente Donald Trump. Se o republicano ganhar, a eleição seria ilegítima ou haveria fraude. Há dos dois lados a ameaça de não aceitar o resultado da votação ou de contestá-lo. Tenho confiança de que os americanos não vão entrar em uma guerra civil. Espero não estar enganado, mas tudo é possível. Já houve uma guerra civil no século XIX no país, e na época não havia redes sociais.

Valor: A internet impulsionou a disseminação de “fake news” e de teorias da conspiração, como vemos na pandemia de covid-19. O senhor critica o fato de que as redes sociais estão apagando publicações, inclusive de presidentes como Donald Trump ou Jair Bolsonaro. Não deve haver limites para a liberdade de expressão, mesmo que isso represente desinformação?

Lévy: As mentiras, as manipulações e os exageros não começaram com a internet. O desenvolvimento da web coincidiu com o da educação. Em países pobres, é possível ter acesso a uma documentação pedagógica gratuita graças à internet. Desde o surgimento da internet, a humanidade continuou a evoluir. O desenvolvimento das tecnologias da informação acompanhou o desenvolvimento humano. Todos que dizem coisas contrárias à Organização Mundial da Saúde foram deletados do YouTube, mesmo que sejam médicos.

Valor: O senhor diz ter constatado que as teorias da conspiração são sempre as teses do outro que possui uma visão ideológica diferente. Se cada um pensar que é o dono da verdade, então quem teria legitimidade para arbitrar a respeito?

Lévy: Quem conhece a verdade? O astrônomo Galileu Galilei (1564-1642), que transformou radicalmente o conhecimento sobre o universo, era o único que dizia algo verdadeiro, mas foram necessários vários séculos para que todos concordassem com ele. Quem deve decidir se o que o outro diz é verdadeiro? As plataformas praticam abertamente a censura. Algumas coisas são censuradas e outras menos, como é o caso do antissemitismo. Acho que duas coisas deveriam ser apagadas nas mídias sociais: a incitação ao homicídio e o que é proibido pelas leis do país. Mas nem sempre a incitação ao homicídio é excluída.

Valor: Podemos dizer que a internet é tanto um instrumento de inteligência coletiva quanto de besteira coletiva?

Lévy: Ouço isso o tempo todo. As pessoas dizem que não se vê inteligência coletiva nas redes sociais, e sim besteira coletiva. Na realidade, a inteligência coletiva não é o contrário da besteira coletiva. Eu me refiro à capacidade das pessoas de compartilhar informações, de refletir e se coordenar. A comunidade científica é uma grande instituição de inteligência coletiva. A memória, a coordenação e a reflexão podem ser ampliadas. Isso não significa que não cometemos erros. Apesar de todos os efeitos negativos da utilização da internet, sua contribuição à inteligência coletiva permanece válida.

IEML est fondé sur les grandes découvertes de la linguistique du XXe siècle. Dans cette entrée de blog nous allons étudier successivement les héritages de Chomsky; de Saussure et de l’école structuraliste; de Tesnière et du modèle actantiel de la phrase; de Benveniste, Wittgenstein et Austin pour leurs solutions aux problèmes épineux de l’énonciation et de la pragmatique. Je conclurai en essayant de dissiper un des principaux malentendus au sujet d’IEML: ce n’est pas une langue “vraie” (une langue n’est ni vraie ni fausse, elle est conventionnelle), mais une langue claire.

[For an English version of this article see here.]

Fragonard La liseuse

L’héritage de Chomsky et les langages réguliers

Commençons par évoquer la dette d’IEML à l’égard de Noam Chomsky, un des géants de la linguistique et des sciences cognitives du XXe siècle. Pour le professeur du MIT, la capacité linguistique est un trait génétiquement déterminé de l’espèce humaine. Les langues, malgré leur diversité et leur évolution continuelle, partagent toutes la même “grammaire universelle” correspondant à cette habileté linguistique innée. Cette théorie expliquerait pourquoi les enfants apprennent spontanément et si vite à parler, sans qu’on ait besoin de leur donner des leçons de grammaire. Chomsky a exposé une version formelle – d’ailleurs contestée et plusieurs fois révisée – de la grammaire universelle. La découverte scientifique la plus précieuse de Chomsky est probablement sa théorie des langages réguliers : il a démontré qu’il existait une correspondance entre l’algèbre et la syntaxe formelle. La langue est donc en principe un objet calculable, au moins sur un plan syntaxique . Pour qu’une langue puisse être manipulée facilement par les ordinateurs, c’est-à-dire calculable, il faut qu’elle soit un langage régulier au sens de Chomsky: une sorte de code mathématique. Or les langues naturelles ne sont évidemment pas des langages réguliers. Les langages réguliers effectivement utilisés aujourd’hui sont des langages de programmation. Mais la “sémantique” des langages de programmation n’est autre que l’exécution des opérations qu’ils commandent. Aucun d’eux n’approche la capacité expressive d’une langue naturelle, qui permet de parler de tout et de rien et d’accomplir bien d’autres actes illocutoires que de donner des instructions à une machine. Notons au passage que Hjelmslev critiquait l’expression de « langue naturelle » à laquelle il préférait celle de langue philologique ou langue passe-partout. En effet, on peut tout dire en Espéranto, par exemple, bien que ce soit une langue construite et non pas naturelle. L’Espéranto est donc une langue philologique. Hélas, la sémantique de l’Espéranto n’est pas plus calculable que celle du Français ou de l’Arabe. A cause de leur irrégularité, les ordinateurs n’ont aujourd’hui accès aux langues philologiques que sur un mode statistique. C’est pourquoi notre âge numérique a besoin d’une langue philologique transparente aux algorithmes et donc régulière. IEML est la solution que j’ai trouvée au problème de la construction d’une langue philologique à la sémantique calculable. La calculabilité de sa sémantique n’est évidemment pertinente que s’il s’agit d’une langue philologique, permettant de « tout dire ». Et puisque la sémantique de cette langue devait être calculable, sa syntaxe devait a fortiori l’être aussi. C’est pourquoi IEML est un langage régulier au sens de Chomsky. Mais si le fait d’être un langage régulier était une condition nécessaire à la calculabilité de sa sémantique, ce n’en était pas une condition suffisante. Souvenons-nous que les langages réguliers actuellement en usage ont une sémantique restreinte : ce ne sont pas des langues philologiques. Comment conférer une sémantique philologique à un langage régulier ? Pour répondre à cette question, je me suis appuyé sur les enseignements de Saussure et de ses successeurs.

L’héritage de Saussure et le structuralisme

Selon Ferdinand de Saussure (1857-1913), un des pères de la linguistique contemporaine, les symboles linguistiques sont constitués de deux parties, le signifiant (une image acoustique ou visuelle) et le signifié (un concept ou une catégorie abstraite). Le rapport entre les deux parties du symbole est conventionnel ou arbitraire. Saussure a également montré que le plan du signifiant, ou la phonologie des langues, était basé sur un système de différences entre les sons, chaque langue ayant sa propre liste de phonèmes et surtout sa propre manière de disposer les seuils de passage entre deux phonèmes dans le continuum sonore. Un phonème n’existe pas de manière isolée, en dehors d’un éventail de variations, un peu comme les notes de musique n’existent que par rapport à un système musical. De la même manière, les signifiés ne sont pas des atomes de sens se suffisant à eux-mêmes mais correspondent à des positions dans des systèmes de différences : les paradigmes. La sémantique linguistique ne s’ancre donc pas dans des réalités naturelles fixes et indépendantes, mais dans un processus de comparaison, d’opposition, de différenciation et de renvois entre signifiés au sein d’une grille systémique bouclée sur elle-même, comme le sens d’un mot dans le dictionnaire est défini par d’autres mots qui, eux-mêmes, etc. Les travaux de Saussure ont été notamment poursuivis par Louis Hjemslev (1899-1965), qui a approfondi l’analyse du signe linguistique et a plaidé pour un maximum de rigueur épistémologique dans le traitement du langage, jusqu’à un idéal quasi-algébrique. Hjemslev a rebaptisé l’opposition entre signifiant et signifié en décrivant deux « plans » linguistiques celui de l’expression (le signifiant) et celui du contenu (le signifié). Chacun des deux plans est à son tour analysé en matière et forme. La matière de l’expression est de l’ordre du phénomène sensible, par exemple visuel ou sonore. Par contraste, la forme de l’expression désigne les unités abstraites qui résultent du découpage structurel des signifiants dans une langue donnée. Par exemple, le phonème « a » représente une forme bien déterminée qui s’oppose dans telle ou telle langue au phonème « o ». C’est ce qui permet en français, par exemple, de distinguer entre « bas » et « beau ». En revanche la forme « a » peut être remplie par un grand nombre de matières sonores distinctes selon les voix, les accents, etc. La matière est de l’ordre du continuum concret alors que la forme est de l’ordre du système d’oppositions abstrait. Il en est de même pour le contenu. Hjemslev a supposé qu’il existait un continuum du signifié, une sorte de magma abritant virtuellement l’ensemble des catégories possibles : la matière du contenu. Cette matière est découpée et organisée en paradigmes de manière différente pour chaque langue. En fin de compte, une langue quelconque organise une correspondance particulière entre forme de l’expression et forme du contenu. Le courant structuraliste initié par Saussure et poursuivi par Hjemslev a été prolongé par Julien Algirdas Greimas (1917-1992) et François Rastier (1945- ). Tout en maintenant vivante la tradition qui conçoit l’existence relativement autonome d’un monde des signifiés, ces auteurs ont notamment étendu l’analyse structurale du niveau des mots et des phrases jusqu’au niveau du texte, en particulier grâce à la notion d’isotopie. Revenons maintenant à notre problème : comment construire une langue qui soit simultanément philologique et régulière ? Non seulement les langues sont conventionnelles, mais elles ne peuvent pas ne pas l’être. La correspondance entre signifiant et signifié, ou expression et contenu, est arbitraire par nature. Puisque les langues sont nécessairement conventionnelles, rien n’interdit d’en construire une dont l’arrangement des signifiants soit de type “langage régulier”. Nous savons qu’un langage régulier possède une syntaxe calculable. Or la syntaxe régit les éléments signifiants de la langue, les phonèmes et leurs enchaînements, à plusieurs niveaux de complexité emboîtés. Puisqu’aussi bien les signifiants que les signifiés doivent être organisés par un système de différences, rien n’interdit non plus de donner  – par convention – à ce langage régulier un système de différences des signifiés (une forme du contenu) qui soit une fonction mathématique de celui des signifiants (la forme de l’expression). En accord avec les théories de Saussure et de ses successeurs, les unités de la langue IEML, à commencer par les morphèmes, mais aussi les unités lexicales, les phrases et les super-phrases sont organisées en paradigmes. Ces systèmes de variations sur fond de constantes – ou groupes de transformations – permettent aux unités linguistiques de s’entre-définir et de s’expliquer réciproquement. Or – en IEML – ce sont les mêmes paradigmes qui structurent l’expression et le contenu. Voici donc le principe de résolution de notre problème : dans un langage régulier dont le système de différences des signifiés est une fonction calculable de celui des signifiants, non seulement la syntaxe mais également la sémantique est calculable. C’est précisément le cas d’IEML, qui est donc une langue à la sémantique calculable !

L’héritage de Tesnière et la linguistique cognitive

Parmi toutes les fonctions du langage, l’une des plus importantes est de supporter la construction et la simulation de modèles mentaux [Je m’inspire ici notamment de l’étude de Philip Johnson-Laird, Mental Models, Harvard University Press, 1983]. L’architecture linguistique des modèles mentaux n’est évidemment pas exclusive de modes de représentation sensori-moteurs, et notamment visuels, qui peuvent se rapporter aussi bien à des mondes fictionnels qu’à la réalité vécue. Des linguistes comme Ronald Langacker (1942- ) et George Lakoff (1941- ), qui sont parmi les principaux chefs de file du courant de la linguistique cognitive, ont particulièrement étudié cette fonction de modélisation mentale. La capacité de représenter des « scènes » – à savoir des processus mis en oeuvre par des actants dans certaines circonstances – est une condition sine qua non du travail de modélisation accompli par le langage. Elle fonde la faculté narrative, puisqu’un récit peut être ramené à un enchaînement hypertextuel de scènes, moyennant certaines relations d’anaphore et d’isotopie. J’ajoute qu’en spécifiant les rapports entre processus et/ou entre actants, la scénographie linguistique fonde également la représentation des relations causales. Puisqu’une des missions d’IEML est de servir d’outil formel de modélisation, il doit non seulement organiser un morphisme entre sa sémantique et sa syntaxe, mais également systématiser et faciliter autant que possible la représentation des processus, des actants, des circonstances et de leurs interactions. Pour ce faire, IEML a intégré, avec quelques ajustements, le modèle actantiel de la phrase que Tesnière, préfigurant la linguistique cognitive, avait proposé dès le milieu du XXe siècle.

Cette image a un attribut alt vide ; le nom du fichier est stemmas_1.1.png
Figure 1: Exemple d’arbres de dépendance ou « stemmas » de Tesnière CC BY-SA 3.0, Wikimedia Commons.

En effet, outre le courant structuraliste, la grammaire d’IEML a aussi été largement influencée par l’oeuvre majeure de Lucien Tesnière (1893-1954). Ce linguiste français a été le premier à présenter une grammaire universelle fondée sur les arbres de dépendance, qui met en évidence le lien intime entre syntaxe et sémantique (voir la Figure 1). Bien que les deux systèmes aient été élaborés indépendamment, les arbres de dépendance de Tesnière sont proches des arbres syntaxiques de Chomsky. Tesnière a aussi proposé une théorie subtile de la translation entre les « parties du discours » que sont les verbes, noms, adverbes et adjectifs. Il a surtout développé le modèle actantiel de la phrase dont s’inspire la fonction syntagmatique d’IEML. La citation suivante, extraite de son oeuvre posthume Eléments de syntaxe structurale, explique bien le principe du modèle actantiel : « Le noeud verbal (…) exprime tout un petit drame. Comme un drame, en effet, il comporte (…) un procès et, le plus souvent, des acteurs et des circonstances. Le verbe exprime le procès. (…) Les actants sont des êtres ou des choses (…) participant au procès. (…) Les circonstants expriment les circonstances de temps, lieux, manière, etc. » [Lucien Tesnière, Eléments de syntaxe structurale, Klincksieck, Paris 1959: 102, Chapitre 48] Le modèle actantiel de Tesnière a notamment été repris et développé par deux importants linguistes contemporains, Igor Melchuk (1932- ) et Charles Fillmore (1929-2014). La grammaire des cas de Fillmore publiée en 1968, a été étendue dans les années 1980 à une conception quasi-encyclopédique de la sémantique linguistique notamment mise en oeuvre dans le projet FrameNet centré sur la langue anglaise et qui inspire plusieurs programmes d’intelligence artificielle. Les frames ou « cadres » en français décrivent la manière dont les mots conviennent les uns avec les autres et déterminent mutuellement leurs sens dans une phrase. Par exemple, lorsqu’on utilise le verbe « attaquer » à la voix active, le sujet grammatical est forcément un assaillant et l’objet grammatical une victime de l’attaque. L’approche adoptée par IEML est compatible avec les théories de Fillmore, les cas correspondant aux rôles syntagmatiques et l’équivalent des cadres étant les paradigmes de phrases. Quant à Igor Melchuk, sa contribution la plus originale concerne la morphologie, c’est-à-dire la structure des mots et leurs rapports. Il a en particulier décrit les fonctions lexicales qui règlent les collocations – c’est-à-dire les mots qui vont ou ne vont pas ensemble – et les relations sémantiques entre les unités lexicales d’une langue. Un exemple simple de fonction lexicale est « PLUS » comme dans : [PLUS (colline) = montagne] ou [PLUS (ruisseau) = rivière]. Les fonctions lexicales sont notamment utilisées pour construire des dictionnaires explicatifs et combinatoires (monolingues) et elles alimentent, comme les cadres de Fillmore, certains programmes de traitement automatique des langues naturelles. IEML intègre les principales fonctions lexicales mises en évidence par Melchuk, ce qui permet de composer facilement de nouveaux mots à partir des éléments du dictionnaire et d’expliciter formellement les relations sémantiques entre unités lexicales. Quant aux collocations selon Melchuk elles sont proches des cadres de Fillmore et sont – comme eux – traduites en IEML par des paradigmes de phrases. En somme, de nombreux linguistes ont souligné l’importance de la fonction modélisatrice du langage. Suivant leurs traces, IEML offre à ses locuteurs les outils grammaticaux nécessaires pour décrire des scènes et raconter des histoires. De plus, IEML permet de modéliser un domaine de connaissance spécialisé ou un champ sémantique particulier par la libre élaboration de terminologies (paradigmes de radicaux) et de phrases-cadres (paradigmes de phrases).

Austin, Wittgenstein et l’héritage pragmatique

La langue est une structure abstraite qui combine des paradigmes de morphèmes (atomes de sens indécomposables) et des règles de compositions des unités grammaticales (mots, phrases…) à partir des morphèmes. Par contraste, la parole – ou le texte – est une séquence de morphèmes particulière qui actualise le système de la langue. En ce sens, les terminologies et les phrases-cadres d’IEML appartiennent à une catégorie intermédiaire entre la langue et la parole. Ils font partie de la parole dans la mesure où ils sont librement créés à partir du dictionnaire de morphèmes initial et des règles de construction de syntagmes. Mais ils appartiennent encore à la langue puisque ce ne sont pas à proprement parler des énonciations en contexte. Ce n’est qu’au niveau de l’énonciation, en effet, que se déploient les actes de langages, c’est-à-dire la dimension pragmatique des langues. Or il ne s’agit pas de choisir entre la fonction modélisatrice ou représentative des langues, qui vient d’être évoquée à la section précédente, et leur fonction pratique, que nous allons survoler dans cette section. Bien au contraire : la fonction de représentation et la fonction pratique se soutiennent mutuellement. Sans modèle du monde, l’action n’a pas de sens et sans plongement dans quelque situation pratique, la représentation perd toute pertinence. Quoiqu’on puisse faire remonter la réflexion sur la puissance pratique du langage à la rhétorique antique ou aux plus anciennes réflexions de l’école confucéenne, je me limiterai ici à quelques grands auteurs : Emile Benvéniste pour l’étude de l’énonciation et de la fonction déictique, Ludwig Wittgenstein pour la question de la référence et des jeux de langage, John L. Austin pour la notion même de pragmatique linguistique. Relèvent de la pragmatique linguistique les actes accomplis dans le langage mais qui ont des conséquences extra-linguistiques, comme par exemple baptiser, interdire, condamner, etc. Puisqu’ils sont accomplis dans le langage, ces actes sont de nature symbolique. Ils sont par conséquent régis par des règles et accomplis par des « joueurs » qui tiennent des rôles déterminés. Une multitude de jeux de langage, selon l’expression de Wittgenstein, animent donc la dimension pragmatique qui s’ouvre avec l’énonciation. Une langue peut elle-même être assimilée à un système de règles ou à un jeu. Et si cette langue est philologique elle est capable à son tour de définir une multitude de langues restreintes, de systèmes de règles ou de jeux, qui sont autant de manières distinctes de l’utiliser dans la pratique. IEML étant une langue philologique, nous l’utiliserons non seulement pour modéliser un champ sémantique quelconque, représenter des scènes et raconter des histoires, mais aussi pour expliciter des jeux de langages dont nous formaliserons les règles, les rôles et les coups au moyen de terminologies et de phrases-cadres. Lorsqu’ils reconnaîtront les actes de langages accomplis par les locuteurs d’IEML, des algorithmes pourront déclencher automatiquement leurs conséquences extra-linguistiques et notamment calculer les nouveaux états des « parties » en cours. J’évoquerai ici quatre grands types d’actes de langage qui sont particulièrement pertinents pour IEML : la référence, le raisonnement, la communication sociale et les instructions données à des machines. La première fonction de l’énonciation est de faire référence à des objets non-linguistiques. Une de ses formes les plus évidentes est la distribution des rôles interlocutoires : les première, seconde ou troisième personnes indiquent qui parle, à qui et de quoi. Mentionnons également les possessifs (liés à la distribution des personnes grammaticales), les démonstratifs comme « ça, ici, là-bas », les adverbes comme « aujourd’hui », « demain », etc. Or un texte – ou un énoncé – ne permet pas d’interpréter les déictiques comme « je », « ça » ou « demain ». Seul l’événement d’une énonciation par quelqu’un, dans un contexte spatio-temporel d’interlocution défini, peut leur donner un contenu [« « Je » » signifie « la personne qui énonce la présente instance du discours contenant « je ». » (Emile Benveniste)] . Cette fonction référentielle du langage est particulièrement importante pour IEML, qui a pour vocation de catégoriser des données et donc – par nécessité – de les indexer. Aussi bien la distribution des rôles interlocutoires que la catégorisation des données peuvent se conformer à un grand nombre de jeux de référence distincts. Par exemple, pour interpréter un « nous » il faut connaître le système de distribution des personnes auquel il obéit : pluriel de majesté, chercheurs d’une même discipline, membres d’un tribunal, citoyens d’une nation en guerre…? D’autre part, la catégorisation des données en IEML prend un sens différent selon que l’indexation est faite par un algorithme ou par un humain. Dans le cas de l’indexation automatique, s’agit-il d’un algorithme statistique basé sur un corpus indexé manuellement ? Et dans ce dernier cas, indexé par qui, selon quels critères, etc. Dans le même ordre d’idée, il peut être utile de savoir si un texte est cité (encore un geste déictique) en tant que partie d’un corpus de référence, comme une autorité pour renforcer la crédibilité des idées de l’auteur, pour être critiqué, ou encore pour une autre raison. En somme, l’opération de référence est un acte de langage, cet acte relève d’une multitude de jeux possibles, et ces jeux peuvent être explicités en IEML. Le raisonnement est encore un autre type de jeu de langage modélisable en IEML. Citons dès maintenant, en suivant la typologie de Charles S. Peirce, (1) les divers genres de raisonnement déductifs, (2) les raisonnements inductifs – incluant les calculs statistiques – et (3) les raisonnements abductifs, qui construisent des modèles causaux d’un domaine ou d’un processus. On remarquera que le raisonnement suppose la plupart du temps la référence et que cette dernière est souvent faite pour appuyer le raisonnement. Les jeux de langage qui ont le plus été étudiés par les spécialistes de la pragmatique, à commencer par Austin et Searle, sont les jeux de communication sociale, qui comprennent par exemple les assertions, les questions, les ordres, les promesses, les remerciements, les nominations, etc. Mais nous pouvons ajouter à ce type de jeux les transactions, les contrats et tout ce qui relève des arrangements légaux et des échanges économiques, qui passent de plus en plus par des canaux électroniques et qui auraient avantage à être exprimés dans un langage transparent, univoque et calculable comme IEML. Finalement, puisque nous vivons dans un environnement de plus en plus robotisé, les instructions données à des machines, tout comme d’ailleurs les informations – parfois vitales – que les machines nous transmettent, font évidemment partie des actes de langage aux importantes conséquences extra-linguistiques. Parce que les ordinateurs peuvent décoder IEML et qu’IEML se traduit en langues naturelles, notre métalangage pourrait devenir le noyau logiciel d’une interface ubiquitaire et interopérable entre humains et machines.

Une image du monde ou une image de soi ?

Dans le Tractatus Logico Philosophicus, l’ouvrage de jeunesse qui l’a fait connaître, Wittgenstein examine à quelles conditions les propositions logiques présentent une image fidèle de la réalité. Le monde étant conçu par notre philosophe viennois comme « tout ce qui arrive », chaque fait ou événement devrait être représenté par une proposition dont la structure logico-grammaticale reflète la structure interne du fait. L’idée d’un langage parfait ou d’une langue transparente est souvent associée à cet idéal d’isomorphie entre les expressions du langage et les réalités qu’elles décrivent ou, en d’autres termes, entre la parole et sa référence. Rien n’est plus loin du projet d’IEML. Plutôt que de poursuivre la chimère au parfum vaguement totalitaire d’une langue de la vérité (la vérité se ramène à la correspondance entre parole et réalité), j’ai poursuivi un objectif moins contraignant et surtout plus atteignable : celui d’une langue de la clarté, aussi univoque et traductible que possible. A l’idéal d’une langue logique qui reflèterait des états de choses, j’ai substitué celui d’une langue philologique dont la forme algébrique de l’expression reflèterait la forme du contenu conceptuel : une langue qui serait une image d’elle-même avant d’être une image du monde. Par définition, cette correspondance interne ne relève pas du vrai et du faux mais de la convention utile. Quant au rapport d’IEML avec la réalité extralinguistique, elle relève d’une multitude de jeux de langages (je suis ici le Wittgenstein de la maturité, tel qu’il s’est exprimé dans les Philosophical Investigations), multitude qui englobe les diverses manières de découper, reconnaître et désigner des objets pertinents selon les contextes pratiques. Et grâce à la capacité de description universelle propre à toutes les langues philologiques, nous pouvons modéliser ces multiples jeux de langages en IEML. Cette approche respecte aussi bien la liberté que la créativité de ses locuteurs tout en autorisant ces derniers à se coordonner entre eux et avec les machines. Reprenons la classification des différents niveaux de la sémantique – linguistique, référentielle et illocutoire. Notre métalangage clarifie les relations entre signifiés et signifiants ainsi que les relations entre signifiés au point de pouvoir automatiser leur traitement. Le principal apport d’IEML se situe donc au niveau de la sémantique linguistique. Quant à la sémantique référentielle – le pointage vers des réalités extra-linguistiques – elle peut devenir plus précise dans la mesure où les différents modes de référence sont précisés en IEML. Enfin, la force illocutoire des énonciations, c’est-à-dire les « coups » qui sont joués dans une multitude de jeux de communication sociale, peuvent être reconnus par des algorithmes et traités en conséquence, à condition que les jeux en question aient préalablement été décrits en IEML. En somme, la formalisation de la sémantique linguistique nous offre la clé de la formalisation de la sémantique en général.

Brève bibliographie

  • Austin John L. How to Do Things with Words, Oxford University Press, Oxford, 1962
  • Benveniste Emile Problèmes de linguistique générale, Tomes 1 et 2, Gallimard, Paris, 1966-1974
  • Chomsky Noam New Horizons in the Study of Language and Mind, Cambridge University Press, Cambridge, 2000.
  • Chomsky Noam Syntaxic Structures, Mouton, La Hague et Paris, 1957.
  • Chomsky Noam ; Schützenberger, Marcel P. « The algebraic theory of context free languages », in Braffort, P. ; Hirschberg, D. : Computer Programming and Formal Languages, North Holland, Amsterdam, 118-161, 1963
  • Fillmore Charles “The Case for Case” (1968). In Bach and Harms (Ed.): Universals in Linguistic Theory. New York: Holt, Rinehart, and Winston, 1-88. (Tesnières y est cité à neuf reprises).
  • Fillmore Charles “Frame semantics” (1982). In Linguistics in the Morning Calm. Seoul, Hanshin Publishing Co., 111-137.
  • Hejlmslev Louis, Prolégomènes à une théorie du langageLa Structure fondamentale du langage, Paris, Éditions de minuit, coll. « Arguments », 2000
  • Johnson-Laird Philip, Mental Models, Harvard University Press, 1983
  • Lakoff George Women, Fire and Dangerous Things: What Categories Reveal About the Mind, University of Chicago Press, Chicago, USA, 1987.
  • Lakoff George, Johnson M., Metaphors We Live By, University of Chicago Press, Chicago, USA, 2003.
  • Langacker Ronald W., Foundations of Cognitive Grammar (2 volumes), Stanford University Press, Stanford, USA, 1987-1991.
  • Levy Pierre The Semantic Sphere / La sphère sémantique, Hermès-Lavoisier, Paris-London, 2011
  • Melchuk, Igor, « Actants in Semantics and Syntax. I. Actants in Semantics », Linguistics, 42: 1, 2004, 1-66
  • Melchuk Igor Aspects of the Theory of Morphology. Berlin—New York: Mouton de Gruyter, 2006. 615 pp
  • Peirce, C. S., The Essential Peirce, Selected Philosophical Writings, Volume 1 (1867–1893) and 2 (1893-1913) Nathan Houser and Christian J. W. Kloesel, eds., Indiana University Press, Bloomington and Indianapolis, IN, 1992-1998.
  • Saussure Ferdinand de Cours de Linguistique générale, Payot, Paris, 1916.
  • Searle John Speech Acts, Cambridge University Press, London, 1969.
  • Searle John Intentionality, Cambridge University Press, London, 1983.
  • Tesnière Lucien Eléments de Syntaxe structurale Klincksieck, Paris, 1959 (posthumous)
  • Wittgenstein Ludwig Tractatus Logico Philosophicus, Routledge and Kegan Paul Ltd, London, 1961.
  • Wittgenstein Ludwig Philosophical Investigations, Blackwell, Oxford, 1953.

Today, artificial intelligence is divided between two major trends: symbolic and statistical. The symbolic branch corresponds to what has been successively called in the last 70 years semantic networks, expert systems, semantic web and more recently, knowledge graphs. Symbolic AI codes human knowledge in the form of networks of relationships between concepts ruled by models and ontologies which give leverage to automatic reasoning. The statistical branch of AI trains algorithms to recognize visual, linguistic or other forms from large masses of data, relying on neural models roughly imitating the learning mode of the brain. Neuro-mimetic artificial intelligence has existed since the beginnings of computer science (see the work of McCulloch and von Foerster) but has only become useful because of the increase in computing power available since 2010. In the early 2020s, these two currents are merging according to a hybrid or neuro-symbolic model which seems very promising. Though many problems still remain, in terms of the consistency and interoperability of metadata.

Big tech companies and a growing number of scientific, economic and social sectors use knowledge graphs. Despite the availability of the WWW Consortium metadata standards for marking classifications and ontologies (RDF, OWL) the different sectors (see the slide below) do not communicate with each other and – even worse – divergent systems of categories and relationships are most often in use within the same domain. The interoperability of metadata standards – such as RDF – only addresses the compatibility of digital files. It should not be confused with true semantic interoperability, which addresses concept architectures and models. In reality, the problem of semantic interoperability has yet to be solved in 2021, and there are many causes for the opacity that plagues digital memory. Natural languages are multiple, informal, ambiguous and changing. Cultures and disciplines tend to divide reality in different ways. Finally, often inherited from the age of print, the numerous metadata systems in place to classify data are incompatible like thesauri, documentary languages, ontologies, taxonomies, folksonomies, sets of tags or hashtags, keywords, etc.

The Conundrum of Semantic Interoperability

There is currently no way to code linguistic meaning in a uniform and computable way, the way we code images using pixels or vectors for instance. To represent meaning, we are still using natural languages which are notoriously multiple, changing and ambiguous. With the notable exception of number notation and mathematical codes, our writing systems are primarily designed to represent sounds. Their representation of categories or concepts is indirect (characters → sound → concepts) and difficult for computers to grasp. Computers can handle syntax (the regular arrangement of characters), but their handling of semantics remains imperfect and laborious. Despite the success of machine translation (Deep L, Google translate) and automatic text generation (GPT3), computers don’t really understand the meaning of the texts they read or write.

Now, how can we resolve the problem of semantic interoperability and progress towards a thorough automatic processing of meaning? Many advances in computer science come from the invention of a relevant coding system making the coded object (number, image, sound, etc.) easily computable. The goal of our company INTLEKT Metadata Inc. has been to make concepts, categories or linguistic meaning systematically computable. In order to solve this problem, we have designed the Information Economy MetaLanguage: IEML. This metalanguage has a compact dictionary of less than 5000 words. IEML words are organized by subject-oriented paradigms and visualized as keyboards. The grammar of this metalanguage is completely regular and embedded in the IEML editor. Thank to this grammar, complex concepts and relations can be recursively constructed by combining simpler ones. It is not a super-ontology (like Cyc) but a programmable language (akin to a computable Esperanto) able to translate any ontology and to connect any possible categories. By using such a semantic code, artificial intelligence could take a giant step forward feeding collective intelligence.  Public health data from all countries would not only be able to communicate with each other, but could also harmonize with economic and social data. Occupational classifications and different international labour market statistics would automatically translate into each other. The AI of smart contracts, international e-commerce and the Internet of Things would exchange data and execute instructions based on automatic reasoning. Government statistics, national libraries, major museums and digital humanities research would feed into each other. On the machine learning side, we would reach a system of uniform and precise labels and annotations that would help AI to become more ethical, transparent, and efficient. A common semantic code would make it finally possible to achieve a de-fragmentation of the global memory and an integration of symbolic and statistical AI. The only price to pay for reaching neuro-symbolic collective intelligence would be a concerted effort for training specialists to translate metadata into IEML.

Check our prototype: https://dev.intlekt.io/

  • Once you are on the site, on the top right you can choose between french and english
  • “USL” (Uniform Semantic Locator) allows the search for words and paradigms in the dictionary
  • “Tags” gives you some examples of USLs groups by domain
  • If you are in “USL” the search for IEML expressions (instead of natural language translations) is done by typing * at the beginning of the query
  • Type: choose “all”
  • Class: filters nouns verbs or auxiliaries
  • Cardinality: choose “root” paradigms (big tables, or multi-tables paradigms), or the (small) tables, or singular = individual words. It is recommended to explore the dictionary by “roots”
  • When you click on a search result, the corresponding paradigm appears on the right.
  • The right panel present certain relations according to the selected words.

IEML is patented (provisional: US 63/124,924) and belongs to INTLEKT Metadata Inc.

Vassili Kandinsky: Circles in a Circle

A Scientific Language

IEML is an acronym for Information Economy MetaLanguage. IEML is the result of many years of fundamental research under the direction of Pierre Lévy, fourteen years of which were funded by the Canadian federal government through the Canada Research Chair in Collective Intelligence at the University of Ottawa (2002-2016). In 2020, IEML is the only language that has the following three properties:

– it has the expressive power of a natural language;

– it has the syntax of a regular language;

– its semantics is unambiguous and computable, because it is aligned with its syntax.

In other words, it is a “well-formed symbolic system”, which comprises a bijection between a set of relations between signifieds, or meanings (a language) and a set of relations between signifiers (an algebra) and which can be manipulated by a set of symmetrical and automatic operations. 

On the basis of these properties, IEML can be used as a concept coding system that solves the problem of semantic interoperability in an original way, lays the foundations for a new generation of artificial intelligence and allows collective intelligence to be reflexive. IEML complies with Web standards and can be exported in RDF. IEML expressions are called USLs (Uniform Semantic Locators). They can be read and translated into any natural language. Semantic ontologies – sets of IEML expressions linked by a network of relations – are interoperable by design. IEML provides the coordinate system of a common knowledge base that feeds both automatic reasoning and statistical calculations. In sum, IEML fulfills the promise of the Semantic Web through its computable meaning and interoperable ontologies. IEML’s grammar consists of four layers: elements, words, sentences and texts. Examples of elements and words can be found at https://dev.intlekt.io/.

Elements

The semantic elements are the basic building blocks, or elementary concepts, from which all language expressions are composed. A dictionary of about 5000 elements translated into natural languages is given with IEML and shared among all its users. Semantic interoperability comes from the fact that everyone shares the same set of elements whose meanings are fixed. The dictionary is organized into tables and sub-tables related to the same theme and the elements are defined reciprocally through a network of explicit semantic relations. IEML allows the design of an unlimited variety of concepts from a limited number of elements. 

Exemple of an elements paradigm in the IEML dictionary

The user does not have to worry about the rules from which the elements are constructed. However, they are regularly generated from six primitive symbols forming the “layer 0” of the language, and since the generative operation is recursive, the elements are stratified on six layers above layer 0.

Words

Using the elements dictionary and grammar rules, users can freely model a field of knowledge or practice within IEML. These models can be original or translate existing classifications, ontologies or semantic metadata.

The basic unit of an IEML sentence is the word. A word is a pair composed of two small sets of elements: the radical and the inflection. The choice of radical elements is free, but inflection elements are selected from a closed list of elements tables corresponding to adverbs, prepositions, postpositions, articles, conjugations, declensions, modes, etc. (see “auxiliary morphemes” in https://dev.intlekt.io/)

Each word or sentence corresponds to a distinct concept that can be translated, according to its author’s indications and its grammatical role, as a verb (encourage), a noun (courage), an adjective (courageous) or an adverb (bravely). 

Sentences 

The words are distributed on a grammatical tree composed of a root (verbal or nominal) and eight leaves corresponding to the roles of classical grammar: subject, object, complement of time, place, etc. 

The nine grammatical roles

Nine grammatical roles

The Root of the sentence can be a process (a verb), a substance, an essence, an affirmation of existence… 

The Initiator is the subject of a process, answering the question “who?” He can also define the initial conditions, the first motor, the first cause of the concept evoked by the root.

The Interactant corresponds to the object of classical grammar. It answers the question “what”. It also plays the role of medium in the relationship between the initiator and the recipient. 

The Recipient is the beneficiary (or the victim) of a process. It answers the questions “for whom, to whom, towards whom?”. 

The Time answers the question “when?”. It indicates the moment in the past, the present or the future and gives references as to anteriority, posteriority, duration, date and frequency. 

The Place answers the question “where?”. It indicates the location, spatial distribution, pace of movement, paths, paths, spatial relationships and metaphors. 

The Intention answers the question of finality, purpose, motivation: “for what”, “to what end?”It concerns mental orientation, direction of action, pragmatic context, emotion or feeling.

The Manner answers the questions “how?” and “how much?”. It situates the root on a range of qualities or on a scale of values. It specifies quantities, gradients, measurements and sizes. It also indicates properties, genres and styles.

The Causality answers the question “why? It specifies logical, material and formal determinations. It describes causes that have not been specified by the initiator, the interactant or the recipient: media, instruments, effects, consequences. It also describes the units of measurement and methods. It may also specify rules, laws, reasons, points of view, conditions and contracts.

For example: Robert (initiator) offers (root-process) a (interactant) gift to Mary (recipient) today (time) in the garden (place), to please her (intention), with a smile (manner), for her birthday (causality). 

Junctions 

IEML allows the junction of several words in the same grammatical role. This can be a logical connection (and, or inclusive or exclusive), a comparison (same as, different from), an ordering (larger than, smaller than…), an antinomy (but, in spite of…), and so on.

Layers of complexity

Grammatical roles of a complex sentence

A word that plays one of the eight leaf roles at complexity layer 1 can play the role of secondary root at a complexity layer 2, and so on recursively up to layer 4.

Literals

IEML strictly speaking enables only general categories or concepts to be expressed. It is nevertheless possible to insert numbers, units of measurement, dates, geographical positions, proper names, etc. into a sentence, provided they are categorized in IEML. For example t.u.-t.u.-‘. [23] means ‘number: 23’. Individual names, numbers, etc. are called literals in IEML.

Texts 

Relations 

A semantic relationship is a sentence in a special format that is used to link a source node (element, word, sentence) to a target node. IEML includes a query language enabling easy programming of semantic relationships on a set of nodes. 

By design, a semantic relationship makes the following four points explicit.

1. The function that connects the source node and the target node.

2. The mathematical form of the relation: equivalence relationship, order relationship, intransitive symmetrical relationship or intransitive asymmetrical relationship.

3. The kind of context or social rule that validates the relationship: syntax, law, entertainment, science, learning, etc.

4. The content of the relationship: logical, taxonomic, mereological (whole-part relationship), temporal, spatial, quantitative, causal, or other. The relation can also concern the reading order or the anaphora.

The (hyper) textual network

An IEML text is a network of semantic relationships. This network can describe linear successions, trees, matrices, cliques, cycles and complex subnetworks of all types.

An IEML text can be considered as a theory, an ontology, or a narrative that accounts for the dataset it is used to index.

We can define a USL as an ordered (normalized) set of triples of the form : (a source node, a target node, a relationship sentence).  A set of such triples describes a semantic network or IEML text. 

The following special cases should be noted:

– A network may contain only one sentence.

– A sentence may contain only one root to the exclusion of other grammatical roles.

– A root may contain only one word (no junction).

– A word may contain only one element.

******* 

In short, IEML is a language with computable semantics that can be considered from three complementary points of view: linguistics, mathematics and computer science. Linguistically, it is a philological language, i.e. it can translate any natural language. Mathematically, it is a topos, that is, an algebraic structure (a category) in isomorphic relation with a topological space (a network of semantic relations). Finally, on the computer side, it functions as the indexing system of a virtual database and as a programming language for semantic networks.

L’Ecole d’Athènes par Raphael

Un langage scientifique

IEML est un acronyme pour Information Economy MetaLanguage ou, en français : le métalangage de l’économie de l’information. IEML est le fruit de trente ans de recherche fondamentale sous la direction de Pierre Lévy dont quatorze ans ont été financés par le gouvernement fédéral canadien dans le cadre de la Chaire de Recherche du Canada en Intelligence Collective à l’Université d’Ottawa (2002-2016). IEML est en 2020 le seul langage qui possède les trois propriétés suivantes :

  • il a la puissance d’expression d’une langue naturelle ;
  • il possède la syntaxe d’un langage régulier ;
  • sa sémantique est univoque et calculable, parce qu’elle est alignée sur sa syntaxe.

En d’autres termes, c’est un « système symbolique bien formé », qui comporte une bijection entre un ensemble de relations entre signifiés (une langue) et un ensemble de relations entre signifiants (une algèbre) et qui peut être manipulé par un ensemble d’opérations symétriques et automatisables.

Sur la base de ces propriétés, on peut utiliser IEML comme un système de codage des concepts qui résoud de manière originale le problème de l’interopérabilité sémantique, pose les bases d’une nouvelle génération d’intelligence artificielle et autorise une réflexivité de l’intelligence collective. IEML respecte les standards du Web et s’exporte en RDF. Les expressions IEML sont appelées des USLs (Uniform Semantic Locators). Elles se lisent et se traduisent dans n’importe quelle langue naturelle. Les ontologies sémantiques – ensembles d’expressions IEML liés par un réseau de relations – sont interopérables par construction. IEML fournit le système de coordonnées d’une base de connaissances commune qui alimente aussi bien les raisonnements automatiques que les calculs statistiques. En somme, IEML accomplit la promesse du Web sémantique grâce à sa signification calculable et à ses ontologies inter-opérables. La grammaire d’IEML se décompose en trois couches : les éléments, les mots, les phrases et les textes. On trouvera des exemples d’éléments et de mots à l’adresse https://dev.intlekt.io/.

Les éléments

Les éléments sont les briques de base, ou concepts élémentaires, à partir desquelles toutes les expressions du langage sont composées. Un dictionnaire d’environ 5000 éléments traduits en langues naturelles est donné avec le langage et partagé entre tous ses utilisateurs. L’inter-opérabilité sémantique vient du fait que tout le monde partage le même ensemble d’éléments dont les sens sont fixés. Le dictionnaire est organisé en tables et sous-tables se rapportant à un même thème et les éléments se définissent réciproquement grâce à un réseau de relations sémantiques explicites. IEML autorise la conception d’une variété illimitée de concepts à partir d’un nombre limité d’éléments.

Exemple d’une table d’éléments

L’utilisateur n’a pas à se soucier des règles à partir desquelles les éléments sont construits. Sachons toutefois qu’ils sont engendrés de manière régulière à partir de six symboles primitifs qui forment la couche 0 du langage et que, l’opération générative étant récursive, les éléments s’étagent sur six couches au-dessus de la couche zéro.

Les mots  

A partir du dictionnaire des éléments et des règles de grammaire, les utilisateurs peuvent librement modéliser un domaine de connaissance ou de pratique en IEML. Ces modèles peuvent être originaux ou traduire des métadonnées sémantiques existantes. 

L’unité de base des phrases est le mot. Un mot est un couple composé de deux petits ensembles d’éléments : le radical et la flexion. Le choix des éléments de radical est libre mais les éléments de flexion sont sélectionnés dans une liste fermée de tables d’éléments correspondant à des adverbes, prépositions, postpositions, articles, conjugaisons, déclinaisons, modes, etc. (voir les « morphèmes auxiliaires » dans https://dev.intlekt.io/)

Chaque mot correspond à un concept distinct qui pourra se traduire, selon les indications de son auteur et son rôle grammatical, comme un verbe (encourager), un nom (courage), un adjectif (courageux) ou un adverbe (courageusement). 

Les phrases

Les mots se distribuent sur un arbre syntagmatique composé d’une racine (verbale ou nominale) et de huit feuilles correspondant aux rôles de la grammaire classique : sujet, objet, complément de temps, de lieu, etc.

Les neuf rôles grammaticaux

Les neuf rôles grammaticaux

  • La racine de la phrase peut être un process (un verbe), une substance, une essence, l’affirmation d’une existence… 
  • L’initiateur est le sujet d’un process. Il répond à la question « qui? ». Il peut aussi définir les conditions initiales, le premier moteur, la cause première du concept évoqué par la phrase.
  • L’interactant correspond à l’objet de la grammaire classique. Il répond à la question « quoi? ». Il joue aussi le rôle de médium dans la relation entre l’initiateur et le destinataire. 
  • Le destinataire est le bénéficiaire (ou la victime) d’un process. Il répond aux questions « pour qui, à qui, envers qui? » 
  • Le temps répond à la question « quand? ». Il indique le moment dans le passé, le présent, ou le futur et donne des repères quant à l’antériorité, la postériorité, la durée, la date, la fréquence. 
  • Le lieu répond à la question « où? ». Il indique la localisation, la distribution dans l’espace, l’allure du mouvements, les trajets, les chemins, les relations et métaphores spatiales. 
  • L’intention répond à la question de la finalité, du but, de la motivation : « pour quoi? » « A quelle fin? » Il concerne l’orientation mentale, la direction de l’action, le contexte pragmatique, l’émotion ou le sentiment.
  • La manière répond aux questions « comment? » et « combien? ». Elle situe la phrase sur une gamme de qualités ou sur une échelle de valeurs. Elle spécifie les quantités, gradients, mesures et tailles. Elle indique aussi les propriétés, les genres et les styles.
  • La causalité répond à la question « pourquoi? ». Elle précise les déterminations logiques, matérielles et formelles. Elle décrit les causes qui n’ont pas été spécifiées par l’initiateur, l’interactant ou le destinataire : médias, instruments, effets, conséquences. Elle décrit également les unités de mesure et les méthodes. Elle peut également spécifier les règles, lois, raisons, points de vue, conditions et contrats.

Par exemple : Robert (initiateur) offre (racine-process) un cadeau (interactant) à Marie (destinataire) aujourd’hui (temps) dans le jardin (lieu), pour lui faire plaisir (intention), en souriant (manière), pour son anniversaire (causalité).

Les jonctions 

IEML autorise la jonction de plusieurs mots dans le même rôle syntagmatique. Il peut s’agir d’une connexion logique (et, ou inclusif ou bien exclusif), d’une comparaison (même que, différent de), d’un rangement (plus grand que, plus petit que…), d’une antinomie (mais, malgré…), etc.

Les couches de complexité 

Les rôles grammaticaux d’une phrase complexe

Un mot qui joue l’un des huit rôles de feuille dans la couche de complexité 1 peut jouer le rôle de racine secondaire dans la couche de complexité 2, et ainsi de suite récursivement jusqu’à la couche 4.

Les littéraux

IEML stricto sensu ne permet d’exprimer que des catégories ou des concepts généraux. Il est néanmoins possible d’insérer dans une phrase des nombres, des unités de mesure, des dates, des positions géographiques, des noms propres et autres à condition de les catégoriser en IEML. Par exemple t.u.-t.u.-‘ [23] signifie « nombre : 23 ». Les noms d’individus, les nombres, etc. sont appelés littéraux en IEML.

Les textes 

Les relations 

Une relation sémantique est une phrase d’un format spécial qui sert à lier un noeud de départ (élément, mot, phrase) à un noeud d’arrivée. IEML inclut un langage de requête permettant de programmer facilement des relations sémantiques sur un ensemble de noeuds. 

Par construction, une relation sémantique explicite les quatre points qui suivent.

  1. La fonction qui relie le noeud de départ et le noeud d’arrivée.
  2. La forme mathématique de la relation : relation d’équivalence, relation d’ordre, relation symétrique intransitive ou relation asymétrique intransitive.
  3. Le genre de contexte ou de règle sociale qui valide la relation : syntaxique, légal, ludique, scientifique, pédagogique, etc.
  4. Le contenu de la relation : logique, taxinomique, méréologique (rapport tout-partie), temporelle, spatiale, quantitative, causale ou autre. La relation peut également concerner l’ordre de lecture des phrases ou l’anaphore.

Le réseau (hyper) textuel 

Un texte IEML est un réseau de relations sémantiques. Ce réseau peut décrire des successions linéaires, des arbres, des matrices, des cliques, des cycles et des sous-réseaux complexes de tous types.

Un texte IEML peut être considéré comme une théorie, une ontologie ou un récit censé rendre compte de l’ensemble de données qu’il sert à indexer.

Nous pouvons définir un USL comme un ensemble ordonné (normalisé) de triplets de la forme : (un noeud de départ, un noeud d’arrivée, un noeud de relation). Un tel ensemble de triplets décrit un réseau sémantique ou texte IEML. 

On notera les cas particuliers suivants :

  • Le réseau, ou texte, peut ne contenir qu’une seul phrase.
  • La phrase peut ne contenir qu’une racine à l’exclusion des autres rôles grammaticaux.
  • La racine peut ne contenir qu’un mot (pas de jonction).
  • Le mot peut ne contenir qu’un seul élément.

*******

En somme, IEML est une langue à la sémantique calculable qui peut être considérée de trois points de vue complémentaires : linguistique, mathématique et informatique. Sur le plan linguistique, il s’agit d’une langue philologique, c’est-à-dire qu’elle peut traduire n’importe quelle langue naturelle. Sur le plan mathématique, c’est un topos, c’est à dire une structure algébrique (une catégorie) en rapport d’isomorphisme avec un espace topologique (un réseau de relations sémantiques). Enfin, sur le plan informatique, elle fonctionne comme le système d’indexation d’une base de données virtuelle et comme un langage de programmation de réseaux sémantiques.

Plus de 60% de la population humaine est connectée à l’Internet, la plupart des secteurs d’activité ont basculé dans le numérique et le logiciel pilote l’innovation. Or les normes et protocoles de l’Internet ont été inventés à une époque où moins d’un pour cent de la population était connectée. Il est temps d’utiliser les flots de données, la puissance de calcul disponible et les nouvelles possibilités de communication interactive au service du développement humain… et de la solution des graves problèmes auxquels nous sommes confrontés. C’est pourquoi je vais lancer bientôt un projet international – comparable à la construction d’un cyclotron ou d’un voyage vers Mars – autour d’une transcroissance de l’Internet au service de l’intelligence collective.

Saturne (photo Voyager)

Ce projet vise plusieurs objectifs interdépendants : 

  • Décloisonner la mémoire numérique et assurer son interopérabilité sémantique (linguistique, culturelle et disciplinaire).
  • Ouvrir les modes d’indexation et maximiser la diversité des interprétations de la mémoire numérique.
  • Fluidifier la communication entre les machines, mais aussi entre les humains et les machines afin d’assurer notre maîtrise collective sur l’internet des choses, les villes intelligentes, les robots, les véhicules autonomes, etc.
  • Etablir de nouvelles formes de modélisation et d’observation réflexive de l’intelligence collective humaine sur la base de notre mémoire partagée.

IEML

Le fondement technique de ce projet est IEML (Information Economy MetaLanguage), un système de métadonnées sémantiques que j’ai inventé, notamment grâce au soutien du gouvernement fédéral canadien. IEML possède :

  • la puissance d’expression d’une langue naturelle, 
  • la syntaxe d’un langage régulier, 
  • une sémantique calculable alignée sur sa syntaxe.

IEML s’exporte en RDF et il est basé sur les standards du Web. Les concepts IEML sont appelés des USLs (Uniform Semantic Locators). Ils se lisent et se traduisent dans n’importe quelle langue naturelle. Les ontologies sémantiques  – ensembles d’USLs liés par un réseau de relations – sont interopérables par construction. IEML établit une base de connaissances virtuelle qui alimente aussi bien les raisonnements automatiques que les calculs statistiques. En somme, IEML accomplit la promesse du Web sémantique grâce à sa signification calculable et à ses ontologies inter-opérables.

Pour une courte description de la grammaire d’IEML cliquez

Intlekt

Le système des URL et la norme http ne deviennent utiles que grâce à un navigateur. De la même manière, le nouveau système d’adressage sémantique de l’Internet basé sur IEML nécessite une application particulière, nommée Intlekt, dont le chef de projet technique est Louis van Beurden. Intlekt est une plateforme collaborative et distribuée qui supporte l’édition de concepts, la curation de données et de nouvelles formes de recherche, de fouille et de visualisation de données. 

Intlekt permet d’éditer et publier des ontologies sémantiques – ensembles de concepts en relation – liés à un domaine de pratique ou de connaissance. Ces ontologies peuvent être originales ou traduire des métadonnées sémantiques existantes telles que : thésauri, langages documentaires, ontologies, taxonomies SKOS, folksonomies, ensembles de tags ou de hashtags, mots-clés, têtes de colonnes et de rangées, etc. Les ontologies sémantiques publiées augmentent un  dictionnaire de concepts, que l’on peut considérer comme une méta-ontologie ouverte

Intlekt est également un outil de curation de données. Il permet d’éditer, d’indexer en IEML et de publier des collections de données qui viennent alimenter une base de connaissance commune. A terme, on pourra utiliser des algorithmes statistiques pour automatiser l’indexation sémantique des données.

Enfin, Intlekt exploite les propriétés d’IEML pour autoriser de nouvelles formes de search, de raisonnement automatique et de simulation de systèmes complexes.

Des applications particulières peuvent être imaginées dans de nombreux domaines comme:

  • la préservation des héritages culturels, 
  • la recherche en sciences humaines et les humanités numériques, 
  • l’éducation et la formation
  • la santé publique, 
  • la délibération démocratique informée, 
  • les transactions commerciales, 
  • les contrats intelligents, 
  • l’Internet des choses, 
  • etc.

Et maintenant?

Où en sommes-nous de ce projet à l’été 2020 ? Après de nombreux essais qui se sont étalés sur plusieurs années, la grammaire d’IEML s’est stabilisée ainsi que la base de morphèmes d’environ 5000 unités qui permet de construire à volonté n’importe quel concept. J’ai testé positivement les possibilités expressives du langage sur plusieurs domaines des sciences humaines et des sciences de la terre. Néanmoins, au moment où j’écris ces lignes, le dernier état de la grammaire n’est pas encore implémenté. De plus, pour obtenir une version d’Intlekt qui supporte les fonctions d’édition d’ontologies sémantiques, de curation de données et de fouille décrites plus haut, il faut compter une équipe de plusieurs programmeurs travaillant pendant un an. Dans les mois qui viennent, les amis d’IEML vont s’activer à réunir cette masse critique. 

Rejoignez-nous!

Pour plus d’information, consultez: https://pierrelevyblog.com/my-research-in-a-nutshell/ et https://pierrelevyblog.com/my-research-in-a-nutshell/the-basics-of-ieml/

More than 60% of the human population is connected to the Internet, most sectors of activity have switched to digital and software drives innovation. Yet Internet standards and protocols were invented at a time when less than one percent of the population was connected. It is time to use the data flows, the available computing power and the possibilities of interactive communication for human development… and to solve the serious problems we are facing. That is why I will launch soon a major international project – comparable to the construction of a cyclotron or a voyage to Mars – aiming at an augmentation of the Internet in the service of collective intelligence.

This project has several interrelated objectives: 

  • Decompartmentalize digital memory and ensure its semantic (linguistic, cultural and disciplinary) interoperability.
  • Open up indexing modes and maximize the diversity of interpretations of the digital memory.
  • Make communication between machines, but also between humans and machines, more fluid in order to enforce our collective mastery of the Internet of Things, intelligent cities, robots, autonomous vehicles, etc.
  • Establish new forms of modeling and reflexive observation of human collective intelligence on the basis of our common memory.

IEML

The technical foundation of this project is IEML (Information Economy MetaLanguage), a semantic metadata system that I invented with support from the Canadian federal government. IEML has :

  • the expressive power of a natural language, 
  • the syntax of a regular language, 
  • calculable semantics aligned with its syntax.

IEML is exported in RDF and is based on Web standards. IEML concepts are called USLs (Uniform Semantic Locators). They can be read and translated into any natural language. Semantic ontologies – sets of USLs linked by a network of relationships – are interoperable by design. IEML establishes a virtual knowledge base that feeds both automatic reasoning and statistical calculations. In short, IEML fulfills the promise of the Semantic Web through its computable meaning and interoperable ontologies.

For a short description of the IEML grammar, click here.

Intlekt

The URLs system and the http standard only become useful through a browser. Similarly, the new IEML-based semantic addressing system for the Internet requires a special application, called Intlekt, whose technical project manager is Louis van Beurden. Intlekt is a collaborative and distributed platform that supports concept editing, data curation and new forms of search, data mining and data visualization. 

Intlekt empowers the edition and publishing of semantic ontologies – sets of linked concepts – related to a field of practice or knowledge. These ontologies can be original or translate existing semantic metadata such as: thesauri, documentary languages, ontologies, SKOS taxonomies, folksonomies, sets of tags or hashtags, keywords, column and row headings, etc. Published semantic ontologies augment a dictionary of concepts, which can be considered as an open meta-ontology

Intlekt is also a data curation tool. It enables editing, indexing in IEML and publishing data collections that feed a common knowledge base. Eventually, statistical algorithms will be used to automate the semantic indexing of data.

Finally, Intlekt exploits the properties of IEML to allow new forms of search, automatic reasoning and simulation of complex systems.

Special applications can be imagined in many areas, like:

  • the preservation of cultural heritage, 
  • research in the humanities (digital humanities), 
  • education and training
  • public health, 
  • informed democratic deliberation, 
  • commercial transactions, 
  • smart contracts, 
  • the Internet of things, 
  • and so on…

And now, what?

Where do we stand on this project in the summer of 2020? After many tests over several years, IEML’s grammar has stabilized, as well as the base of morphemes of about 5000 units which enables any concept to be built at will. I tested positively the expressive possibilities of the language in several fields of humanities and earth sciences. Nevertheless, at the time of writing, the latest state of the grammar is not yet implemented. Moreover, to obtain a version of Intlekt that enables the semantic ontology editing, data curation and data mining functions described above, a team of several programmers working for one year is needed. In the coming months, the friends of IEML will be busy pursuing this critical mass. 

Come and join us!

For more information, see: https://pierrelevyblog.com/my-research-in-a-nutshell/ and https://pierrelevyblog.com/my-research-in-a-nutshell/the-basics-of-ieml/

Pour équilibrer le scepticisme de mon précédent blogpost, je voudrais célébrer ici une attitude d’audace existentielle illustrée notamment par Pascal, Kierkegaard et Nietzsche, qui eurent de nombreux émules au XXe siècle.

Kierkegaard

Entendons-nous d’abord sur les mots. Une proposition est vraie – de vérité logique – lorsqu’elle correspond au fait qu’elle décrit. La proposition « Le chat est sur le paillasson » est exacte si le chat est sur le paillasson. Les vérités logiques peuvent faire l’objet d’enquêtes empiriques, de démonstrations et de réfutations. En revanche, les vérités existentielles sont d’un autre ordre. Elles ne portent pas sur des états de choses objectifs mais sur des fins, des valeurs, des priorités ou des engagements personnels. On ne démontre pas une vérité existentielle, on en témoigne par l’authenticité de son adhésion. On ne saurait la prouver ou la réfuter mais seulement la vivre ou la déserter.

Le doute de Descartes était de méthode et n’intervenait qu’à l’origine de son raisonnement. Une fois la perplexité surmontée à la fondation de sa construction intellectuelle, il avance ensuite vers l’achèvement de son système en enchaînant des vérités sûres. Le véritable sceptique du XVIIe siècle fut le mathématicien, physicien et philosophe Pascal (1623-1662). Dans son livre posthume, les Pensées, Pascal doute effectivement de tout. L’Homme est un « roseau pensant » fragile et mortel, perdu dans un petit coin de l’univers entre les deux infinis de l’espace et du temps, toujours à la poursuite de distractions pour apaiser son mal-être. Ses connaissances sont locales et temporaires puisqu’il ne peut percevoir (avec l’aide imparfaite d’instruments scientifiques) que ce qui se rapproche de sa propre échelle spatio-temporelle. Les institutions et les rôles sociaux auxquels il adhère le plus souvent de manière naïve varient selon les lieux et les temps et n’ont donc rien de solide. Mais il faut pourtant bien vivre et agir. On ne peut en rester à un nihilisme destructeur où à un scepticisme cynique qui ne satisfont que les « demi-habiles ». Puisqu’il lui est impossible de s’établir sur une connaissance certaine, l’engagement existentiel ne résultera pas d’un constat ou d’une démonstration mais d’un pari. L’ordre du coeur diffère de l’ordre de la raison. Pascal presse les libertins qui mettent en question l’existence de Dieu de parier sur la foi catholique en respectant les formes extérieures de la religion : prière, messe, bonnes oeuvres, etc. S’il n’y a rien après la mort, ils n’ont pas perdu grand chose. Mais s’il existe un au-delà, ils ont gagné l’éternité. Le point essentiel du pari de Pascal n’est pas dans cette mise en balance d’un presque rien et d’un presque tout qui mène au choix facile du salut éternel. Il tient à ce que l’habitude de respecter les formes extérieures de la religion finit par générer une foi réelle et donne ainsi un sens à la vie au-delà des vérités démontrables. L’engagement existentiel génère l’existence de ce qui était en doute avant la décision.

Comme Pascal, Soren Kierkegaard (1813-1855) élabore une philosophie de la foi. Et comme Pascal son propos est à mille lieux de l’effort millénaire pour « concilier la foi et la raison », c’est-à-dire au fond pour accorder la tradition grecque (la science aristotélicienne) et la tradition sémitique (le texte révélé, Bible ou Coran). Le philosophe danois ne tente pas d’expliquer les passages de l’écriture qui posent problème à la philosophie rationnelle (comme ceux qui prêtent au divin des émotions ou des organes corporels), ni de distinguer entre les mystères indémontrables de la foi et les vérités religieuses qui s’accordent spontanément avec le raisonnement naturel. Ce type de travail a déjà été accompli par Philon (entre –20 et 45), Augustin d’Hippone (354-430), Al Farabi (900-950), Avicenne (Ibn Sina, 980-1037), Averroes (Ibn Roshd, 1126-1198), Maïmonide (1138-1204) et Thomas d’Aquin (1124-1274). Kierkegaard n’appartient pas plus que Pascal à l’univers des théosophes lettrés. Ses voisins à Copenhague sont allés à l’école, lisent les journaux, se réclament de la philosophie hégélienne sans trop la comprendre et se considèrent comme de bons chrétiens éclairés. Pourtant, notre philosophe est accablé par leur superficialité. Pour eux, la foi consiste en l’accomplissement de certains rites et en croyances qu’ils distinguent mal de vérités objectives. Ils ne soupçonnent pas l’abîme qu’un christianisme vécu creuse au coeur du sujet. Que vaut leur foi s’ils ne souffrent pas de l’écart entre une finitude irrémédiable et l’ouverture à la transcendance ? Descartes avait initié la philosophie moderne en jetant un doute radical sur les vérités objectives. Kierkegaard la relance en logeant maintenant le doute au coeur de la vérité existentielle. Rien ne peut prouver ni garantir le bien fondé de la foi, pas même la raison objective, la chaîne d’une tradition ou l’assentiment de nos semblables. Il s’agit d’une prise de responsabilité personnelle, d’un engagement de l’être, d’un courage qui assume la fragilité de ses choix. La foi de Kierkegaard n’aboutit pas au repos qu’offre la certitude, mais à l’éveil qui naît de l’inquiétude. Comme les mystiques du passé, il évoque l’existence humaine à partir de son intériorité et de son expérience singulière. Mais parce que c’est un philosophe moderne, il critique, examine, démasque et raille, il utilise toutes les ressources de la raison pour sonder sa propre authenticité et celle de ses semblables.

Nietzsche (1844-1900) généralise aux valeurs la réflexion de Kierkegaard sur la foi. Il dénonce l’hypocrisie des philosophes qui prétendent déduire logiquement leurs principes moraux. En réalité, ils savent où ils vont avant même de commencer leur enquête et se contentent de rationaliser habilement un choix préalable. Le plaisir, la douleur, les réactions émotionnelles primaires dépendent certes de la nature et elles favorisent probablement la reproduction de l’espèce. Mais le bien et le mal moraux sont des objets conventionnels produits par des choix historiques. Aucune religion, morale ou règle de vie n’est objectivement vraie : nous sommes dans le domaine existentiel. Dans sa réflexion sur la généalogie de la morale, Nietzsche montre que les valeurs adoptées par un groupe humain traduisent ses affects dominants. Par exemple, la valorisation de l’égalité et de la justice sociale habille la jalousie ou le ressentiment par rapport aux puissants, un goût secret de la vengeance. La liberté elle-même couvre une volonté de conquête et de domination, l’orgueil d’une noblesse qui se destine au pouvoir.

Les systèmes de valeurs – avec leurs pôles du noble et de l’ignoble, du bon et du mauvais – servent à augmenter la puissance des individus ou des groupes. Certains cas semblent contredire à cette règle. Par exemple, à première vue, la morale adoptée par des tribus de guerriers pillards semble mieux servir leur volonté de puissance que la règle de vie choisie par des communautés d’ascètes. Mais ces derniers maîtrisent mieux leurs émotions, mobilisent de vastes savoirs et disposent d’une longue mémoire. Si bien que, comparée à celles de barbares mal dégrossis, leur morale leur procure un plus grand pouvoir. Les valeurs orientent la croissance des cultures en idéalisant des stratégies de domination plus ou moins conscientes. Nietzsche prolonge les moralistes qui détectaient l’amour-propre sous les vertus apparentes. Mais il généralise ce dévoilement à l’échelle historique, avec les ressources d’érudition dont dispose un savant philologue en Allemagne à la fin du XIXe siècle : les religions ou les constructions philosophiques poursuivent chacune à leur manière quelque quête de puissance.

Par opposition aux schémas finalisés des religions révélées ou de la philosophie hégélienne, l’histoire se boucle en éternel retour. Nietzsche emprunte cette figure aux stoïciens et à la métaphysique indienne. Il n’existe ni fin des temps, ni jugement dernier, ni position de surplomb d’où juger les valeurs. Chaque coup de dès existentiel occupe à son tour le centre de tout, position d’où il pèse les autres à ses propres balances. La roue des actes tourne entre le temps et l’éternité. Le perspectivisme nietzschéen ne doit pas être interprété comme un relativisme confortable et moins encore comme un nihilisme. Car s’il demande à ses disciples de détruire les prétentions à la vérité absolue, Nietzsche les incite en même temps à assumer leur subjectivité et à affirmer leur puissance créatrice. Ses descendants spirituels sont appelés à forger courageusement leurs propres valeurs, à « philosopher à coups de marteau », c’est-à-dire à briser les idoles et à battre le métal de nouvelles subjectivités. Une telle tâche ne convient certes pas à des brutes maladroites et arrogantes, ni à des enfants gâtés, ignorants et moutonniers, mais à des surhommes au caractère bien trempé, longuement disciplinés, cultivés, récusant tout dogmatisme et à qui la fréquentation des cimes a donné la vision des lointains.