Compte rendu du livre de François Rastier: L’IA m’a tué. Comprendre un monde post humain. Éditions Intervalles, 2025

En lisant le dernier livre de François Rastier, j’ai retrouvé avec plaisir la langue châtiée, le ton légèrement ironique et la grande érudition d’un des meilleurs spécialistes de la sémantique. L’ouvrage s’ouvre sur la série d’événements qui a donné son titre à l’ouvrage, à savoir l’annonce de la mort de Rastier lui-même, plusieurs fois réitérée par Chat GPT. Le thème du livre est fixé : les LLM sont des menteurs. Non seulement ils affirment impudemment des fausses propositions, mais ils accompagnent sur les plans technique et même idéologique une vague culturelle antihumaniste ou post-humaniste que l’auteur déplore. L’argumentaire de Rastier s’appuie notamment sur ses théories du texte, du contexte et du corpus, théories pertinentes pour comprendre les générateurs automatiques de textes que sont les modèles de langue.
Pourquoi l’IA générative des LLM est-elle plus efficace que les diverses implémentations des grammaires génératives à la Chomsky pour rédiger des textes vraisemblables ? Les théories de Chomsky ne formalisent que le système de la langue, et encore, seulement l’aspect syntaxique. Mais elles négligent de prendre en compte ce qui se trouve entre ce système et les textes actuels. « Entre le système de la langue et les textes produits s’étend l’espace des normes de discours, de genres (ex : la poésie), de sous-genre (le roman policier), voire de style. Par leur masse gigantesque, les corpus d’apprentissage des IA génératives permettent de mettre en œuvre ces normes. » (p. 33)
De plus, l’auto-attention – ou attention au contexte – des « Transformers » (GPT est l’acronyme de Generative Pretrained Transformer) permet de mettre en œuvre (a) le « principe herméneutique que le global (ici, le texte) détermine le local (ici l’occurrence linguistique) » et (b) le « principe linguistique de la récurrence de traits sémantiques que l’on nomme la présomption d’isotopie» (p.40) Un lecteur s’attend à ce qu’un texte parle des mêmes objets ou développe certains thèmes déterminés qui vont revenir avec quelques variations. En somme, la machine tient compte (statistiquement) du contexte et suppose aux textes qu’elle « lit » et produit une certaine cohérence (la présomption d’isotopie).
Selon Rastier, l’efficacité des LLM dans la production de textes lisibles et pertinents s’explique donc par 1) la capture statistique des normes de discours dans les énormes données d’apprentissage et 2) la prise en compte des contextes et la présomption d’isotopie assurée par l’architecture des transformers.
Pourtant, Rastier dénie aux données d’apprentissage la qualification de vrais corpus. Un corpus authentique selon Rastier doit être sélectionné, structuré, étiqueté en fonction 1) de théories au sujet des pratiques discursives et des genres textuels et 2) de finalités pratiques : les applications visées. (p. 34) Or, selon notre auteur, les données d’apprentissage ne répondent pas à ces critères et ne sont donc que de « prétendus corpus ». Nous avons affaire à des « masses hétérogènes opaques et incontrôlables». (p.35) En outre, les documents originaux sont fondus dans une masse et il est impossible d’y faire référence : « Aucun document particulier n’est plus identifiable dans le corpus d’apprentissage ». (p. 138)
Non seulement les données d’apprentissage ne constituent pas de « vrais corpus » mais les textes produits ne sont pas de « vrais textes ». On les prend pour des textes parce qu’ils sont lisibles et respectent des normes de genre. Pourtant, ils ne comportent aucune garantie : on ne sait pas comment les données d’apprentissage ont été sélectionnées. De plus, ils n’ont pas d’auteurs humains : ils ne correspondent à aucune intention ni vouloir dire. Puisqu’ils n’ont pas d’énonciateurs, ce ne sont pas des textes interprétables. (p. 44, 138) Ils ont seulement l’air de textes. Rastier rejoint ici Platon qui, dans le Phèdre, critiquait déjà la technologie intellectuelle de son époque : l’écriture. « Pour Platon, un discours doit pouvoir être assumé par celui qui le prononce et qui doit en répondre. » (p. 132) Face à l’inauthenticité des textes artificiels, Rastier demande « une réglementation, sinon un moratoire, sur leurs usages privés et publics.» (p. 42)
Les dernières générations de LLM permettent l’accès aux références et limitent (sans les éliminer) les fameuses « hallucinations ». Ce livre, sans doute exagérément pessimiste, vaut la peine d’être lu. Pour les travailleurs des sciences de la culture, il serait désastreux de déléguer la pensée – c’est-à-dire la lecture attentive et l’écriture responsable – aux machines. Mais, en les surveillant toujours du coin de l’œil, on pourra certainement les utiliser dans des rôles d’assistants infatigables et d’éditeurs dévoués.