Archives for category: paper

English version: https://intlekt.io/2022/01/18/ieml-towards-a-paradigm-shift-in-artificial-intelligence/

Art: Emma Kunz

Résumé

Le but de ce texte est de présenter une vue générale des limites de l’IA contemporaine et de proposer une voie pour les dépasser. L’IA a accompli des progrès considérables depuis l’époque des Claude Shannon, Alan Turing et John von Neumann. Néanmoins, de nombreux obstacles se dressent encore sur la route indiquée par ces pionniers. Aujourd’hui, l’IA symbolique se spécialise dans la modélisation conceptuelle et le raisonnement automatique tandis que l’IA neuronale excelle dans la catégorisation automatique. Mais les difficultés rencontrées aussi bien par les approches symboliques que neuronales sont nombreuses. Une combinaison des deux branches de l’IA, bien que souhaitable, laisse encore non résolus les problèmes du cloisonnement des modèles et les difficultés d’accumulation et d’échange des connaissances. Or l’intelligence humaine naturelle résout ces problèmes par l’usage du langage. C’est pourquoi je propose que l’IA adopte un modèle calculable et univoque du langage humain, le Métalangage de l’Économie de l’Information (IEML pour Information Economy MetaLanguage), un code sémantique de mon invention. IEML a la puissance d’expression d’une langue naturelle, il possède la syntaxe d’un langage régulier, et sa sémantique est univoque et calculable parce qu’elle est une fonction de sa syntaxe. Une architecture neuro-sémantique basée sur IEML allierait les forces de l’IA neuronale et de l’IA symbolique classique tout en permettant l’intégration des connaissances grâce à un calcul interopérable de la sémantique. De nouvelles avenues s’ouvrent à l’intelligence artificielle, qui entre en synergie avec la démocratisation du contrôle des données et l’augmentation de l’intelligence collective.

Après avoir été posté sur ce blog, le texte a été publié par le Giornale Di Filosofia numéro 2.
Lien vers –> le texte complet en PDF publié sur le site du Giornale di Filosofia. Ou bien lisez le texte ci-dessous 🙂.

Après avoir posé dans un post précédent les principes d’une cartographie de l’intelligence collective, je m’intéresse maintenant au développement humain qui en est le corrélat, la condition et l’effet de l’intelligence collective. Dans un premier temps, je vais élever au carré la triade sémiotique signe/être/chose (étoile/visage/cube) pour obtenir les neuf «devenirs», qui pointent vers les principales directions du développement humain.

F-PARA-devenirs-1.jpgCarte des devenirs

Les neuf chemins qui mènent de l’un des trois pôles sémiotiques vers lui-même ou vers les deux autres sont appelés en IEML des devenirs (voir dans le dictionnaire IEML la carte sémantique M:M:.) Un devenir ne peut être réduit ni à son point de départ ni à son point d’arrivée, ni à la somme des deux mais bel et bien à l’entre-deux ou à la métamorphose de l’un dans l’autre. Ainsi la mémoire signifie ultimement «devenir chose du signe». On remarquera également que chacun des neufs devenirs peut se tourner aussi bien vers l’actuel que vers le virtuel. Par exemple, la pensée peut prendre comme objet aussi bien le réel sensible que ses propres spéculations. A l’autre bout du spectre, l’espace peut référer aussi bien au contenant de la matérialité physique qu’aux idéalités de la géométrie. Au cours de notre exploration, nous allons découvrir que chacun des neufs devenirs indique une direction d’exploration possible de la philosophie. Les neuf devenirs sont à la fois conceptuellement distincts et réellement interdépendants puisque chacun d’eux a besoin du soutien des autres pour se déployer.

Pensée

Dans la pensée – s. en IEML – aussi bien la substance (point de départ) que l’attribut (point d’arrivée) sont des signes. La pensée relève en quelque sorte du signe au carré. Elle marque la transformation d’un signe en un autre signe, comme dans la déduction, l’induction, l’interprétation, l’imagination et ainsi de suite.

Le concept de pensée ou d’intellection est central pour la tradition idéaliste occidentale qui part de Platon et passe notamment par Aristote, les néo-plationciens, les théologiens du moyen-Age, Kant, Hegel et jusqu’à Husserl. L’intellection se trouve également au coeur de la philosophie islamique, aussi bien chez Avicenne (Ibn Sina) et ses contituateurs dans la philosophie iranienne jusqu’au XVIIe siècle que chez l’andalou Averroes (Ibn Roshd). Elle l’est encore pour la plupart des grandes philosophies de l’Inde méditante. L’existence humaine, et plus encore l’existence philosophique, est nécessairement plongée dans la pensée discursive réfléchissante. Où cette pensée prend-elle son origine ? Quelles sont ses structures ? Comment mener la pensée humaine à sa perfection ? Autant de questions que l’interrogation philosophique ne peut éluder.

Langage

Le langage – b. en IEML – s’entend ici comme un code (au sens le plus large du terme) de communication qui fonctionne effectivement dans l’univers humain. Le langage est un «devenir-être du signe», une transformation du signe en intelligence, une illumination du sujet par le signe.

Certaines philosophies adoptent comme point de départ les problèmes du langage et de la communication. Wittgenstein, par exemple, a fait largement tourner sa philosophie autour du problème des limites du langage. Mais il faut noter qu’il s’intéresse également à des questions de logique et au problème de la vérité. Dans un style différent, un philosophe comme Peirce n’a cessé d’approfondir la question de la signification et du fonctionnement des signes. Austin a creusé le thème des actes de langage, etc. On comprend que ce devenir désigne le moment sémiotique (ou linguistique) de la philosophie. L’Homme est un être parlant dont l’existence ne peut se réaliser que par et dans le langage.

Mémoire

Dans la mémoire – t. en IEML – le signe en substance se réifie dans son attribut chose. Ce devenir évoque le geste élémentaire de l’inscription ou de l’enregistrement. Le devenir chose du signe est ici considéré comme la condition de possibilité de la mémoire. Il commande la notion même de temps.

Le passage du temps et son inscription – la mémoire – fut un des thèmes de prédilection de Bergson (auteur notamment de Matière et Mémoire). Bergson mettait l’épaisseur de la vie et le jaillissement évolutif de la création du côté de la mémoire par opposition avec le déterminisme physicien du XIXe siècle (la « matière ») et le mécanisme logico-mathématique, assignés à l’espace. On trouve également une analyse fine du passage du temps et de son inscription dans les philosophies de l’impermanence et du karma, comme le bouddhisme. L’évolutionnisme, de manière générale, qu’il soit cosmique, biologique ou culturel, se fonde sur une dialectique du passage du temps et de la rétention d’une mémoire codée. Notons enfin que nombre de grandes traditions religieuses se fondent sur des écritures sacrées relevant du même archétype de l’inscription. En un sens, parce que nous sommes inévitablement soumis à la séquentialité temporelle, notre existence est mémoire : mémoire à court terme de la perception, mémoire à long terme du souvenir et de l’apprentissage, mémoire individuelle où revivent et confluent les mémoires collectives.

Société

Dans la société – k. en IEML –, une communauté d’êtres s’organise au moyen de signes. Nous nous engageons dans des promesses et des contrats. Nous obéïssons à la loi. Les membres d’un clan ont le même animal totémique. Nous nous battons sous le même drapeau. Nous échangeons des biens économiques en nous mettant d’accord sur leur valeur. Nous écoutons ensemble de la musique et nous partageons la même langue. Dans tous ces cas, comme dans bien d’autres, une communauté d’humains converge et crée une unité sociale en s’attachant à une même réalité signifiante conventionnelle : autant de manières de « faire société ».

On sait que la sociologie est un rejeton de la philosophie. Avant même que la discipline sociologique ne se sépare du tronc commun, le moment social de la philosophie a été illustré par de grands noms : Jean-Jacques Rousseau et sa théorie du contrat, Auguste Comte qui faisait culminer la connaissance dans la science des sociétés, Karl Marx qui faisait de la lutte des classes le moteur de l’histoire et ramenait l’économie, la politique et la culture en général aux « rapports sociaux réels ». Durkheim, Mauss, Weber et leurs successeurs sociologues et anthropologues se sont interrogé sur les mécanismes par lesquels nous « faisons société ». L’homme est un animal politique qui ne peut pas ne pas vivre en société. Comment vivifier la philia, lien d’amitié entre les membres de la même communauté ? Quelles sont les vraies ou les bonnes sociétés ? Spirituelles, cosmopolites, impériales, civiques, nationales…? Quels sont les meilleurs régimes politiques ? Autant d’interrogations toujours ouvertes.

Affect

Dans l’affect – m. en IEML – un être s’oriente vers d’autres êtres, ou détermine son intériorité la plus intime. L’affect est ici entendu comme le tropisme de la subjectivité. Désir, amour, haine, indifférence, compassion, équanimité sont des qualités émotionnelles qui circulent entre les êtres.

Après les poètes, les dévots et les comédiens, Freud, la psychanalyse et une bonne part de la psychologie clinique insistent sur l’importance de l’affect et des fonctions émotionnelles pour comprendre l’existence humaine. On a beaucoup souligné récemment l’importance de « l’intelligence émotionnelle ». Mais la chose n’est pas nouvelle. Cela fait bien longtemps que les philosophes s’interrogent sur l’amour (voir le Banquet de Platon) et les passions (Descartes lui-même a écrit un Traité des passions), même s’il n’en font pas toujours le thème central de leur philosophie. L’existence se débat nécessairement dans les problèmes affectifs parce qu’aucune vie humaine ne peut échapper aux émotions, à l’attraction et à la répulsion, à la joie et à la tristesse. Mais les émotions sont-elles des expressions légitimes de notre nature spontanée ou des «poisons de l’esprit» (selon la forte expression bouddhiste) auxquels il ne faut pas laisser le gouvernement de notre existence ? Ou les deux ? De nombreuses écoles philosophiques aussi bien Orient qu’en Occident, ont vanté l’ataraxie, le calme mental ou, tout au moins, la modération des passions. Mais comment maîtriser les passions, et comment les maîtriser sans les connaître ?

Monde

Dans le monde – n. en IEML – les êtres humains (être en substance) s’expriment dans leur environnement physique (chose en attribut). Ils habitent cet environnement, ils le travaillent au moyen d’outils, ils en nomment les parties et les objets, leur attribuent des valeurs. C’est ainsi que se construit un monde culturellement ordonné, un cosmos.

Nietzsche (qui accordait un rôle central à la création des valeurs), tout comme la pensée anthropologique, fondent principalement leur approche sur le concept de « monde », ou de cosmos organisé par la culture humaine. La notion indienne tout-englobante de dharma se réfère ultimement à un ordre cosmique transcendant qui veut se manifester jusque dans les plus petits détails de l’existence. L’interrogation philosophique sur la justice rejoint cette idée que les actes humains sont en résonance ou en dissonance avec un ordre universel. Mais quelle est la « voie » (le Dao de la philosophie chinoise) de cet ordre ? Son universalité est-elle naturelle ou conventionnelle ? A quels principes obeit-elle ?

Vérité

La vérité – d. en IEML – décrit un « devenir signe de la chose ». Une référence (un état de chose) se manifeste par un message déclaratif (un signe). Un énoncé n’est vrai que s’il contient une description correcte d’un état de choses. L’authenticité se dit d’un signe qui garantit une chose.

La tradition logicienne et la philosophie analytique s’intéressent principalement au concept de vérité (au sens de l’exactitude des faits et des raisonnements) ainsi qu’aux problèmes liés à la référence. L’épistémologie et les sciences cognitives qui se situent dans cette mouvance mettent au fondement de leur démarche la construction d’une connaissance vraie. Mais, au-delà de ces spécialisations, la question de la vérité est un point de passage obligé de l’interrogation philosophique. Même les plus sceptiques ne peuvent renoncer à la vérité sans renoncer à leur propre scepticisme. Si l’on veut mettre l’accent sur sa stabilité et sa cohérence, on la fera découler des lois de la logique et de procédures rigoureuses de vérification empirique. Mais si l’on veut mettre l’accent sur sa fragilité et sa multiplicité, on la fera sécréter par des paradigmes (au sens de Khun), des épistémès, des constructions sociales de sens, toutes variables selon les temps et les lieux.

Vie

Dans la vie – f. en IEML – une chose substantielle (la matérialité du corps) prend l’attribut de l’être, avec sa qualité d’intériorité subjective. La vie évoque ainsi l’incarnation physique d’une créature sensible. Quand un être vivant mange et boit, il transforme des entités objectivées en matériaux et combustibles pour les processus organiques qui supportent sa subjectivité : devenir être de la chose.

Les empiristes fondent la connaissance sur les sens. Les phénoménologues analysent notamment la manière dont les choses nous apparaissent dans la perception. Le biologisme ramène le fonctionnement de l’esprit à celui des neurones ou des hormones. Autant de traditions et de points de vue qui, malgré leurs différences, convergent sur l’organisme humain, ses fonctions et sa sensibilité. Beaucoup de grands philosophes furent des biologistes (Aristote, Darwin) ou des médecins (Hippocrate, Avicenne, Maïmonide…). Médecine chinoise et philosophie chinoise sont profondément interreliées. Il est indéniable que l’existence humaine émane d’un corps vivant et que tous les événements de cette existence s’inscrivent d’une manière ou d’une autre dans ce corps.

Espace

Dans l’espace – l. en IEML –, qu’il soit concret ou abstrait, une chose se relie aux autres choses, se manifeste dans l’univers des choses. L’espace est un système de transformation des choses. Il se construit de relations topologiques et de proximités géométriques, de territoires, d’enveloppes, de limites et de chemins, de fermetures et de passages. L’espace manifeste en quelque sorte l’essence superlative de la chose, comme la pensée manifestait celle du signe et l’affect celle de l’être.

Sur un plan philosophique, les géomètres, topologues, atomistes, matérialistes et physiciens fondent leurs conceptions sur l’espace. Comme je le soulignais plus haut, le géométrisme idéaliste ou l’atomisme matérialiste se rejoignent sur l’importance fondatrice de l’espace. Les atomes sont dans le vide, c’est-à-dire dans l’espace. L’existence humaine se projette nécessairement dans la multitude spatiale qu’elle construit et qu’elle habite : géographies physiques ou imaginaires, paysages urbains ou ruraux, architectures de béton ou de concepts, distances géométriques ou connexions topologiques, replis et réseaux à l’infini.

On peut ainsi caractériser les philosophies en fonction du ou des devenirs qu’elles prennent pour point de départ de leur démarche ou qui constituent leur thème de prédilection. Les devenirs IEML représentent des « points de passage obligé » de l’existence. Dès son alphabet, le métalangage ouvre la sphère sémantique à l’expression de n’importe quelle philosophie, exactement comme une langue naturelle. Mais c’est aussi une langue philosophique, conçue pour éviter les zones cognitives aveugles, les réflexes de pensée limitants dus à l’usage exclusif d’une seule langue naturelle, à la pratique d’une seule discipline devenue seconde nature ou à des points de vue philosophiques trop exclusifs. Elle a justement été construite pour favoriser la libre exploration de toutes les directions sémantiques. C’est pourquoi, en IEML, chaque philosophie apparaît comme une combinaison de points de vue partiels sur une sphère sémantique intégrale qui peut les accommoder toutes et les entrelace dans sa circularité radicale.

F-Arbre-methode.jpg

FIGURE 1

La figure 1 présente les six catégories primitives de la sémantique et schématise leurs relations d’interdépendance. On peut comparer ce diagramme à celui d’une main. Alors que l’organe du corps humain possède cinq doigts et une opposition entre le pouce et les autres doigts, la main sémantique comporte six doigts – les catégories – et quatre systèmes d’opposition emboîtés – les relations –. La pince du virtuel et de l’actuel commande la relation d’interdépendance pragmatique. La pince ternaire entre le signe, l’être et la chose prend en charge l’interdépendance sémiotique. L’opposition de la pince pragmatique et de la pince sémiotique actionne la tenaille de la relation formelle. La méta-pince rationnelle, enfin, oppose le vide et la forme.

Le vide, le virtuel, l’actuel, le signe, l’être et la chose ne sont pas de mon invention, je me suis contenté de recueillir puis de mettre en forme un très ancien héritage. La plupart des catégories sémantiques remontent au moins à Aristote et elles ont été raffinées par une longue tradition de philosophes, de logiciens, de sémioticiens, de grammairiens et de linguistes. On trouvera une importante bibliographie à ce sujet dans La Sphère sémantique (2011). Je me contenterai ici de signaler quelques-unes de mes sources.

La relation pragmatique entre virtuel et actuel

On catégorise comme actuel ce qui possède un caractère concret ou sensible et qui se localise facilement dans l’espace et le temps. Par contraste, le virtuel catégorise ce qui possède un caractère intelligible, abstrait et auquel il est difficile d’attribuer une adresse spatio-temporelle bien déterminée.

Le couple virtuel/actuel décrit une dialectique pragmatique, que l’on peut retrouver notamment dans la dynamique entre potentialités (virtuelles) et réalisations (actuelles), problèmes (virtuels) et solutions (actuelles), stratégies (relation aux finalités virtuelles) et tactiques (relations aux moyens actuels), etc.

La dialectique du virtuel et de l’actuel fait écho au Ciel et à la Terre des premières nations, au yang et au yin de la pensée chinoise, à l’âme et au corps, à la transcendance et à l’immanence, à l’intelligible et au sensible (Platon), à la puissance et à l’acte (Aristote), à la pensée et à l’étendue (Descartes), au transcendantal et à l’empirique (Kant)… J’ai par ailleurs consacré un livre entier à cette question.

Virtuel et actuel sont des notions relatives, qui se définissent l’une par l’autre. Dans l’analyse d’un cycle pragmatique complexe, la catégorisation des phases virtuelle et actuelle relève de l’interprétation en contexte. Par ailleurs, virtualité et actualité peuvent définir les deux pôles d’un continuum. Ainsi, un caillou rêvé est plus virtuel qu’un caillou perçu, mais plus actuel qu’un rêve de caillou dans un roman.

La relation sémiotique entre signe, être et chose

Le signe catégorise ce qui est de l’ordre du code, du message et de la connaissance. L’être indique les personnes, leurs rapports et leurs intentions, ce qui est de l’ordre de l’esprit, la capacité de concevoir ou d’interpréter. Enfin, la chose catégorise ce dont on parle, les objets (abstraits ou concrets), les corps, les outils, le pouvoir.

Le ternarité signe/être/chose exprime une dialectique sémiotique, que l’on retrouve notamment dans la distribution des rôles de communication : on pourra par exemple distinguer entre les messages (signes), les personnes (êtres) et les éléments de contexte qui sont en jeu (choses). En logique, la proposition (signe), le jugement (être) et l’état de chose (chose) sont inséparables puisqu’un jugement logique détermine si un état de chose correspond, oui ou non, à une proposition.

La dialectique sémiotique du signe, de l’être et de la chose renvoie…

  • à la distinction aristotélicienne du symbole, de l’état d’esprit et de la chose ;
  • à la triade « vox, conceptus, res » de la philosophie médiévale ;
  • au fondement du signe, à l’interprétant et à l’objet de C. S. Peirce ;
  • au noème, à l’intention et à l’objet de Husserl (ou bien, à un niveau d’analyse plus fin décomposant le noème de cette dernière triade, la noèse – signe –, le noème au sens restreint – être – et la hylè sensible – chose – ;
  • au logos, à l’ethos et au pathos de la rhétorique ;
  • aux actes locutoire, illocutoire et perlocutoire de la pragmatique (tels que définis par Austin), et ainsi de suite.

De même que dans le cas de la dialectique virtuel/actuel, la dialectique signe/être/chose est hautement relative. Il s’agit surtout de déterminer le rôle joué par ce que l’on veut catégoriser selon les points de vue, les circonstances et les contextes. Par exemple, une personne pourra être catégorisée signe, être ou chose selon la fonction qu’elle joue dans une situation : messager (signe), interlocuteur (être) ou sujet de la conversation (chose).

La relation formelle entre pragmatique et sémiotique

Les dialectiques pragmatique et sémiotique sont elles-mêmes en relation dynamique d’interdépendance. L’interdépendance de la figure et du fond – de la représentation sémiotique et de l’interaction pragmatique – fait émerger une forme. A l’intérieur de cette dialectique, la sémiotique décrit les opérations de construction ou de production d’entités tandis que la pragmatique rend compte de l’exploration et de la reconnaissance de processus. C’est ainsi que les mouvements ou les verbes seront catégorisés comme pragmatiques et que les entités ou les noms seront catégorisés comme sémiotiques.

Sur un plan épistémologique, cette dialectique permet d’articuler deux faces complémentaires de la connaissance : le « savoir produire » de l’intérieur (sémiotique) et le « savoir reconnaître » à l’extérieur (pragmatique). Par exemple, maîtriser le langage suppose d’être capable de produire des phrases, ce qui se termine par une activation motrice, mais aussi de les reconnaître, ce qui commence par une activation sensorielle. Les deux aspects sont à la fois distincts et complémentaires. Pour prendre un autre exemple, nous savons marcher ou manger ; nous savons aussi reconnaître la marche ou la manducation chez les autres, donc ailleurs que dans notre propre activité ; finalement, nous savons qu’il s’agit de la même chose, même si savoir faire et savoir reconnaître mettent en oeuvre des sensations et des mouvements différents.

La relation rationnelle entre vide et forme

La dialectique rationnelle, enfin, met en relation la forme qui comprend les cinq catégories pleines (virtuel, actuel, signe, être, chose) et le vide. Le vide rend compte du zéro, du silence, du blanc, de l’indétermination sémantique et de l’espace ouvert où se déploie l’expérience humaine. A ce titre, il s’oppose aux catégories pleines qu’il exclut en tant que néant… mais qu’il contient en tant qu’espace. Le contraste entre le pattern et le bruit dans le signal. relève justement de cette dialectique rationnelle entre le vide (le bruit) et le plein (le pattern).

Une théorie sémantique de la cognition doit rendre compte de la distinction fondamentale entre fait et fiction, c’est-à-dire entre les idées dont les objets seront réputés inventés ou simulés (vide) et celles dont les objets seront supposés réels (plein) : il y va de la survie de l’être intelligent. C’est pourquoi, en fonction des circonstances, la dialectique rationnelle distinguera entre le vrai et le faux, le connu et l’inconnu, la réalité et l’imitation, les idées claires ou confuses…

Diapositive1.jpg
FIGURE 1

J’ai montré dans un post précédent, l’importance contemporaine de la curation collaborative de données.  Les compétences dans ce domaine sont au coeur de la nouvelle litéracie algorithmique. La figure 1 présente ces compétences de manière systématique et, ce faisant, elle met en ordre les savoir-faire intellectuels et pratiques tout comme les « savoir-être » éthiques qui supportent l’augmentation de l’intelligence collective en ligne. L’étoile évoque le signe, le visage l’être et le cube la chose (sur ces concepts voir ce post). La table est organisée en trois rangées et trois colonnes interdépendantes. La première rangée explicite les fondements de l’intelligence algorithmique au niveau personnel, la seconde rappelle l’indispensable travail critique sur les sources de données et la troisième détaille les compétences nécessaires à l’émergence d’une intelligence collective augmentée par les algorithmes. L’intelligence personnelle et l’intelligence collective travaillent ensemble et ni l’une ni l’autre ne peuvent se passer d’intelligence critique ! Les colonnes évoquent trois dimensions complémentaires de la cognition : la conscience réflexive, la production de signification et la mémoire. Aucune d’elles ne doit être tenue pour acquise et toutes peuvent faire l’objet d’entraînement et de perfectionnement. Dans chaque case, l’item du haut pointe vers un exercice de virtualisation tandis que celui du bas indique une mise en oeuvre actuelle de la compétence, plus concrète et située. Je vais maintenant commenter le tableau de la figure 1 rangée par rangée.

L’intelligence personnelle

La notion d’intelligence personnelle doit ici s’entendre au sens d’une compétence cognitive individuelle. Mais elle tire également vers la signification du mot « intelligence » en anglais. Dans ce dernier sens, elle désigne la capacité d’un individu à mettre en place son propre système de renseignement.

La gestion de l’attention ne concerne pas seulement l’exercice de la concentration et l’art complémentaire d’éviter les distractions. Elle inclut aussi le choix réfléchi de priorités d’apprentissage et le discernement de sources d’information pertinentes. Le curateur lui-même doit décider de ce qui est pertinent et de ce qui ne l’est pas selon ses propres critères et en fonction des priorités qu’il s’est donné. Quant à la notion de source, est-il besoin de souligner ici que seuls les individus, les groupes et les institutions peuvent être ainsi qualifiés. Seuls donc ils méritent la confiance ou la méfiance. Quant aux médias sociaux, ce ne sont en aucun cas des sources (contrairement à ce que croient certains journalistes) mais plutôt des plateformes de communication. Prétendre, par exemple, que « Twitter n’est pas une source fiable », n’a pas plus de sens que l’idée selon laquelle « le téléphone n’est pas une source fiable ».

L’interpretation des données relève également de la responsabilité des curateurs. Avec tous les algorithmes statistiques et tous les outils d’analyse automatique de données (« big data analytics ») du monde, nous aurons encore besoin d’hypothèses causales, de théories et de systèmes de catégorisation pour soutenir ces théories. Les corrélations statistiques peuvent suggérer des hypothèses causales mais elles ne les remplacent pas. Car nous voulons non seulement prédire le comportement de phénomènes complexes, mais aussi les comprendre et agir sur la base de cette compréhension. Or l’action efficace suppose une saisie des causes réelles et non seulement la perception de corrélations. Sans les intuitions et les théories dérivées de notre connaissance personnelle d’un domaine, les outils d’analyse automatique de données ne seront pas utilisés à bon escient. Poser de bonnes questions aux données n’est pas une entreprise triviale !

Finalement, les données collectionnées doivent être gérées au plan matériel. Il nous faut donc choisir les bons outils d’entreposage dans les « nuages » et savoir manipuler ces outils. Mais la mémoire doit être aussi entretenue au niveau conceptuel. C’est pourquoi le bon curateur est capable de créer, d’adopter et surtout de maintenir un système de catégorisation qui lui permettra de retrouver l’information désirée et d’extraire de ses collections la connaissance qui lui sera utile.

L’intelligence critique

L’intelligence critique porte essentiellement sur la qualité des sources. Elle exige d’abord un travail de critique « externe ». Nous savons qu’il n’existe pas d’autorité transcendante dans le nouvel espace de communication. Si nous ne voulons pas être trompé, abusé, ou aveuglé par des oeillères informationnelles, il nous faut donc autant que possible diversifier nos sources. Notre fenêtre d’attention doit être maintenue bien ouverte, c’est pourquoi nous nous abonnerons à des sources adoptant divers points de vue, récits organisateurs et théories. Cette diversité nous permettra de croiser les données, d’observer les sujets sur lesquelles elles se contredisent et ceux sur lesquelles elles se confirment mutuellement.

L’évaluation des sources demande également un effort de décryptage des identités : c’est la critique « interne ». Pour comprendre la nature d’une source, nous devons reconnaître son système de classification, ses catégories maîtresses et son récit organisateur. En un sens, une source n’est autre que le récit autour duquel elle organise ses données : sa manière de produire du sens.

Finalement l’intelligence critique possède une dimension « pragmatique ». Cette critique est la plus dévastatrice parce qu’elle compare le récit de la source avec ce qu’elle fait réellement. Je vise ici ce qu’elle fait en diffusant ses messages, c’est-à-dire l’effet concret de ses actes de communication sur les conversations en cours et l’état d’esprit des participants. Je vise également les contributions intellectuelles et esthétiques de la source, ses interactions économiques, politiques, militaires ou autres telles qu’elles sont rapportées par d’autres sources. Grâce à cette bonne mémoire nous pouvons noter les contradictions de la source selon les moments et les publics, les décalages entre son récit officiel et les effets pratiques de ses actions. Enfin, plus une source se montre transparente au sujet de ses propres sources d’informations, de ses références, de son agenda et de son financement et plus elle est fiable. Inversement, l’opacité éveille les soupçons.

L’intelligence collective

Je rappelle que l’intelligence collective dont il est question ici n’est pas une « solution miracle » mais un savoir-faire à cultiver qui présuppose et renforce en retour les intelligences personnelles et critiques.

Commençons par définir la stigmergie : il s’agit d’un mode de communication dans lequel les agents se coordonnent et s’informent mutuellement en modifiant un environnement ou une mémoire commune. Dans le médium algorithmique, la communication tend à s’établir entre des pairs qui créent, catégorisent, critiquent, organisent, lisent, promeuvent et analysent des données au moyen d’outils algorithmiques. Il s’agit bien d’une communication stigmergique parce que, même si les personnes dialoguent et se parlent directement, le principal canal de communication reste une mémoire commune que les participants exploitent et transforment ensemble. Il est utile de distinguer entre les mémoires locale et globale. Dans la mémoire « locale » de réseaux ou de communautés particulières, nous devons prêter attention à des contextes et à des histoires singulières. Il est également recommandé de tenir compte des contributions des autres participants, de ne pas aborder des sujets non-pertinents pour le groupe, d’éviter les provocations, les explosions d’agressivité, les provocations, etc.

Quant à la mémoire « globale », il faut se souvenir que chaque action dans le médium algorithmique réorganise – même de façon infinitésimale – la mémoire commune : lire, taguer, acheter, poster, créer un hyperlien, souscrire, s’abonner, « aimer », etc. Nous créons notre environnement symbolique de manière collaborative. Le bon agent humain de l’intelligence collective gardera donc à la conscience que ses actions en ligne contribuent à l’information des autres agents.

La liberté dont il est question dans la figure 1 se présente comme une dialectique entre pouvoir et responsabilité. Le pouvoir recouvre notre capacité à créer, évaluer, organiser, lire et analyser les données, notre aptitude à faire évoluer la mémoire commune à partir de la multitude distribuée de nos actions. La responsabilité se fonde sur une conscience réfléchie de notre pouvoir collectif, conscience qui informe en retour l’orientation de notre attention et le sens que nous donnons à l’exercice de nos pouvoirs.

Diapositive4.jpg

FIGURE 2

L’apprentissage collaboratif

Finalement, l’apprentissage collaboratif est un des processus cognitifs majeurs de l’intelligence collective et le principal bénéfice social des habiletés en curation de données. Afin de bien saisir ce processus, nous devons distinguer entre savoirs tacites et savoirs explicites. Les savoirs tacites recouvrent ce que les membres d’une communauté ont appris dans des contextes particuliers, les savoir-faire internalisés dans les réflexes personnels à partir de l’expérience. Les savoirs explicites, en revanche, sont des récits, des images, des données, des logiciels ou d’autres ressources documentaires, qui sont aussi clairs et décontextualisés que possible, afin de pouvoir être partagés largement.

L’apprentissage collaboratif enchaîne deux mouvements. Le premier consiste à traduire le savoir tacite en savoir explicite pour alimenter une mémoire commune. Dans un second mouvement, complémentaire du premier, les participants exploitent le savoir explicite et les ressources d’apprentissage disponibles dans la mémoire commune afin d’adapter ces connaissances à leur contexte particulier et de les intégrer dans leurs réflexes quotidiens. Les curateurs sont potentiellement des étudiants ou des apprenants lorsqu’ils internalisent un savoir explicite et ils peuvent se considérer comme des enseignants lorsqu’ils mettent des savoirs explicites à la disposition des autres. Ce sont donc des pairs (voir la figure 2) qui travaillent dans un champ de pratique commun. Ils transforment autant que possible leur savoir tacite en savoir explicite et travaillent en retour à traduire la partie des connaissances explicites qu’ils veulent acquérir en savoir pratique personnel. J’écris “autant que possible” parce que l’explicitation totale du savoir tacite est hors de portée, comme l’a bien montré Michael Polanyi.

Dans le médium algorithmique, le savoir explicite prend la forme de données catégorisées et évaluées. Le cycle de transformation des savoirs tacites en savoirs explicites et vice versa prend place dans les médias sociaux, où il est facilité par une conversation créative civilisée : les compétences intellectuelles et sociales (ou morales) fonctionnent ensemble !

La curation de données

Comme Monsieur Jourdain faisait de la prose sans le savoir, tout le monde fait aujourd’hui de la curation de données – on dit aussi de la curation de contenu – sans le savoir. Sur les grandes plateformes de médias sociaux comme Facebook, Twitter, Pinterest ou Instagram, mais aussi dans une multitude d’applications en ligne plus spécialisées comme Evernote, Scoop.it ou Diigo, les utilisateurs font référence à des données (textes, images, vidéos, musique…) qu’ils accompagnent de commentaires, de hashtags classificateurs et de diverses formes d’évaluations et d’émoticons. Ces posts s’accumulent dans des collections personnelles ou communautaires, apparaissent sur les fils d’autres utilisateurs et sont réexpédiées ad libitum avec d’éventuels changements de commentaires, de hashtags et d’appréciations émotionnelles. Les posts deviennent eux-mêmes des données qui peuvent à leur tour faire l’objet de références, de commentaires, de marquage affectif, de recherche et d’analyse. Les médias sociaux nous proposent des outils perfectionnés de gestion de base de données, avec des algorithmes de fouille, d’apprentissage machine, de reconnaissance de forme et de filtrage collaboratif qui nous aident à naviguer parmi la masse du contenu et les foules d’utilisateurs. Mais l’alimentation de la base tout comme la catégorisation et l’évaluation des données sont à notre charge.

labyrinthe-livres.jpg

Le mot curation, employé d’abord en anglais pour désigner l’activité d’un commissaire d’exposition dans l’univers des galeries d’art et des musées, a été récemment généralisé à toutes les activités de collection d’information. L’étymologie latine du mot évoque le soin médical (la cure) et plus généralement le souci. S’il est vrai que nous entrons dans une société datacentrique, le souci des données, l’activité qui consiste à collectionner et organiser des données pour soi et pour les autres devient cruciale. Et puisque la société datacentrique repose sur une effervescente économie de la connaissance, au sens le plus vaste et le plus « écologique » de la notion d’économie (voir à ce sujet La Sphère sémantique 1, Chp. 6.) l’enjeu ultime de la curation de données n’est autre que la production et le partage des connaissances.

Je vais maintenant évoquer un certain nombre de sphères d’activité dans lesquelles la maîtrise de la curation collaborative de données commence à s’imposer comme une compétence essentielle : la conservation des héritages, la recherche en sciences humaines, l’apprentissage collaboratif, la production et la diffusion des nouvelles, le renseignement à sources ouvertes et la gestion des connaissances.

url.jpg

La conservation des héritages

Les responsables des archives, bibliothèques, médiathèques et musées collectionnent depuis des siècles des artefacts porteurs d’information et les organisent de telle sorte que leur public puisse les retrouver et les consulter. C’est dans ce milieu professionnel qu’est d’abord apparue la distinction entre données et métadonnées. Du côté des données, les documents physiques sont posés sur des étagères. Du côté des métadonnées, un fichier permet de rechercher les documents par auteurs, titres, sujets, disciplines, dates, etc. Le bibliothécaire fabrique une fiche, voire plusieurs fiches, pour chaque document qui entre dans la bibliothèque et le lecteur fouille dans les fiches pour explorer le contenu de la bibliothèque et savoir où se trouvent placés les livres qu’il veut lire. Sans l’appareillage des métadonnées et les principes d’organisation qui les sous-tendent il serait impossible d’exploiter les informations contenues dans une bibliothèque. Depuis la fin du XXe siècle, le monde des archives, des bibliothèques et des musées connaît une grande transformation. La numérisation fait converger toutes les informations dans le médium algorithmique et cette unification met cruellement en évidence la disparité et l’incompatibilité des systèmes de classification en usage. De plus, les principaux systèmes de métadonnées ont été conçus et utilisés à l’époque de l’imprimerie, ils n’exploitent donc pas les nouvelles possibilités de calcul automatique. Finalement, les flots d’information ont tellement crû qu’ils échappent à toute possibilité de catalogage classique par un petit nombre de professionnels. Depuis quelques années, les musées et bibliothèques numérisent et mettent en ligne leurs collections en faisant appel au crowdsourcing, c’est-à-dire à l’intelligence collective des internautes, pour catégoriser les données. Cette curation collaborative de données brouille la distinction entre curateurs et utilisateurs tout en manifestant la diversité des points de vue et des intérêts du public. Par ailleurs, une multitude de sites puisant leurs données dans le Web ouvert, et souvent indépendants des institutions classiques de préservation des héritages culturels, permettent aux amateurs d’art ou aux bibliophiles de partager leurs goûts et leurs trouvailles, de se regrouper par sensibilité et par centres d’intérêts.

La recherche en sciences humaines

La numérisation des archives et des héritages culturels, l’accessibilité des données et statistiques compilées par les gouvernements et les institutions internationales, les communications et transactions des internautes recueillies par les grandes plateformes du Web, toutes ces nouvelles sources offrent aux sciences humaines une matière première dont l’abondance défie l’imagination. Par ailleurs les blogs de chercheurs, les plateformes collaboratives spécialisées dans la collection d’articles (comme Academia.edu, Researchgate, Mendeley, CiteULike…) et les bases de données partagées transforment profondément les pratiques de recherche. Enfin, une frange croissante des professionnels des sciences humaines s’initie à la programmation et à l’usage avancé des algorithmes, produisant et partageant le plus souvent des outils open source. L’édition scientifique traditionnelle est en crise puisque la communication entre chercheurs n’a plus besoin de journaux imprimés. Chaque plateforme en ligne propose ses propres méthodes d’appréciation des publications, basées sur un traitement automatisé des interactions sociales, ce qui remet en question les modes classiques de filtrage et d’évaluation des articles. Certes, le problème posé par l’incompatibilité des plateformes et des systèmes de catégorisation reste à résoudre. Il subsiste donc quelques obstacles à franchir, mais tout est en place pour que la curation collaborative de données s’impose comme l’activité centrale de la recherche en sciences humaines… et de son évaluation.

L’apprentissage collaboratif

La curation collaborative de données émerge également comme une pratique essentielle dans le domaine de l’éducation. A l’époque du médium algorithmique, les connaissances évoluent vite, presque toutes les ressources d’apprentissage sont disponibles gratuitement en ligne et les étudiants sont déjà plongés dans le bain des médias sociaux. Le vieux modèle des communautés d’apprentissage s’organisant autour d’une bibliothèque ou d’un entrepôt physique de documents est donc obsolète. L’apprentissage doit être de plus en plus pensé comme partiellement délocalisé, collaboratif et continu. L’ensemble de la société acquiert une dimension d’apprentissage. Cela n’implique pas que les institutions d’enseignement classiques, école et université, ne soient plus pertinentes, bien au contraire. C’est précisément parce que l’apprentissage va puiser dans un stock de ressources pratiquement infini qu’aucune autorité transcendante ne peut plus organiser et hiérarchiser a priori que l’école a l’obligation d’entraîner les jeunes gens à l’apprentissage collaboratif et critique par le biais des médias sociaux. La fameuse littéracie numérique ne repose pas principalement sur l’acquisition de compétences techniques en informatique (qui changent rapidement), mais plutôt sur un savoir-faire socio-cognitif orienté vers la curation collaborative de données : filtrer les contenus pertinents pour tel ou tel groupe, les catégoriser, les évaluer, consulter les données, rédiger de courtes synthèses… Ainsi les enseignants utilisent des plateformes de social bookmarking (partage de signets) comme Diigo pour animer leurs cours, les MOOCs connectivistes font appel aux étudiants pour alimenter leurs ressources d’apprentissage, on trouvera une multitude de hashtags reliés à l’éducation et à l’apprentissage sur Twitter et les groupes Facebook abritent de plus en plus de classes…

Les nouvelles

La production et la dissémination des nouvelles participe du même type de mutation que celles qui viennent d’être évoquées. Du côté de la production, les journalistes s’initient à l’exploitation statistique des bases de données ouvertes pour en retirer les synthèses et les visualisations qui vont alimenter leurs articles. Ils suivent leurs collègues ainsi qu’une foules de sources sur Twitter afin de rester à jour sur les thèmes dont ils s’occupent. Par ailleurs, ce ne sont plus seulement les agences de presse et les journalistes professionnels qui produisent les nouvelles mais également les acteurs culturels, économiques, politiques et militaires par l’intermédiaire de leurs sites et de leurs agents dans les médias sociaux. N’oublions pas non plus les citoyens ordinaires qui prennent des photos et des vidéos grâce à leurs téléphones intelligents, qui diffusent ce qu’ils voient et ce qu’ils pensent sur toutes les plateformes et qui réagissent en temps réel aux nouvelles diffusées par les médias classiques. Du côté de la réception, la consommation des nouvelles se fait de plus en plus en ligne par le biais de Facebook, de Twitter, de Google news et d’autres plateformes sociales. Puisque chacun peut accéder directement aux sources (les messages émis par les acteurs eux-mêmes), les médias classiques ont perdu le monopole de l’information. Sur les sujets qui m’intéressent, je suis les experts de mon choix, j’écoute tous les sons de cloche et je me fais ma propre idée sans être obligé de m’en remettre à des synthèses journalistiques simplificatrices et forcément tributaires d’un agenda ou d’un maître-récit (« narrative ») politique ou national. En somme, aussi bien les professionnels de l’information que le nouveau public critique en ligne pratiquent assidûment la curation collaborative de données

L’intelligence open-source

Le domaine du renseignement économique (« business intelligence »), politique ou militaire échappe progressivement à l’ancienne logique de l’espionnage. Désormais, l’abondance des sources d’information en ligne rend de moins en moins judicieux l’entretien d’un personnel spécialement chargé de recueillir des informations sur place. En revanche, les compétences linguistiques, culturelles et scientifiques, l’érudition en sciences humaines, la capacité à extraire les renseignements pertinents du flot des données, le monitoring des médias sociaux et le savoir-faire collaboratif deviennent indispensables. A part les noms et adresses des agents doubles et le détail des plans d’attaque, tout est désormais disponible sur internet. A qui sait chercher en ligne et lire entre les mots, les images des satellites, les sites médiatiques, académiques, diplomatiques et militaires, sans oublier les rapports des « think tanks » en pdf, permettent de comprendre les situations et de prendre des décisions éclairées. Certes, les agents d’influence, trolls, utilisateurs masqués et robots logiciels tentent de brouiller les cartes, mais ils révèlent à la longue les stratégies des marionnettistes qui les manipulent. Dans le domaine en pleine expansion de l’open source intelligence les agences de renseignement – comme la nuée de leurs fournisseurs d’information, d’analyse et de synthèse – coopèrent dans la production, l’échange et l’évaluation des données. Ici encore, la curation collaborative de contenu est à l’ordre du jour.

La gestion des connaissances

Une équipe de travail, une entreprise quelconque – qu’elle soit publique, privée ou associative – se trouve dans la nécessité de « gérer ses connaissances » pour atteindre ses buts. Le terme de gestion des connaissances a commencé à être utilisé vers le milieu des années 1990, au moment même où naissait le Web et alors que l’idée d’une économie basée sur les savoirs et l’innovation commençait à s’affirmer. L’un des principaux fondateurs de cette nouvelle discipline, Ikujiro Nonaka (né en 1935), s’est attaché à décrire le cycle de création des connaissances dans les entreprises en insistant sur la phase d’explicitation des savoir-faire pratiques. A la suite de Nonaka, de nombreux chercheurs et praticiens ont tenté de déterminer les meilleures méthodes pour expliciter les savoirs tacites – nés de l’expérience – afin de les conserver et de les diffuser dans les organisations. Les premiers outils de gestion des connaissances étaient assez rigides et centralisés, à l’image de l’informatique de l’époque. On met en place aujourd’hui (2016) de véritables médias sociaux d’entreprise, dans lesquels les collaborateurs peuvent repérer mutuellement leurs compétences, créer des groupes de travail et des communautés de pratique, accumuler des ressources et partager des données. Indépendamment des outils techniques utilisés, la gestion des connaissances est une dimension transversale de toute entreprise. Cette épistémologie appliquée inclut la conservation des savoirs et savoir-faire, le développement des compétences et des ressources humaines, l’art de créer et de diffuser les connaissances. De fait, en observant les pratiques contemporaines dans les médias sociaux d’entreprise qui supportent la gestion des connaissances, on découvre que l’une des principales activités se trouve être justement la curation collaborative de données.

Il existe donc une pratique commune à de nombreux secteurs de la culture mondiale contemporaine, pratique dont les cloisonnements sociaux et la disparité des jargons professionnels dissimulent l’unité et la transversalité. Je fais l’hypothèse que la curation collaborative de données est le support techno-social de l’intelligence collective à l’époque du médium algorithmique : écrire et lire… sur des flots de données.

Pour en savoir plus sur les compétences en curation collaborative de données, lisez-donc le post qui suit!

L’intelligence collective désigne l’augmentation des capacités cognitives des groupes humains grâce à une utilisation judicieuse des médias numériques. On vise ici la mémoire partagée, l’apprentissage collaboratif et la coordination des compétences en temps réel.
L’éthologie étudie l’intelligence collective des espèces sociales. Par exemple, les abeilles, les fourmis et les termites ont une division du travail poussée et communiquent de manière étroite. Même si les capacités cognitives d’une fourmi sont limitées, la fourmilière dans son ensemble manifeste une « intelligence émergente » qui lui permet d’apprendre et de résoudre des problèmes. Les grands singes ont un comportement social complexe et des modes de communication particulièrement développés.

Ruche

L’intelligence collective humaine se situe dans la continuité de l’intelligence collective animale, mais elle est plus perfectionnée à cause du langage, des techniques et des institutions politiques, économiques, légales et autres qui nous caractérisent. La principale différence entre les intelligences collectives animale et humaine tient à la culture, c’est-à-dire à une capacité d’apprentissage accélérée de l’espèce, dont les savoir-faire s’accumulent et se transmettent d’une génération à l’autre au moyen de signes et d’outils plutôt que par la simple évolution biologique. Aucun individu ne serait « intelligent » s’il ne participait pas à la communication sociale et s’il n’héritait pas des connaissances créées par les générations précédentes.
L’évolution culturelle a déjà franchi plusieurs seuils d’intelligence collective. En effet, les inventions de l’écriture, de l’imprimerie et des médias électroniques (enregistrement musical, téléphone, radio, télévision) ont déjà augmenté de manière irréversible nos capacités de mémoire et de communication sociale. L’intelligence collective des groupes humains n’est pas à créer, elle existe déjà et elle a derrière elle une longue histoire. Le véritable enjeu du méta medium algorithmique est donc le franchissement d’un nouveau seuil d’augmentation de l’intelligence collective.

Cuneiform

L’internet supporte de nouvelles formes d’intelligence collective pour trois grandes raisons. Premièrement, il permet une communication ubiquitaire indépendante des distances géographiques. La capacité d’émettre et de sélectionner l’information à volonté se trouve entre les mains de tous. Deuxièmement, l’internet enregistre et interconnecte progressivement la plus grande partie des connaissances produites par l’humanité, construisant ainsi une mémoire dynamique commune et participative. Troisièmement, les algorithmes traitent automatiquement l’information, ouvrant la voie à de nouvelles formes de traduction, d’analyse de données, de fouille et de filtrage collaboratif.
Une grande partie de l’intelligence collective à support numérique est implicite. Chaque fois que l’on fait une requête sur un moteur de recherche, que l’on envoie un message en ligne, que l’on crée un hyperlien, que l’on catégorise une information au moyen d’un hashtag, que l’on achète un produit en ligne ou que l’on « aime » une photo, on alimente des algorithmes qui transforment la structure de la mémoire collective et qui contribuent à orienter l’attention et l’activité des autres internautes.
Il existe aussi des formes explicites d’intelligence collective. Citons la programmation collaborative (logiciels libres, Github…), les nouvelles formes d’encyclopédie en ligne comme Wikipedia, qui rassemblent d’immenses communautés internationales de rédacteurs et d’éditeurs, les dispositifs d’apprentissage collaboratif en réseau (pédagogies innovantes, MOOCs…), les jeux en ligne massivement multi-joueurs ou les diverses applications de curation collaborative de contenu qui visent à filtrer et catégoriser les flux d’information dans une optique de gestion décentralisée des connaissances.

hashtag

Au-delà de pratiques sociales largement répandues, l’intelligence collective est également un mot d’ordre programmatique. En informatique, c’est une ligne de recherche qui fait contrepoint à l’intelligence artificielle et qui a été initié par Douglas Engelbart, l’inventeur de la souris et des premières applications de travail collaboratif. Au lieu d’essayer de rendre les ordinateurs plus intelligents que les humains, on vise ici à rendre les humains plus intelligents ensemble au moyen des ordinateurs. Dans le domaine du management de l’économie de la connaissance, l’intelligence collective se présente comme un art de maximiser simultanément la liberté créatrice et l’efficacité collaborative. En politique, il s’agit de permettre au plus grand nombre de voix singulières de se faire entendre (par opposition à l’homogénéisation partisane), de favoriser la délibération en ligne et la création rapide de réseaux de mobilisation et d’entraide.
La notion d’intelligence collective donne lieu à quelques malentendus. On lui oppose la « stupidité collective » constatée sur les réseaux sociaux. Mais parler d’intelligence collective n’implique aucun jugement de valeur. On peut noter l’augmentation des capacités cognitives des groupes sans nécessairement approuver tout ce qui se dit sur Internet. Il ne s’agit pas non plus d’attribuer une conscience autonome aux collectivités. La conscience réflexive est personnelle alors que l’intelligence collective est un phénomène social émergeant. Enfin, l’augmentation technique des capacités cognitives des groupes ne dispense nullement d’un effort personnel d’apprentissage et de création originale. Un des grands défis de l’enseignement contemporain consiste à éduquer les étudiants à une utilisation responsable des nouveaux outils de communication. Apprendre à gérer son attention, faire une analyse critique des sources auxquelles on se branche, tenir compte de la culture de ses correspondants, identifier les différents récits et leurs contradictions : tout cela contribue aussi bien aux apprentissages individuels qu’à bonifier l’intelligence collective.

Pour plus de détails sur ma théorie de l’intelligence collective, aller là!

Abstract

IEML is an artificial language that allows the automatic computing of (a) the semantic relationships internal to its texts and of (b) the semantic relationships between its texts. Such an innovation could have a positive impact on the development of human collective intelligence. While we are currently limited to logical and statistical analytics, semantic coding could allow large scale computing on the meaning of data, provided that these data are categorized in IEML. Moreover “big data” algorithms are currently monopolized by big companies and big governemnts. But according to the perspective adopted here, the algorithmic tools of the future will put data-anaytics, machine learning and reflexive collective intelligence in the hands of the majority of Internet users.
I will first describe the main components of an algorithm (code, operators, containers, instructions), then I will show that the growth of the algorithmic medium has been shaped by innovations in coding and containers addressing. The current limitations of the web (absence of semantic interoperability and statistical positivism) could be overcomed by the invention of a new coding system aimed at making the meaning computable. Finally I will describe the cognitive gains that can be secured from this innovation.

This paper has been published by Spanda Journal special issue on “Creativity & Collective Enlightenment”,  VI, 2, December 2015, p. 59-66

Our communications—transmission and reception of data—are based on an increasingly complex infrastructure for the automatic manipulation of symbols, which I call the algorithmic medium because it automates the transformation of data, and not only their conservation, reproduction and dissemination (as with previous media). Both our data-centric society and the algorithmic medium that provides its tools are still at their tentative beginnings. Although it is still hard to imagine today, a huge space will open up for the transformation and analysis of the deluge of data we produce daily. But our minds are still fascinated by the Internet’s power of dissemination of messages, which has almost reached its maximum.
In the vanguard of the new algorithmic episteme, IEML (or any other system that has the same properties) will democratize the categorization and automatic analysis of the ocean of data. The use of IEML to categorize data will create a techno-social environment that is even more favourable for collaborative learning and the distributed production of knowledge. In so doing, it will contribute to the emergence of the algorithmic medium of the future and reflect collective intelligence in the form of ecosystems of ideas.
This text begins by analyzing the structure and functioning of algorithms and shows that the major stages in the evolution of the new medium correspond to the appearance of new systems for encoding and addressing data: the Internet is a universal addressing system for computers and the Web, a universal addressing system for data. However, the Web, in 2016, has many limitations. Levels of digital literacy are still low. Interoperability and semantic transparency are sorely lacking. The majority of its users see the Web only as a big multimedia library or a means of communication, and pay no attention to its capacities for data transformation and analysis. As for those concerned with the processing of big data, they are hindered by statistical positivism. In providing a universal addressing system for concepts, IEML takes a decisive step toward the algorithmic medium of the future. The ecosystems of ideas based on this metalanguage will give rise to cognitive augmentations that are even more powerful than those we already enjoy.

What is an algorithm?

To help understand the nature of the new medium and its evolution, let us represent as clearly as possible what an algorithm is and how it functions. In simplified explanations of programming, the algorithm is often reduced to a series of instructions or a “recipe.” But no series of instructions can play its role without the three following elements: first, an adequate encoding of the data; second, a well-defined set of reified operators or functions that act as black boxes; third, a system of precisely addressed containers capable of recording initial data, intermediate results and the end result. The rules—or instructions—have no meaning except in relation to the code, the operators and the memory addresses.
I will now detail these aspects of the algorithm and use that analysis to periodize the evolution of the algorithmic medium. We will see that the major stages in the growth of this medium are precisely related to the appearance of new systems of addressing and encoding, both for the containers of data and for the operators. Based on IEML, the coming stage of development of the algorithmic medium will provide simultaneously a new type of encoding (semantic encoding) and a new system of virtual containers (semantic addressing).

Encoding of data

For automatic processing, data must first be encoded appropriately and uniformly. This involves not only binary encoding (zero and one), but more specialized types of encoding such as encoding of numbers (in base two, eight, ten, sixteen, etc.), that of characters used in writing, that of images (pixels), that of sounds (sampling), and so on.

Operators

We must then imagine a set of tools or specialized micro-machines for carrying out certain tasks on the data. Let us call these specialized tools “operators.” The operators are precisely identified, and they act in a determined or mechanical way, always the same way. There obviously has to be a correspondence or a match between the encoding of the data and the functioning of the operators.
The operators were first identified insider computers: they are the elementary electronic circuits that make up processors. But we can consider any processor of data—however complex it is—as a “black box” serving as a macro-operator. Thus the protocol of the Internet, in addressing the computers in the network, at the same time set up a universal addressing system for operators.

Containers

In addition to a code for the data and a set of operators, we have to imagine a storehouse of data whose basic boxes or “containers” are completely addressed: a logical system of recording with a smooth surface for writing, erasing and reading. It is clear that the encoding of data, the operations applied to them and the mode of recording them—and therefore their addressing—must be harmonized to optimize processing.
The first addressing system of the containers is internal to computers, and it is therefore managed by the various operating systems (for example, UNIX, Windows, Apple OS, etc.). But at the beginning of the 1990s, a universal addressing system for containers was established above that layer of internal addressing: the URLs of the World Wide Web.

Instructions

The fourth and last aspect of an algorithm is an ordered set of rules—or a control mechanism—that organizes the recursive circulation of data between the containers and the operators. The circulation is initiated by a data flow that goes from containers to the appropriate operators and then directs the results of the operations to precisely addressed containers. A set of tests (if . . . , then . . .) determines the choice of containers from which the data to be processed are drawn, the choice of operators and the choice of containers in which the results are recorded. The circulation of data ends when a test has determined that processing is complete. At that point, the result of the processing—a set of encoded data—is located at a precise address in the system of containers.

The growth of the new medium

To shape the future development of the algorithmic medium, we have to first look at its historical evolution.

Automatic calculation (1940-1970)

From when can we date the advent of the algorithmic medium? We might be tempted to give its date of birth as 1937, since it was in that year that Alan Turing (1912-1954) published his famous article introducing the concept of the universal machine, that is, the formal structure of a computer. The article represents calculable functions as programs of the universal machine, that is, essentially, algorithms. We could also choose 1945, because in June of that year, John von Neumann (1903-1957) published his “First draft of a report on the EDVAC,” in which he presented the basic architecture of computers: 1) a memory containing data and programs (the latter encoding algorithms), 2) an arithmetic, logical calculation unit and 3) a control unit capable of interpreting the instructions of the programs contained in the memory. Since the seminal texts of Alan Turing and John von Neumann represent only theoretical advances, we could date the new era from the construction and actual use of the first computers, in the 1950s. It is clear, however, that (in spite of the prescience of a few visionaries ) until the end of the 1970s, it was still hard to talk about an algorithmic medium. One of the main reasons is that the computers at that time were still big, costly, closed machines whose input and output interfaces could only be manipulated by experts. Although already in its infancy, the algorithmic medium was not yet socially prevalent.
It should be noted that between 1950 and 1980 (before Internet connections became the norm), data flows circulated mainly between containers and operators with local addresses enclosed in a single machine.

The Internet and personal computers (1970-1995)

A new trend emerged in the 1970s and became dominant in the 1980s: the interconnection of computers. The Internet protocol (invented in 1969) won out over its competitors in addressing machines in telecommunication networks. This was also the period when computing became personal. The digital was now seen as a vector of transformation and communication of all symbols, not only numbers. The activities of mail, telecommunications, publishing, the press, and radio and television broadcasting began to converge.
At the stage of the Internet and personal computers, data processed by algorithms were always stored in containers with local addresses, but—in addition to those addresses—operators now had universal physical addresses in the global network. Consequently, algorithmic operators could “collaborate,” and the range of types of processing and applications expanded significantly.

The World Wide Web (1995-2020)

It was only with the arrival of the Web, around 1995, however, that the Internet became the medium of most communication—to the point of irreversibly affecting the functioning of the traditional media and most economic, political and cultural institutions.
The revolution of the Web can be explained essentially as the creation of a universal system of physical addresses for containers. This system, of course, is URLs. It should be noted that—like the Internet protocol for operators—this universal system is added to the local addresses of the containers of data, it does not eliminate them. Tim Berners-Lee’s ingenious idea may be described as follows: by inventing a universal addressing system for data, he made possible the shift from a multitude of actual databases (each controlled by one computer) to a single virtual database for all computers. One of the main benefits is the possibility of creating hyperlinks among any of the data of that universal virtual database: “the Web.”
From then on, the effective power and the capacity for collaboration—or inter-operation—between algorithms increased and diversified enormously, since both operators and containers now possessed universal addresses. The basic programmable machine became the network itself, as is shown by the spread of cloud computing.
The decade 2010-2020 is seeing the beginning of the transition to a data-centric society. Indeed, starting with this phase of social utilization of the new medium, the majority of interactions among people take place through the Internet, whether purely for socialization or for information, work, research, learning, consumption, political action, gaming, watches, and so on. At the same time, algorithms increasingly serve as the interface for relationships between people, relationships among data, and relationships between people and data. The increase in conflicts around ownership and free accessibility of data, and around openness and transparency of algorithms, are clear signs of a transition to a data-centric society. However, in spite of their already decisive role, algorithms are not yet perceived in the collective consciousness as the new medium of human communication and thought. People were still fascinated by the logic of dissemination of previous media.
The next stage in the evolution of the algorithmic medium—the semantic sphere based on IEML—will provide a conceptual addressing system for data. But before we look at the future, we need to think about the limitations of the contemporary Web. Indeed, the Web was invented to help solve problems in interconnecting data that arose around 1990, at a time when one percent of the world’s population (mainly anglophone) was connected. But now in 2014, new problems have arisen involving the difficulties of translating and processing data, as well as the low level of digital literacy. When these problems become too pronounced (probably around 2020, when more than half the world’s population will be connected), we will be obliged to adopt a conceptual addressing system on top of the layer of physical addressing of the WWW.

The limitations of the Web in 2016

The inadequacy of the logic of dissemination

From Gutenberg until the middle of the twentieth century, the main technical effect of the media was the mechanical recording, reproduction and transmission of the symbols of human communication. Examples include printing (newspapers, magazines, books), the recording industry, movies, telephone, radio and television. While there were also technologies for calculation, or automatic transformation of symbols, the automatic calculators available before computers were not very powerful and their usefulness was limited.
The first computers had little impact on social communication because of their cost, the complexity of using them and the small number of owners (essentially big corporations, some scientific laboratories and the government administrations of rich countries). It was only beginning in the 1980s that the development of personal computing provided a growing proportion of the population with powerful tools for producing messages, whether these were texts, tables of numbers, images or music. From then on, the democratization of printers and the development of communication networks among computers, as well as the increased number of radio and television networks, gradually undermined the monopoly on the massive dissemination of messages that had traditionally belonged to publishers, professional journalists and the major television networks. This revolution in dissemination accelerated with the arrival of the World Wide Web in the mid-1990s and blossomed into the new kind of global multimedia public sphere that prevails now at the beginning of the twenty-first century.
In terms of the structure of social communication, the essential characteristic of the new public sphere is that it permits anyone to produce messages, to transmit to a community without borders and to access messages produced and transmitted by others. This freedom of communication is all the more effective since its exercise is practically free and does not require any prior technical knowledge. In spite of the limits I will describe below, we have to welcome the new horizon of communication that is now offered to us: at the rate at which the number of connections is growing, almost all human beings in the next generation will be able to disseminate their messages to the entire planet for free and effortlessly.
It is certain that automatic manipulation—or transformation—of symbols has been practiced since the 1960s and 1970s. I have also already noted that a large proportion of personal computing was used to produce information and not only to disseminate it. Finally, the major corporations of the Web such as Google, Amazon, eBay, Apple, Facebook, Twitter and Netflix daily process huge masses of data in veritable “information factories” that are entirely automated. In spite of that, the majority of people still see and use the Internet as a tool for the dissemination and reception of information, in continuity with the mass media since printing and, later, television. It is a little as if the Web gave every individual the power of a publishing house, a television network and a multimedia postal service in real time, as well as access to an omnipresent global multimedia library. Just as the first printed books—incunabula—closely copied the form of manuscripts, we still use the Internet to achieve or maximize the power of dissemination of previous media. Everyone can transmit universally. Everyone can receive from anywhere.
No doubt we will have to exhaust the technical possibilities of automatic dissemination—the power of the media of the last four centuries—in order to experience and begin to assimilate intellectually and culturally the almost unexploited potential of automatic transformation—the power of the media of centuries to come. That is why I am again speaking of the algorithmic medium: to emphasize digital communication’s capacity for automatic transformation. Of course, the transformation or processing power of the new medium can only be actualized on the basis of the irreversible achievement of the previous medium, the universal dissemination or ubiquity of information. That was nearly fully achieved at the beginning of the twenty-first century, and coming generations will gradually adapt to automatic processing of the massive flow of global data, with all its unpredictable cultural consequences. There are at this time three limits to this process of adaptation: users’ literacy, the absence of semantic interoperability and the statistical positivism that today governs data analysis.

The problem of digital literacy

The first limit of the contemporary algorithmic medium is related to the skills of social groups and individuals: the higher their education level (elementary, secondary, university), the better developed their critical thinking, the greater their mastery of the new tools for manipulation of symbols and the more capable they are of turning the algorithmic medium to their advantage. As access points and mobile devices increase in number, the thorny question of the digital divide is less and less related to the availability of hardware and increasingly concerns problems of print literacy, media literacy and education. Without any particular skills in programming or even in using digital tools, the power provided by ordinary reading and writing is greatly increased by the algorithmic medium: we gain access to possibilities for expression, social relationships and information such as we could not even have dreamed of in the nineteenth century. This power will be further increased when, in the schools of the future, traditional literacy, digital literacy and understanding of ecosystems of ideas are integrated. Then, starting at a very young age, children will be introduced to categorization and evaluation of data, collection and analysis of large masses information and programming of semantic circuits.

The absence of semantic interoperability

The second limit is semantic, since, while technical connection is tending to become universal, the communication of meaning still remains fragmented according to the boundaries of languages, systems of classification, disciplines and other cultural worlds that are more or less unconnected. The “semantic Web” promoted by Tim Berners-Lee since the late 1990s is very useful for translating logical relationships among data. But it has not fulfilled its promise with regard to the interoperability of meaning, in spite of the authority of its promoter and the contributions of many teams of engineers. As I showed in the first volume of The Semantic Sphere, it is impossible to fully process semantic problems while remaining within the narrow limits of logic. Moreover, the essentially statistical methods used by Google and the numerous systems of automatic translation available provide tools to assist with translation, but they have not succeeded any better than the “semantic Web” in opening up a true space of translinguistic communication. Statistics are no more effective than logic in automating the processing of meaning. Here again, we lack a coding of linguistic meaning that would make it truly calculable in all its complexity. It is to meet this need that IEML is automatically translated into natural languages in semantic networks.

Statistical positivism

The general public’s access to the power of dissemination of the Web and the flows of digital data that now result from all human activities confront us with the following problem: how to transform the torrents of data into rivers of knowledge? The solution to this problem will determine the next stage in the evolution of the algorithmic medium. Certain enthusiastic observers of the statistical processing of big data, such as Chris Anderson, the former editor-in-chief of Wired, were quick to declare that scientific theories—in general!—were now obsolete. In this view, we now need only flows of data and powerful statistical algorithms operating in the computing centres of the cloud: theories—and therefore the hypotheses they propose and the reflections from which they emerge—belong to a bygone stage of the scientific method. It appears that numbers speak for themselves. But this obviously involves forgetting that it is necessary, before any calculation, to determine the relevant data, to know exactly what is being counted and to name—that is, to categorize—the emerging patterns. In addition, no statistical correlation directly provides causal relationships. These are necessarily hypotheses to explain the correlations revealed by statistical calculations. Under the guise of revolutionary thought, Chris Anderson and his like are reviving the old positivist, empiricist epistemology that was fashionable in the nineteenth century, according to which only inductive reasoning (that is, reasoning based solely on data) is scientific. This position amounts to repressing or ignoring the theories—and therefore the risky hypotheses based on individual thought—that are necessarily at work in any process of data analysis and that are expressed in decisions of selection, identification and categorization. One cannot undertake statistical processing and interpret its results without any theory. Once again, the only choice we have is to leave the theories implicit or to explicate them. Explicating a theory allows us to put it in perspective, compare it with other theories, share it, generalize from it, criticize it and improve it. This is even one of the main components of what is known as critical thinking, which secondary and university education is supposed to develop in students.
Beyond empirical observation, scientific knowledge has always been concerned with the categorization and correct description of phenomenal data, description that is necessarily consistent with more or less formalized theories. By describing functional relationships between variables, theory offers a conceptual grasp of the phenomenal world that make it possible (at least partially) to predict and control it. The data of today correspond to what the epistemology of past centuries called phenomena. To extend this metaphor, the algorithms for analyzing flows of data of today correspond to the observation tools of traditional science. These algorithms show us patterns, that is, ultimately, images. But the fact that we are capable of using the power of the algorithmic medium to observe data does not mean we should stop here on this promising path. We now need to use the calculating power of the Internet to theorize (categorize, model, explain, share, discuss) our observations, without forgetting to make our theorizing available to the rich collective intelligence.
In their 2013 book on big data, Viktor Mayer-Schonberger and Kenneth Cukier, while emphasizing the distinction between correlation and causality, predicted that we would take more and more interest in correlations and less and less in causality, which put them firmly in the empiricist camp. Their book nevertheless provides an excellent argument against statistical positivism. Indeed, they recount the very beautiful story of Matthew Maury, an American naval officer who in the mid-nineteenth century compiled data from log books in the official archives to establish reliable maps of winds and currents. Those maps were constructed from an accumulation of empirical data. But with all due respect for Cukier and Mayer-Schonberger, I would point out that such an accumulation would never have been useful, or even feasible, without the system of geographic coordinates of meridians and parallels, which is anything but empirical and based on data. Similarly, it is only by adopting a system of semantic coordinates such as IEML that we will be able to organize and share data flows in a useful way.
Today, most of the algorithms that manage routing of recommendations and searching of data are opaque, since they are protected trade secrets of major corporations of the Web. As for the analytic algorithms, they are, for the most part, not only opaque but also beyond the reach of most Internet users for both technical and economic reasons. However, it is impossible to produce reliable knowledge using secret methods. We must obviously consider the contemporary state of the algorithmic medium to be transitory.
What is more, if we want to solve the problem of the extraction of useful information from the deluge of big data, we will not be able to eternally limit ourselves to statistical algorithms working on the type of organization of digital memory that exists in 2016. We will sooner or later, and the sooner the better, have to implement an organization of memory designed from the start for semantic processing. We will only be able to adapt culturally to the exponential growth of data—and therefore transform these data into reflected knowledge—through a qualitative change of the algorithmic medium, including the adoption of a system of semantic coordinates such as IEML.

The semantic sphere and its conceptual addressing (2020…)

It is notoriously difficult to observe or recognize what does not yet exist, and even more, the absence of what does not yet exist. However, what is blocking the development of the algorithmic medium—and with it, the advent of a new civilization—is precisely the absence of a universal, calculable system of semantic metadata. I would like to point out that the IEML metalanguage is the first, and to my knowledge (in 2016) the only, candidate for this new role of a system of semantic coordinates for data.
We already have a universal physical addressing system for data (the Web) and a universal physical addressing system for operators (the Internet). In its full deployment phase, the algorithmic medium will also include a universal semantic code: IEML. This system of metadata—conceived from the outset to optimize the calculability of meaning while multiplying its differentiation infinitely—will open the algorithmic medium to semantic interoperability and lead to new types of symbolic manipulation. Just as the Web made it possible to go from a great many actual databases to one universal virtual database (but based on a physical addressing system), IEML will make it possible to go from a universal physical addressing system to a universal conceptual addressing system. The semantic sphere continues the process of virtualization of containers to its final conclusion, because its semantic circuits—which are generated by an algebra—act as data containers. It will be possible to use the same conceptual addressing system in operations as varied as communication, translation, exploration, searching and three-dimensional display of semantic relationships.
Today’s data correspond to the phenomena of traditional science, and we need calculable, interoperable metadata that correspond to scientific theories and models. IEML is precisely an algorithmic tool for theorization and categorization capable of exploiting the calculating power of the cloud and providing an indispensable complement to the statistical tools for observing patterns. The situation of data analysis before and after IEML can be compared to that of cartography before and after the adoption of a universal system of geometric coordinates. The data that will be categorized in IEML will be able to be processed much more efficiently than today, because the categories and the semantic relationships between categories will then become not only calculable but automatically translatable from one language to another. In addition, IEML will permit comparison of the results of the analysis of the same set of data according to different categorization rules (theories!).

Algo-medium

FIGURE 1 – The four interdependent levels of the algorithmic medium

When this symbolic system for conceptual analysis and synthesis is democratically accessible to everyone, translated automatically into all languages and easily manipulated by means of a simple tablet, then it will be possible to navigate the ocean of data, and the algorithmic medium will be tested directly as a tool for cognitive augmentation—personal and social—and not only for dissemination. Then a positive feedback loop between the collective testing and creation of tools will lead to a take-off of the algorithmic intelligence of the future.
In Figure 1, the increasingly powerful levels of automatic calculation are represented by rectangles. Each level is based on the “lower” levels that precede it in order of historical emergence. Each level is therefore influenced by the lower levels. But, conversely, each new level gives the lower levels an additional socio-technical determination, since it uses them for a new purpose.
The addressing systems, which are represented under the rectangles, can be considered the successive solutions—influenced by different socio-technical contexts—to the perennial problem of increasing the power of automatic calculation. An addressing system thus plays the role of a step on a stairway that lets you go from one level of calculation to a higher level. The last addressing system, that of metadata, is supplied by IEML or any other system of encoding of linguistic meaning that makes that meaning calculable, exactly as the system of pixels made images manipulable by means of algorithms.

The cognitive revolution of semantic encoding

We know that the algorithmic medium is not only a medium of communication or dissemination of information but also, especially, a ubiquitous environment for the automatic transformation of symbols. We also know that a society’s capacities for analysis, synthesis and prediction are based ultimately on the structure of its memory, and in particular its system for encoding and organizing data. As we saw in the previous section, the only thing the algorithmic medium now in construction lacks to become the matrix of a new episteme that is more powerful than today’s, which has not yet broken its ties to the typographical era, is a system of semantic metadata that is equal to the calculating power of algorithms.

Memory, communication and intuition

It is now accepted that computers increase our memory capacities, in which I include not only capacities for recording and recall, but also those for analysis, synthesis and prediction. The algorithmic medium also increases our capacities for communication, in particular in terms of the breadth of the network of contacts and the reception, transmission and volume of flows of messages. Finally, the new medium increases our capacities for intuition, because it increases our sensory-motor interactions (especially gestural, tactile, visual and sound interactions) with large numbers of people, documents and environments, whether they are real, distant, simulated, fictional or mixed. These augmentations of memory, communication and intuition influence each other to produce an overall augmentation of our field of cognitive activity.
Semantic encoding, that is, the system of semantic metadata based on IEML, will greatly increase the field of augmented cognitive activity that I have described. It will produce a second level of cognitive complexity that will enter into dynamic relationship with the one described above to give rise to algorithmic intelligence. As we will see, semantic coding will generate a reflexivity of memory, a new perspectivism of intellectual intuition and an interoperability of communication.

Reflexive memory

The technical process of objectivation and augmentation of human memory began with the invention of writing and continued up to the development of the Web. But in speaking of reflexive memory, I go beyond Google and Wikipedia. In the future, the structure and evolution of our memory and the way we use it will become transparent and open to comparison and critical analysis. Indeed, communities will be able to observe—in the form of ecosystems of ideas—the evolution and current state of their cognitive activities and apply their capacities for analysis, synthesis and prediction to the social management of their knowledge and learning. At the same time, individuals will become capable of managing their personal knowledge and learning in relation to the various communities to which they belong. So much so that this reflexive memory will enable a new dialectic—a virtuous circle—of personal and collective knowledge management. The representation of memory in the form of ecosystems of ideas will allow individuals to make maximum use of the personal growth and cross-pollination brought about by their circulation among communities.

Perspectivist intellectual intuition

Semantic coding will give us a new sensory-motor intuition of the perspectivist nature of the information universe. Here we have to distinguish between the conceptual perspective and the contextual perspective.
The conceptual perspective organizes the relationships among terms, sentences and texts in IEML so that each of these semantic units can be processed as a point of view, or a virtual “centre” of the ecosystems of ideas, organizing the other units around it according to the types of relationships it has with them and their distance from it.
In IEML, the elementary units of meaning are terms, which are organized in the IEML dictionary (optimized for laptops + Chrome) in paradigms, that is, in systems of semantic relationships among terms. In the IEML dictionary, each term organizes the other terms of the same paradigm around it according to its semantic relationships with them. The different paradigms of the IEML dictionary are in principle independent of each other and none has precedence over the others a priori. Each of them can, in principle, be used to filter or categorize any set of data.
The sentences, texts and hypertexts in IEML represent paths between the terms of various paradigms, and these paths in turn organize the other paths around them according to their relationships and semantic proximity in the ecosystems of ideas. It will be possible to display this cascade of semantic perspectives and points of view using three-dimensional holograms in an immersive interactive mode.
Let us now examine the contextual perspective, which places in symmetry not the concepts within an ecosystem of ideas, but the ecosystems of ideas themselves, that is, the way in which various communities at different times categorize and evaluate data. It will thus be possible to display and explore the same set of data interactively according to the meaning and value it has for a large number of communities.
Reflexive memory, perspectivist intuition, interoperable and transparent communication together produce a cognitive augmentation characteristic of algorithmic intelligence, an augmentation more powerful than that of today.

Interoperable and transparent communication

The interoperability of communication will first concern the semantic compatibility of various theories, disciplines, universes of practices and cultures that will be able to be translated into IEML and will thus become not only comparable but also capable of exchanging concepts and operating rules without loss of their uniqueness. Semantic interoperability will also cover the automatic translation of IEML concepts into natural languages. Thanks to this pivot language, any semantic network in any natural language will be translated automatically into any other natural language. As a result, through the IEML code, people will be able to transmit and receive messages and categorize data in their own languages while communicating with people who use other languages. Here again, we need to think about cultural interoperability (communication in spite of differences in conceptual organization) and linguistic interoperability (communication in spite of differences in language) together; they will reinforce each other as a result of semantic coding.

Par Pierre Lévy (@plevy sur Twitter), prof. à l’Université d’Ottawa

Ce texte a été publié dans la revue Sciences du design, n°2, décembre 2015

Danah Boyd (@zephoria sur Twitter) est chercheuse chez Microsoft et enseigne à Harvard. C’est une des plus brillantes chercheuses américaines sur le thème des médias sociaux. Son dernier ouvrage It’s Complicated, the social lives of networked teens (Yale, 2014) est consacré à démonter les mythes concernant les adolescents sur les médias sociaux. Ce travail de sociologie fort solide est fondé sur dix ans d’enquête de terrain (interviews, observations) et de sérieuses études en sciences sociales.
Au lieu de céder à la panique morale devant les prétendues incongruités émises par les ados sur My Space, Facebook, Twitter, Instagram et autres, Boyd prend un soin infini à reconstituer les contextes micro-sociologiques et macro-culturels qui leur donnent sens. La fameuse question de la vie privée sur Facebook, généralement posée de manière abstraite, est ramenée à la situation concrète des adolescents américains. Ces derniers sont coincés entre l’école et la maison – deux univers généralement très régulés – et ils sont peu libres d’interagir entre eux comme ils le veulent. C’est pourquoi ils travaillent activement à se construire des espaces publics sui generis en ligne qu’ils peuplent de leurs pairs. Et tant pis si les posts sont accessibles à tous et permanents. L’« addiction » aux gadgets ou aux réseaux sociaux fait les choux gras des médias traditionnels, des psy et des moralistes grincheux. Mais Boyd trouve plus pertinent d’évoquer une sociabilité adolescente brimée qui trouve à s’exprimer en ligne que d’utiliser le vocabulaire de la psychiatrie. Les loups-garous favoris des journalistes, à savoir les « prédateurs sexuels sur Internet » et « l’intimidation en ligne » (appelée aussi cyber-bullying) sont ramenés à leur juste proportion. L’immense majorité des enfants et adolescents victimes d’abus sexuels ont été brutalisés par des figures familières de leur entourage immédiat et non par des inconnus rencontrés en ligne. Après avoir lu Boyd, on ne confondra plus les farces un peu corsées, les drames affectifs et les échanges rituels d’insultes sur les réseaux sociaux avec la véritable intimidation (qui s’exerce systématiquement d’un fort sur un faible) et qui est somme toute assez rare. Dans les cas où les jeunes sont vraiment en danger, le médium social s’avère plutôt protecteur puisque les abuseurs peuvent être facilement retracés par la police avec l’aide des administrateurs des réseaux.
Après avoir dégonflé les peurs, Boyd s’attache à refroidir les espérances illusoires. Non, la communication par Internet ne fait pas disparaître miraculeusement les inégalités économiques et sociales, ni le racisme, ni les passions toxiques, qui s’exercent et se manifestent en ligne comme ailleurs. Non, les « digital natives » ne sont pas tous des geeks, ils ne savent pas forcément utiliser les outils disponibles en ligne et ils ne font pas preuve d’un esprit critique à toute épreuve devant les flots d’information. Ne confondons pas la familiarité avec un médium et la connaissance approfondie de la manière de s’en servir. La ligne de partage ne passe pas par la date de naissance mais par la culture générale et l’éducation aux médias numériques.
Au-delà de l’effort louable pour contrer la désinformation journalistique et pour rassurer les parents et les éducateurs, le livre de Boyd nous offre un riche accès aux données de son enquête. La présence (un peu redondante) de ce matériau quasi ethnographique a l’avantage de permettre au lecteur qui ne partage pas tous les présupposés de l’auteur d’approfondir sa réflexion sur le médium algorithmique et de tirer ses propres conclusions. Pour ma part, la lecture de cet ouvrage confirme l’idée selon laquelle nous vivons déjà à l’ère data-centrique, dans laquelle les relations sociales passent de plus en plus par les algorithmes et les données. Etant symbolisés par des bits disponibles et computables, les rapports sociaux sont ainsi mis en transparence (pour le meilleur ou pour le pire). Il est clair que cette évolution ouvre de nouvelles avenues économiques, politiques et militaires, mais aussi scientifiques. Un jour, les humanités numériques devront dépasser les belles visualisations de réseaux sociaux pour exploiter en profondeur toutes ces données au moyen d’hypothèses théoriques novatrices et surtout pour renvoyer aux internautes des images utiles des processus socio-cognitifs dans lesquels ils sont engagés.
It’s complicated permet aussi de commencer à réfléchir avec quelque recul sur les déclencheurs non-techniques de l’explosion de popularité des médias sociaux au tournant des XXe et XXIe siècles. Les communautés virtuelles existaient dès les années 1970, mais les médias sociaux ne sont devenus un phénomène massif à l’échelle planétaire que durant la première décennie du XXIe siècle. Les matériaux proposés par Boyd laissent entrevoir l’émergence de ce phénomène à partir de « lignes de faille » socio-démographiques. Pourquoi sont-ce les adolescents (et pas un autre groupe social) qui se sont engouffrés dans le nouvel espace d’interaction en ligne ? Sans doute parce que cette cohorte turbulente occupe un espace interstitiel entre l’âge adulte et l’enfance. Les ados ont cherché à se ménager une zone de liberté dans les réseaux qui soit protégée aussi bien des règlements scolaires que d’une lourde sollicitude parentale obsédée par la sécurité. Les explications de Boyd à ce sujet sont fondées sur une analyse minutieuse de ses entretiens avec des jeunes vivant aux USA. Nous sommes ainsi éclairés sur les évolutions récentes de la société américaine. Mais ce phénomène, qui a certes commencé aux Etats-Unis, s’est immédiatement étendu au reste du monde, où les contraintes sociales sur les adolescents sont différentes et fort variées… L’explication en termes sociologiques et démographiques est donc partielle et limitée à un seul pays. La lecture de Neurotribes (Penguin, 2015) de Steve Silverman nous suggère une autre hypothèse, qui n’est pas forcément contradictoire avec la première. Ce ne serait pas les ados en général, mais les jeunes autistes (les « aspies ») qui seraient les pionniers du développement de la sociabilité en ligne, dès les années 1980 et 1990, parce qu’ils ont trouvé là une manière de communiquer leur permettant de surmonter leur maladresse sociale ! Les minorités cognitives doivent aussi être considérées.
Dès que l’on commence à réfléchir aux causes, on se trouve immédiatement confronté à la fameuse question du « déterminisme technologique », à savoir une hérésie combattue avec force par diverses chapelles de la recherche en sciences sociales. Comme si la technologie n’était pas de la société, de la culture et de l’histoire ! De manière rituelle (et sans nul doute sincère) Boyd critique le déterminisme technologique (par exemple p. 15). Il s’agit pour elle d’assurer que des résultats socialement souhaitables – ou détestables – ne sont nullement garantis par des outils ou des procédés techniques. Nous sommes tous d’accord sur ce point de simple bon sens. Mais ne faudrait-il pas distinguer entre le conditionnement par la technique – le fait que la technique rende possible une vaste gamme de comportements et d’interactions sociales – et la détermination complète d’un phénomène social par une technique considérée indépendamment de son contexte? Si l’hypothèse d’une détermination complète est presque toujours fausse, il me semble que celle du conditionnement (une forme douce du déterminisme technologique) est bien souvent pertinente.
Le livre de Boyd intervient dans une vaste conversation publique sur la jeunesse en ligne à laquelle participent les ados, les parents, les éducateurs, les journalistes, les législateurs et l’industrie. Ici, Boyd se présente essentiellement comme la porte-parole des ados « sans voix » dans le débat civique. Mais son livre intervient aussi dans une autre conversation, plus restreinte, animée par les chercheurs qui travaillent sur les transformations culturelles liées au développement du médium algorithmique. Or nombre de ces chercheurs pensent que leur rôle est avant tout de dénoncer « le système » en général et « le capitalisme » en particulier, dont les techniques numériques sont évidemment le soutien, voire le fer de lance. Boyd paye tribut (p. 27) à la critique du capitalisme, et cela d’autant plus qu’elle doit expier le péché d’être salariée de Microsoft, mais elle nous annonce juste ensuite cette brève révérence qu’elle va considérer la société américaine telle qu’elle est, sans s’appesantir sur la dénonciation du système. Je note à ce sujet que les catégories sociales qu’elle utilise dans l’analyse de ses données (sexe, genre, race, âge, classe, etc.) sont exactement les catégories qui sont utilisées couramment par les adolescents qui sont les objets de ses recherches. En d’autres termes, elle fait de l’ethnométhodologie sans le dire. Cela donne un texte hyper américain, dans lequel les étiquettes classantes de la culture locale (teen, white, latino, black, bi-racial, queer, etc.) sont admises comme naturelles. Or, paradoxalement, c’est précisément son acceptation de la réalité sociale telle qu’elle est et des catégories sociales telles qu’elles sont utilisées par les acteurs eux-mêmes qui donne à son texte son efficacité politique… et donc sa portée critique concrète ! J’en arrive finalement à une réflexion concernant la posture dénonciatrice d’un grand nombre d’intellectuels et d’universitaires qui se spécialisent dans l’analyse du numérique. Un Morozov écrase de son mépris d’intellectuel européen les ingénieurs américains et les publicistes effervescents et superficiels de la Silicon Valley qui n’ont pas lu Latour et qui s’imaginent qu’on peut régler des problèmes politiques complexes avec des gadgets. Mais n’est pas Walter Benjamin ou Theodor Adorno qui veut… Par contraste, Boyd essaye de résoudre des problèmes en faisant travailler ensemble l’industrie, les politiques, les sciences sociales et les humanités. Il n’est pas sûr que les sombres prophètes de l’apocalypse culturelle et les dénonciateurs systématiques (que l’on trouve aussi bien aux USA qu’en Amérique Latine, en Europe et en Asie) soient, au bout du compte, les meilleurs représentants d’une véritable pensée critique, capable de projeter et d’aménager la civilisation en émergence.

BIBLIOGRAPHIE

Adorno, Theodor et Horkheimer, Max, La dialectique de la raison, Gallimard, 1974 (version originale en allemand : 1947).

Benjamin, Walter, «L’œuvre d’art à l’époque de sa reproductibilité technique», dernière version 1939, in Œuvres III, Gallimard, 2000.

Boyd, Dana, It’s complicated, the social lives of networked teens, Yale UP, 2014

Latour, Bruno, Science in Action, Harvard UP, 1987

Lehn, Dirk vom, Harold Garfinkel: The Creation and Development of Ethnomethodology, Left Coast Press, 2014.

Morozov, Evgeni, To Save Everything, Click Here: The Folly of Technological Solutionism, Public Affairs, 2013

Silberman, Steve, NeuroTribes: The Legacy of Autism and the Future of Neurodiversity, Penguin, 2015

DansL'usine

MY TRIP

IBERTIC (Instituto Iberoamericano de TIC in Education) invited me in Buenos Aires for a series of conferences and consultations during the week of 13th to 17th of april 2015. I gave four speeches in front of different audiences: one of my main speeches was about « collective intelligence for educators » and another about « The emergence of reflexive collective intelligence ».

I had several meetings with people engaged in teaching, training and policy coordination related to « TIC and education ».
Argentina has a big state-led program (Connectar Igualidad) to give a computer to every student in secondary education. I visited the warehouse where these computers are packed and sent to the students and I had a look at the mainly « open » applications included in the package. I visited also Canal Encuentro, the state-run educational television, where a team related to the program « Connectar Igualidad » is building one portal for educators and another one for the students. These portals are supposed to provide learning resources and tools for communication and collaboration.

STORIES FROM MY PERSONAL EXPERIENCE

During this trip I had, at several occasions, the opportunity to speak about my own experience in using TICs as an educator. In the various courses that I teach at the University of Ottawa, I ask my students to participate to a closed Facebook group, to register on Twitter (and to follow me: @plevy), to use a collaborative repository in the cloud (a social bookmarking plateform or a curation plateform like Scoop.it) and to open a blog if they don’t have already one.

– The Facebook group is used to share the syllabus, our agenda, the mandatory lectures (all of them on line « at one click »), our electronic addresses (Twitter, blog, collaborative memory plateform), the questions asked by the students, etc. The students can participate to the collective writing and editing of « mini-wikis » inside the FB group. They are invited to suggest good reads related to the course by adding commented links.

– Twitter is used through a careful use of hashtags. I use it for quick real-time feed-back during the course: to check what the students have understood. Then, every 2 or 3 weeks, I invite students to look back at their collective traces on Twitter to recollect what they have learned and to ask questions if something is not clear. I experimented also a « twitter exam » where the students have to evaluate my tweets: no reaction if my tweet is false, a favorite if it contain some truth, a retweet if they agree and a retweet plus a favorite if they strongly agree. After having reviewed the tweets and their responses, I ask to the students what are – according to them – their worst possible errors of appreciation. The final evaluation of the exam (that is, of their reactions to my tweets) is made by applying to the students the rules that they have determined themselves! Finally I teach them the practical use of Twitter lists.

– The collaborative repository in the cloud (Diigo, Scoop.it) is used to teach the sudents the use of categories or « tags » to organize a common long-term memory, as opposed to the ephemeral information on popular social media.

– The blogs are used as a way to display the assignments. The students are encouraged to add images and links. For the last assignment they have to describe – from their own point of view – the main points that they have learned during the course.

At the end of a semester, the students have not only acquired knowledge about the subject matter, they also improved their collaborative learning skills in a trans-platform environment!

MY TAKE-AWAY ADVICE FOR IBERTIC AND THE EDUCATIONAL COMMUNITY IN ARGENTINA

A social network is a human reality
As « how » once told me: a social network is neither a platform nor a software: it is a human reality. In the same vein, building a closed platform is in no way a solution to collaboration, training, learning or communication problems. The solution is to grow a « community of practice » or a « collaborative learning network » that will use all the available and relevant platforms, including face to face meetings and well known commercial platforms that are available at no cost.

There is no such thing as an educational technology
There are no educational technologies. There are only educational or learning uses of technology. The most important things are not the technologies by themselves (software, platforms, resources) but the educational practices and the effective collaborative learning processes.

The new literacy
The new intellectual literacy encompasses all collaborative data curation skills, including attention management, formal modeling, memory management, critical thinking, stimergic communication, etc. It is neither a discipline nor a specialized knowledge but a consistent set of transversal competencies that should be strengthened in all kinds of learning practices. Of course, this literacy cannot be taught by people who do not master it!

Staying motivated despite constraints
The educational community faces a lot of constraints, particularly in not so rich countries:
– lack of infrastructure (hardware, software, connectivity),
– lack of institutional facilitation (innovation and openness are praised in theory but not encouraged in practise),
– lack of knowledge and skills on the educator’s side.
The educator should consider herself / himself as an artist transforming these constraints into beauty through a creative process. Do what you can in your circonstances. There are no perfect method, software or platform that will solve all the problems magically in every environment and context. Teaching is itself an open-ended (collaborative) learning process.

I recommand this video in spanish about Personal Learning Environments

Emergence

Emergence happens through an interdependant circulation of information between two levels of complexity. A code translates and betrays information in both directions: bottom-up and top-down.

Nature

According to our model, human collective intelligence emerges from natural evolution. The lower level of quantic complexity translates into a higher level of molecular complexity through the atomic stabilization and coding. There are no more than 120 atomic elements that explain the complexity of matter by their connections and reactions. The emergence of the next level of complexity – life – comes from the genetic code that is used by organisms as a trans-generational memory. Communication in neuronal networks translates organic life into conscious phenomena, including sense data, pleasure and pain, desire, etc. So emerges the animal life. Let’s note that organic life is intrinsically ecosystemic and that animals have developed many forms of social or collective intelligence. The human level emerges through the symbolic code : language, music, images, rituals and all the complexity of culture. It is only thank to symbols that we are able to conceptualize phenomena and think reflexively about what we do and think. Symbolic systems are all conventional but the human species is symbolic by nature, so to speak. Here, collective intelligence reaches a new level of complexity because it is based on collaborative symbol manipulation.

Culture

[WARNING: the next 5 paragraphs can be found in “collective intelligence for educators“, if you have already read them, go to the next slide: “algorithmic medium”] The above slide describes the successive steps in the emergence of symbolic manipulation. As for the previous slide, each new layer of cultural complexity emerges from the creation of a coding system.

During the longest part of human history, the knowledge was only embedded in narratives, rituals and material tools. The first revolution in symbolic manipulation is the invention of writing with symbols endowed with the ability of self-conservation. This leads to a remarquable augmentation of social memory and to the emergence of new forms of knowledge. Ideas were reified on an external surface, which is an important condition for critical thinking. A new kind of systematic knowledge was developed: hermeneutics, astronomy, medicine, architecture (including geometry), etc.

The second revolution optimizes the manipulation of symbols like the invention of the alphabet (phenician, hebrew, greek, roman, arab, cyrilic, korean, etc.), the chinese rational ideographies, the indian numeration system by position with a zero, paper and the early printing techniques of China and Korea. The literate culture based on the alphabet (or rational ideographies) developed critical thinking further and gave birth to philosophy. At this stage, scholars attempted to deduce knowledge from observation and deduction from first principles. There was a deliberate effort to reach universality, particularly in mathematics, physics and cosmology.

The third revolution is the mecanization and the industrialization of the reproduction and diffusion of symbols, like the printing press, disks, movies, radio, TV, etc. This revolution supported the emergence of the modern world, with its nation states, industries and its experimental mathematized natural sciences. It was only in the typographic culture, from the 16th century, that natural sciences took the shape that we currently enjoy: systematic observation or experimentation and theories based on mathematical modeling. From the decomposition of theology and philosophy emerged the contemporary humanities and social sciences. But at this stage human science was still fragmented by disciplines and incompatible theories. Moreover, its theories were rarely mathematized or testable.

We are now at the beginning of a fourth revolution where an ubiquitous and interconnected infosphere is filled with symbols – i.e. data – of all kinds (music, voice, images, texts, programs, etc.) that are being automatically transformed. With the democratization of big data analysis, the next generations will see the advent of a new scientific revolution… but this time it will be in the humanities and social sciences. The new human science will be based on the wealth of data produced by human communities and a growing computation power. This will lead to reflexive collective intelligence, where people will appropriate (big) data analysis and where subjects and objects of knowledge will be the human communities themselves.

Algo-medium

Let’s have a closer look at the algorithmic medium. Four layers have been added since the middle of the 20th century. Again, we observe the progressive invention of new coding systems, mainly aimed at the addressing of processors, data and meta-data.

The first layer is the invention of the automatic digital computer itself. We can describe computation as « processing on data ». It is self-evident that computation cannot be programmed if we don’t have a very precise addressing system for the data and for the specialized operators/processors that will transform the data. At the beginning these addressing systems were purely local and managed by operating systems.

The second layer is the emergence of a universal addressing system for computers, the Internet protocol, that allows for exchange of data and collaborative computing across the telecommunication network.

The third layer is the invention of a universal system for the addressing and displaying of data (URLs, http, html). Thank to this universal addressing of data, the World Wide Web is a hypertextual global database that we all create and share. It is obvious that the Web has had a deep social, cultural and economic impact in the last twenty years.

The construction of the algorithmic medium is ongoing. We are now ready to add a fourth layer of addressing and, this time, it will be a universal addressing system for semantic metadata. Why? First, we are still unable to resolve the problem of semantic interoperability across languages, classifications and ontologies. And secondly, except for some approximative statistical and logical methods, we are still unable to compute semantic relations, including distances and differences. This new symbolic system will be a key element to a future scientific revolution in the humanities and social sciences, leading to a new kind of reflexive collective intelligence for our species. Moreover, it will pave the way for the emergence of a new scientific cosmos – not a physical one but a cosmos of the mind that we will build and explore collaboratively. I want to strongly underline here that the semantic categorization of data will stay in the hands of people. We will be able to categorize the data as we want, from many different point of views. All that is required is that we use the same code. The description itself will be free.

Algo-intel

Let’s examine now the future emerging algorithmic intelligence. This new level of symbolic manipulation will be operated and shared in a mixed environment combining virtual worlds and augmented realities. The two lower levels of the above slide represent the current internet: an interaction between the « internet of things » and the « clouds » where all the data converge in an ubiquitous infosphere… The two higher levels, the « semantic sensorium » and the « reflexive collective intelligence » depict the human condition that will unfold in the future.

The things are material, localized realities that have GPS addresses. Here we speak about the smart territories, cities, buildings, machines, robots and all the mobile gadgets (phones, tablets, watches, etc.) that we can wear. Through binary code, the things are in constant interaction with the ubiquitous memory in the clouds. Streams of data and information processing reverberate between the things and the clouds.

When the data will be coded by a computable universal semantic addressing system, the data in the clouds will be projected automatically into a new sensorium. In this 3D, immersive and dynamic virtual environment we will be able to explore through our senses the abstract relationships between the people, the places and the meaning of digital information. I’m not speaking here of a representation, reproduction or imitation of the material space, like, for example, in Second Life. We have to imagine something completely different: a semantic sphere where the cognitive processes of human communities will be modeled. This semantic sphere will empower all its users. Search, knowledge exploration, data analysis and synthesis, collaborative learning and collaborative data curation will be multiplied and enhanced by the new interoperable semantic computing.

We will get reflexive collective intelligence thank to a scientific computable and transparent modeling of cognition from real data. This modeling will be based on the semantic code, that provides the « coordinate system » of the new cognitive cosmos. Of course, people will not be forced to understand the details of this semantic code. They will interact in the new sensorium through their prefered natural language (the linguistic codes of the above slide) and their favorite multimedia interfaces. The translation between different languages and optional interface metaphors will be automatic. The important point is that people will observe, analyze and map dynamically their own personal and collective cognitive processes. Thank to this new reflexivity, we will improve our collaborative learning processes and the collaborative monitoring and control of our physical environments. And this will boost human development!

Collective-Intelligence

The above slide represents the workings of a collective intelligence oriented towards human development. In this model, collective intelligence emerges from an interaction between two levels: virtual and actual. The actual is addressed in space and time while the virtual is latent, potential or intangible. The two levels function and communicate through several symbolic codes. In any coding system, there are coding elements (signs), coded references (things) and coders (being). This is why both actual and virtual levels can be conceptually analysed into three kinds of networks: signs, beings and things.

The actual human development can be analysed into a sphere of messages (signs), a sphere of people (beings) and a sphere of equipments – this last word understood in the largest possible sense – (things). Of course, the three spheres are interdependent.

The virtual human development is analysed into a sphere of knowledge (signs), a sphere of ethics (being) and a sphere of power (things). Again, the three spheres are interdependent.

Each of the six spheres is further analysed into three subdivisions, corresponding to the sub-rows on the slide. The mark S (sign) points to the abstract factors, the mark B (being) indicates the affective dimensions and the mark T (thing) shows the concrete aspects of each sphere.

All the realities described in the above table are interdependent following the actual/virtual and the sign/being/thing dialectics. Any increase of decrease in one « cell » will have consequences in other cells. This is just an example of the many ways collective intelligence will be represented, monitored and made reflexive in the semantic sensorium…

To dig into the philosophical concept of algorithmic intelligence go there