Archives for posts with tag: pensée critique

Diapositive1.jpg
FIGURE 1

J’ai montré dans un post précédent, l’importance contemporaine de la curation collaborative de données.  Les compétences dans ce domaine sont au coeur de la nouvelle litéracie algorithmique. La figure 1 présente ces compétences de manière systématique et, ce faisant, elle met en ordre les savoir-faire intellectuels et pratiques tout comme les « savoir-être » éthiques qui supportent l’augmentation de l’intelligence collective en ligne. L’étoile évoque le signe, le visage l’être et le cube la chose (sur ces concepts voir ce post). La table est organisée en trois rangées et trois colonnes interdépendantes. La première rangée explicite les fondements de l’intelligence algorithmique au niveau personnel, la seconde rappelle l’indispensable travail critique sur les sources de données et la troisième détaille les compétences nécessaires à l’émergence d’une intelligence collective augmentée par les algorithmes. L’intelligence personnelle et l’intelligence collective travaillent ensemble et ni l’une ni l’autre ne peuvent se passer d’intelligence critique ! Les colonnes évoquent trois dimensions complémentaires de la cognition : la conscience réflexive, la production de signification et la mémoire. Aucune d’elles ne doit être tenue pour acquise et toutes peuvent faire l’objet d’entraînement et de perfectionnement. Dans chaque case, l’item du haut pointe vers un exercice de virtualisation tandis que celui du bas indique une mise en oeuvre actuelle de la compétence, plus concrète et située. Je vais maintenant commenter le tableau de la figure 1 rangée par rangée.

L’intelligence personnelle

La notion d’intelligence personnelle doit ici s’entendre au sens d’une compétence cognitive individuelle. Mais elle tire également vers la signification du mot « intelligence » en anglais. Dans ce dernier sens, elle désigne la capacité d’un individu à mettre en place son propre système de renseignement.

La gestion de l’attention ne concerne pas seulement l’exercice de la concentration et l’art complémentaire d’éviter les distractions. Elle inclut aussi le choix réfléchi de priorités d’apprentissage et le discernement de sources d’information pertinentes. Le curateur lui-même doit décider de ce qui est pertinent et de ce qui ne l’est pas selon ses propres critères et en fonction des priorités qu’il s’est donné. Quant à la notion de source, est-il besoin de souligner ici que seuls les individus, les groupes et les institutions peuvent être ainsi qualifiés. Seuls donc ils méritent la confiance ou la méfiance. Quant aux médias sociaux, ce ne sont en aucun cas des sources (contrairement à ce que croient certains journalistes) mais plutôt des plateformes de communication. Prétendre, par exemple, que « Twitter n’est pas une source fiable », n’a pas plus de sens que l’idée selon laquelle « le téléphone n’est pas une source fiable ».

L’interpretation des données relève également de la responsabilité des curateurs. Avec tous les algorithmes statistiques et tous les outils d’analyse automatique de données (« big data analytics ») du monde, nous aurons encore besoin d’hypothèses causales, de théories et de systèmes de catégorisation pour soutenir ces théories. Les corrélations statistiques peuvent suggérer des hypothèses causales mais elles ne les remplacent pas. Car nous voulons non seulement prédire le comportement de phénomènes complexes, mais aussi les comprendre et agir sur la base de cette compréhension. Or l’action efficace suppose une saisie des causes réelles et non seulement la perception de corrélations. Sans les intuitions et les théories dérivées de notre connaissance personnelle d’un domaine, les outils d’analyse automatique de données ne seront pas utilisés à bon escient. Poser de bonnes questions aux données n’est pas une entreprise triviale !

Finalement, les données collectionnées doivent être gérées au plan matériel. Il nous faut donc choisir les bons outils d’entreposage dans les « nuages » et savoir manipuler ces outils. Mais la mémoire doit être aussi entretenue au niveau conceptuel. C’est pourquoi le bon curateur est capable de créer, d’adopter et surtout de maintenir un système de catégorisation qui lui permettra de retrouver l’information désirée et d’extraire de ses collections la connaissance qui lui sera utile.

L’intelligence critique

L’intelligence critique porte essentiellement sur la qualité des sources. Elle exige d’abord un travail de critique « externe ». Nous savons qu’il n’existe pas d’autorité transcendante dans le nouvel espace de communication. Si nous ne voulons pas être trompé, abusé, ou aveuglé par des oeillères informationnelles, il nous faut donc autant que possible diversifier nos sources. Notre fenêtre d’attention doit être maintenue bien ouverte, c’est pourquoi nous nous abonnerons à des sources adoptant divers points de vue, récits organisateurs et théories. Cette diversité nous permettra de croiser les données, d’observer les sujets sur lesquelles elles se contredisent et ceux sur lesquelles elles se confirment mutuellement.

L’évaluation des sources demande également un effort de décryptage des identités : c’est la critique « interne ». Pour comprendre la nature d’une source, nous devons reconnaître son système de classification, ses catégories maîtresses et son récit organisateur. En un sens, une source n’est autre que le récit autour duquel elle organise ses données : sa manière de produire du sens.

Finalement l’intelligence critique possède une dimension « pragmatique ». Cette critique est la plus dévastatrice parce qu’elle compare le récit de la source avec ce qu’elle fait réellement. Je vise ici ce qu’elle fait en diffusant ses messages, c’est-à-dire l’effet concret de ses actes de communication sur les conversations en cours et l’état d’esprit des participants. Je vise également les contributions intellectuelles et esthétiques de la source, ses interactions économiques, politiques, militaires ou autres telles qu’elles sont rapportées par d’autres sources. Grâce à cette bonne mémoire nous pouvons noter les contradictions de la source selon les moments et les publics, les décalages entre son récit officiel et les effets pratiques de ses actions. Enfin, plus une source se montre transparente au sujet de ses propres sources d’informations, de ses références, de son agenda et de son financement et plus elle est fiable. Inversement, l’opacité éveille les soupçons.

L’intelligence collective

Je rappelle que l’intelligence collective dont il est question ici n’est pas une « solution miracle » mais un savoir-faire à cultiver qui présuppose et renforce en retour les intelligences personnelles et critiques.

Commençons par définir la stigmergie : il s’agit d’un mode de communication dans lequel les agents se coordonnent et s’informent mutuellement en modifiant un environnement ou une mémoire commune. Dans le médium algorithmique, la communication tend à s’établir entre des pairs qui créent, catégorisent, critiquent, organisent, lisent, promeuvent et analysent des données au moyen d’outils algorithmiques. Il s’agit bien d’une communication stigmergique parce que, même si les personnes dialoguent et se parlent directement, le principal canal de communication reste une mémoire commune que les participants exploitent et transforment ensemble. Il est utile de distinguer entre les mémoires locale et globale. Dans la mémoire « locale » de réseaux ou de communautés particulières, nous devons prêter attention à des contextes et à des histoires singulières. Il est également recommandé de tenir compte des contributions des autres participants, de ne pas aborder des sujets non-pertinents pour le groupe, d’éviter les provocations, les explosions d’agressivité, les provocations, etc.

Quant à la mémoire « globale », il faut se souvenir que chaque action dans le médium algorithmique réorganise – même de façon infinitésimale – la mémoire commune : lire, taguer, acheter, poster, créer un hyperlien, souscrire, s’abonner, « aimer », etc. Nous créons notre environnement symbolique de manière collaborative. Le bon agent humain de l’intelligence collective gardera donc à la conscience que ses actions en ligne contribuent à l’information des autres agents.

La liberté dont il est question dans la figure 1 se présente comme une dialectique entre pouvoir et responsabilité. Le pouvoir recouvre notre capacité à créer, évaluer, organiser, lire et analyser les données, notre aptitude à faire évoluer la mémoire commune à partir de la multitude distribuée de nos actions. La responsabilité se fonde sur une conscience réfléchie de notre pouvoir collectif, conscience qui informe en retour l’orientation de notre attention et le sens que nous donnons à l’exercice de nos pouvoirs.

Diapositive4.jpg

FIGURE 2

L’apprentissage collaboratif

Finalement, l’apprentissage collaboratif est un des processus cognitifs majeurs de l’intelligence collective et le principal bénéfice social des habiletés en curation de données. Afin de bien saisir ce processus, nous devons distinguer entre savoirs tacites et savoirs explicites. Les savoirs tacites recouvrent ce que les membres d’une communauté ont appris dans des contextes particuliers, les savoir-faire internalisés dans les réflexes personnels à partir de l’expérience. Les savoirs explicites, en revanche, sont des récits, des images, des données, des logiciels ou d’autres ressources documentaires, qui sont aussi clairs et décontextualisés que possible, afin de pouvoir être partagés largement.

L’apprentissage collaboratif enchaîne deux mouvements. Le premier consiste à traduire le savoir tacite en savoir explicite pour alimenter une mémoire commune. Dans un second mouvement, complémentaire du premier, les participants exploitent le savoir explicite et les ressources d’apprentissage disponibles dans la mémoire commune afin d’adapter ces connaissances à leur contexte particulier et de les intégrer dans leurs réflexes quotidiens. Les curateurs sont potentiellement des étudiants ou des apprenants lorsqu’ils internalisent un savoir explicite et ils peuvent se considérer comme des enseignants lorsqu’ils mettent des savoirs explicites à la disposition des autres. Ce sont donc des pairs (voir la figure 2) qui travaillent dans un champ de pratique commun. Ils transforment autant que possible leur savoir tacite en savoir explicite et travaillent en retour à traduire la partie des connaissances explicites qu’ils veulent acquérir en savoir pratique personnel. J’écris “autant que possible” parce que l’explicitation totale du savoir tacite est hors de portée, comme l’a bien montré Michael Polanyi.

Dans le médium algorithmique, le savoir explicite prend la forme de données catégorisées et évaluées. Le cycle de transformation des savoirs tacites en savoirs explicites et vice versa prend place dans les médias sociaux, où il est facilité par une conversation créative civilisée : les compétences intellectuelles et sociales (ou morales) fonctionnent ensemble !

Par Pierre Lévy (@plevy sur Twitter), prof. à l’Université d’Ottawa

Ce texte a été publié dans la revue Sciences du design, n°2, décembre 2015

Danah Boyd (@zephoria sur Twitter) est chercheuse chez Microsoft et enseigne à Harvard. C’est une des plus brillantes chercheuses américaines sur le thème des médias sociaux. Son dernier ouvrage It’s Complicated, the social lives of networked teens (Yale, 2014) est consacré à démonter les mythes concernant les adolescents sur les médias sociaux. Ce travail de sociologie fort solide est fondé sur dix ans d’enquête de terrain (interviews, observations) et de sérieuses études en sciences sociales.
Au lieu de céder à la panique morale devant les prétendues incongruités émises par les ados sur My Space, Facebook, Twitter, Instagram et autres, Boyd prend un soin infini à reconstituer les contextes micro-sociologiques et macro-culturels qui leur donnent sens. La fameuse question de la vie privée sur Facebook, généralement posée de manière abstraite, est ramenée à la situation concrète des adolescents américains. Ces derniers sont coincés entre l’école et la maison – deux univers généralement très régulés – et ils sont peu libres d’interagir entre eux comme ils le veulent. C’est pourquoi ils travaillent activement à se construire des espaces publics sui generis en ligne qu’ils peuplent de leurs pairs. Et tant pis si les posts sont accessibles à tous et permanents. L’« addiction » aux gadgets ou aux réseaux sociaux fait les choux gras des médias traditionnels, des psy et des moralistes grincheux. Mais Boyd trouve plus pertinent d’évoquer une sociabilité adolescente brimée qui trouve à s’exprimer en ligne que d’utiliser le vocabulaire de la psychiatrie. Les loups-garous favoris des journalistes, à savoir les « prédateurs sexuels sur Internet » et « l’intimidation en ligne » (appelée aussi cyber-bullying) sont ramenés à leur juste proportion. L’immense majorité des enfants et adolescents victimes d’abus sexuels ont été brutalisés par des figures familières de leur entourage immédiat et non par des inconnus rencontrés en ligne. Après avoir lu Boyd, on ne confondra plus les farces un peu corsées, les drames affectifs et les échanges rituels d’insultes sur les réseaux sociaux avec la véritable intimidation (qui s’exerce systématiquement d’un fort sur un faible) et qui est somme toute assez rare. Dans les cas où les jeunes sont vraiment en danger, le médium social s’avère plutôt protecteur puisque les abuseurs peuvent être facilement retracés par la police avec l’aide des administrateurs des réseaux.
Après avoir dégonflé les peurs, Boyd s’attache à refroidir les espérances illusoires. Non, la communication par Internet ne fait pas disparaître miraculeusement les inégalités économiques et sociales, ni le racisme, ni les passions toxiques, qui s’exercent et se manifestent en ligne comme ailleurs. Non, les « digital natives » ne sont pas tous des geeks, ils ne savent pas forcément utiliser les outils disponibles en ligne et ils ne font pas preuve d’un esprit critique à toute épreuve devant les flots d’information. Ne confondons pas la familiarité avec un médium et la connaissance approfondie de la manière de s’en servir. La ligne de partage ne passe pas par la date de naissance mais par la culture générale et l’éducation aux médias numériques.
Au-delà de l’effort louable pour contrer la désinformation journalistique et pour rassurer les parents et les éducateurs, le livre de Boyd nous offre un riche accès aux données de son enquête. La présence (un peu redondante) de ce matériau quasi ethnographique a l’avantage de permettre au lecteur qui ne partage pas tous les présupposés de l’auteur d’approfondir sa réflexion sur le médium algorithmique et de tirer ses propres conclusions. Pour ma part, la lecture de cet ouvrage confirme l’idée selon laquelle nous vivons déjà à l’ère data-centrique, dans laquelle les relations sociales passent de plus en plus par les algorithmes et les données. Etant symbolisés par des bits disponibles et computables, les rapports sociaux sont ainsi mis en transparence (pour le meilleur ou pour le pire). Il est clair que cette évolution ouvre de nouvelles avenues économiques, politiques et militaires, mais aussi scientifiques. Un jour, les humanités numériques devront dépasser les belles visualisations de réseaux sociaux pour exploiter en profondeur toutes ces données au moyen d’hypothèses théoriques novatrices et surtout pour renvoyer aux internautes des images utiles des processus socio-cognitifs dans lesquels ils sont engagés.
It’s complicated permet aussi de commencer à réfléchir avec quelque recul sur les déclencheurs non-techniques de l’explosion de popularité des médias sociaux au tournant des XXe et XXIe siècles. Les communautés virtuelles existaient dès les années 1970, mais les médias sociaux ne sont devenus un phénomène massif à l’échelle planétaire que durant la première décennie du XXIe siècle. Les matériaux proposés par Boyd laissent entrevoir l’émergence de ce phénomène à partir de « lignes de faille » socio-démographiques. Pourquoi sont-ce les adolescents (et pas un autre groupe social) qui se sont engouffrés dans le nouvel espace d’interaction en ligne ? Sans doute parce que cette cohorte turbulente occupe un espace interstitiel entre l’âge adulte et l’enfance. Les ados ont cherché à se ménager une zone de liberté dans les réseaux qui soit protégée aussi bien des règlements scolaires que d’une lourde sollicitude parentale obsédée par la sécurité. Les explications de Boyd à ce sujet sont fondées sur une analyse minutieuse de ses entretiens avec des jeunes vivant aux USA. Nous sommes ainsi éclairés sur les évolutions récentes de la société américaine. Mais ce phénomène, qui a certes commencé aux Etats-Unis, s’est immédiatement étendu au reste du monde, où les contraintes sociales sur les adolescents sont différentes et fort variées… L’explication en termes sociologiques et démographiques est donc partielle et limitée à un seul pays. La lecture de Neurotribes (Penguin, 2015) de Steve Silverman nous suggère une autre hypothèse, qui n’est pas forcément contradictoire avec la première. Ce ne serait pas les ados en général, mais les jeunes autistes (les « aspies ») qui seraient les pionniers du développement de la sociabilité en ligne, dès les années 1980 et 1990, parce qu’ils ont trouvé là une manière de communiquer leur permettant de surmonter leur maladresse sociale ! Les minorités cognitives doivent aussi être considérées.
Dès que l’on commence à réfléchir aux causes, on se trouve immédiatement confronté à la fameuse question du « déterminisme technologique », à savoir une hérésie combattue avec force par diverses chapelles de la recherche en sciences sociales. Comme si la technologie n’était pas de la société, de la culture et de l’histoire ! De manière rituelle (et sans nul doute sincère) Boyd critique le déterminisme technologique (par exemple p. 15). Il s’agit pour elle d’assurer que des résultats socialement souhaitables – ou détestables – ne sont nullement garantis par des outils ou des procédés techniques. Nous sommes tous d’accord sur ce point de simple bon sens. Mais ne faudrait-il pas distinguer entre le conditionnement par la technique – le fait que la technique rende possible une vaste gamme de comportements et d’interactions sociales – et la détermination complète d’un phénomène social par une technique considérée indépendamment de son contexte? Si l’hypothèse d’une détermination complète est presque toujours fausse, il me semble que celle du conditionnement (une forme douce du déterminisme technologique) est bien souvent pertinente.
Le livre de Boyd intervient dans une vaste conversation publique sur la jeunesse en ligne à laquelle participent les ados, les parents, les éducateurs, les journalistes, les législateurs et l’industrie. Ici, Boyd se présente essentiellement comme la porte-parole des ados « sans voix » dans le débat civique. Mais son livre intervient aussi dans une autre conversation, plus restreinte, animée par les chercheurs qui travaillent sur les transformations culturelles liées au développement du médium algorithmique. Or nombre de ces chercheurs pensent que leur rôle est avant tout de dénoncer « le système » en général et « le capitalisme » en particulier, dont les techniques numériques sont évidemment le soutien, voire le fer de lance. Boyd paye tribut (p. 27) à la critique du capitalisme, et cela d’autant plus qu’elle doit expier le péché d’être salariée de Microsoft, mais elle nous annonce juste ensuite cette brève révérence qu’elle va considérer la société américaine telle qu’elle est, sans s’appesantir sur la dénonciation du système. Je note à ce sujet que les catégories sociales qu’elle utilise dans l’analyse de ses données (sexe, genre, race, âge, classe, etc.) sont exactement les catégories qui sont utilisées couramment par les adolescents qui sont les objets de ses recherches. En d’autres termes, elle fait de l’ethnométhodologie sans le dire. Cela donne un texte hyper américain, dans lequel les étiquettes classantes de la culture locale (teen, white, latino, black, bi-racial, queer, etc.) sont admises comme naturelles. Or, paradoxalement, c’est précisément son acceptation de la réalité sociale telle qu’elle est et des catégories sociales telles qu’elles sont utilisées par les acteurs eux-mêmes qui donne à son texte son efficacité politique… et donc sa portée critique concrète ! J’en arrive finalement à une réflexion concernant la posture dénonciatrice d’un grand nombre d’intellectuels et d’universitaires qui se spécialisent dans l’analyse du numérique. Un Morozov écrase de son mépris d’intellectuel européen les ingénieurs américains et les publicistes effervescents et superficiels de la Silicon Valley qui n’ont pas lu Latour et qui s’imaginent qu’on peut régler des problèmes politiques complexes avec des gadgets. Mais n’est pas Walter Benjamin ou Theodor Adorno qui veut… Par contraste, Boyd essaye de résoudre des problèmes en faisant travailler ensemble l’industrie, les politiques, les sciences sociales et les humanités. Il n’est pas sûr que les sombres prophètes de l’apocalypse culturelle et les dénonciateurs systématiques (que l’on trouve aussi bien aux USA qu’en Amérique Latine, en Europe et en Asie) soient, au bout du compte, les meilleurs représentants d’une véritable pensée critique, capable de projeter et d’aménager la civilisation en émergence.

BIBLIOGRAPHIE

Adorno, Theodor et Horkheimer, Max, La dialectique de la raison, Gallimard, 1974 (version originale en allemand : 1947).

Benjamin, Walter, «L’œuvre d’art à l’époque de sa reproductibilité technique», dernière version 1939, in Œuvres III, Gallimard, 2000.

Boyd, Dana, It’s complicated, the social lives of networked teens, Yale UP, 2014

Latour, Bruno, Science in Action, Harvard UP, 1987

Lehn, Dirk vom, Harold Garfinkel: The Creation and Development of Ethnomethodology, Left Coast Press, 2014.

Morozov, Evgeni, To Save Everything, Click Here: The Folly of Technological Solutionism, Public Affairs, 2013

Silberman, Steve, NeuroTribes: The Legacy of Autism and the Future of Neurodiversity, Penguin, 2015

DansL'usine

MY TRIP

IBERTIC (Instituto Iberoamericano de TIC in Education) invited me in Buenos Aires for a series of conferences and consultations during the week of 13th to 17th of april 2015. I gave four speeches in front of different audiences: one of my main speeches was about « collective intelligence for educators » and another about « The emergence of reflexive collective intelligence ».

I had several meetings with people engaged in teaching, training and policy coordination related to « TIC and education ».
Argentina has a big state-led program (Connectar Igualidad) to give a computer to every student in secondary education. I visited the warehouse where these computers are packed and sent to the students and I had a look at the mainly « open » applications included in the package. I visited also Canal Encuentro, the state-run educational television, where a team related to the program « Connectar Igualidad » is building one portal for educators and another one for the students. These portals are supposed to provide learning resources and tools for communication and collaboration.

STORIES FROM MY PERSONAL EXPERIENCE

During this trip I had, at several occasions, the opportunity to speak about my own experience in using TICs as an educator. In the various courses that I teach at the University of Ottawa, I ask my students to participate to a closed Facebook group, to register on Twitter (and to follow me: @plevy), to use a collaborative repository in the cloud (a social bookmarking plateform or a curation plateform like Scoop.it) and to open a blog if they don’t have already one.

– The Facebook group is used to share the syllabus, our agenda, the mandatory lectures (all of them on line « at one click »), our electronic addresses (Twitter, blog, collaborative memory plateform), the questions asked by the students, etc. The students can participate to the collective writing and editing of « mini-wikis » inside the FB group. They are invited to suggest good reads related to the course by adding commented links.

– Twitter is used through a careful use of hashtags. I use it for quick real-time feed-back during the course: to check what the students have understood. Then, every 2 or 3 weeks, I invite students to look back at their collective traces on Twitter to recollect what they have learned and to ask questions if something is not clear. I experimented also a « twitter exam » where the students have to evaluate my tweets: no reaction if my tweet is false, a favorite if it contain some truth, a retweet if they agree and a retweet plus a favorite if they strongly agree. After having reviewed the tweets and their responses, I ask to the students what are – according to them – their worst possible errors of appreciation. The final evaluation of the exam (that is, of their reactions to my tweets) is made by applying to the students the rules that they have determined themselves! Finally I teach them the practical use of Twitter lists.

– The collaborative repository in the cloud (Diigo, Scoop.it) is used to teach the sudents the use of categories or « tags » to organize a common long-term memory, as opposed to the ephemeral information on popular social media.

– The blogs are used as a way to display the assignments. The students are encouraged to add images and links. For the last assignment they have to describe – from their own point of view – the main points that they have learned during the course.

At the end of a semester, the students have not only acquired knowledge about the subject matter, they also improved their collaborative learning skills in a trans-platform environment!

MY TAKE-AWAY ADVICE FOR IBERTIC AND THE EDUCATIONAL COMMUNITY IN ARGENTINA

A social network is a human reality
As « how » once told me: a social network is neither a platform nor a software: it is a human reality. In the same vein, building a closed platform is in no way a solution to collaboration, training, learning or communication problems. The solution is to grow a « community of practice » or a « collaborative learning network » that will use all the available and relevant platforms, including face to face meetings and well known commercial platforms that are available at no cost.

There is no such thing as an educational technology
There are no educational technologies. There are only educational or learning uses of technology. The most important things are not the technologies by themselves (software, platforms, resources) but the educational practices and the effective collaborative learning processes.

The new literacy
The new intellectual literacy encompasses all collaborative data curation skills, including attention management, formal modeling, memory management, critical thinking, stimergic communication, etc. It is neither a discipline nor a specialized knowledge but a consistent set of transversal competencies that should be strengthened in all kinds of learning practices. Of course, this literacy cannot be taught by people who do not master it!

Staying motivated despite constraints
The educational community faces a lot of constraints, particularly in not so rich countries:
– lack of infrastructure (hardware, software, connectivity),
– lack of institutional facilitation (innovation and openness are praised in theory but not encouraged in practise),
– lack of knowledge and skills on the educator’s side.
The educator should consider herself / himself as an artist transforming these constraints into beauty through a creative process. Do what you can in your circonstances. There are no perfect method, software or platform that will solve all the problems magically in every environment and context. Teaching is itself an open-ended (collaborative) learning process.

I recommand this video in spanish about Personal Learning Environments

Jung-Mandala

I will speak the 5th of September 2014 in Rio de Janeiro at the event Educaçao 360.

Here is my presentation: Algorithmic communication

The-Way-to-Go

Chat vairon

MA PRÉFACE À L’EXCELLENT LIVRE DE STÉPHANE VIAL, L’ETRE ET L’ÉCRAN

Au-delà de la simple posture de consommateur ou d’utilisateur, si nous voulons y voir un peu plus clair sur la manière dont nous entremêlons nos pensées et nos symboles dans le médium algorithmique, si nous voulons comprendre la mutation numérique en cours et nous donner les moyens de peser sur son déroulement, il est nécessaire de garder les deux yeux bien ouverts: aussi bien l’oeil critique que l’oeil visionnaire.

L’oeil critique
Du côté de l’oeil critique, apprenons d’abord à sourire devant les slogans de pacotille, les mots-clic du marketing, les courses au Klout et les poses de « rebelle du libre ». L’Internet est peut-être pour certains une nouvelle religion. Pourquoi pas? Mais de grâce, ne nous construisons pas de nouvelles idoles : l’Internet n’est ni un acteur, ni une source d’information, ni une solution universelle, ni un modèle (Evegeny Morozov nous explique fort bien tout cela dans son dernier livre To Save Everything, Click Here: The Folly of Technological Solutionism).
Ce n’est pas un acteur. Le nouveau médium algorithmique qui se complexifie sous nos doigts et nos regards entrecroisés n’est certainement pas un acteur homogène, mais plutôt l’assemblage hypercomplexe d’une multitude d’acteurs humains et non-humains de toutes natures, un assemblage en transformation constante et rapide, un métamédium qui abrite et entremêle une grande diversité de médias dont chacun réclame une analyse particulière dans un contexte socio-historique particulier. Le médium algorithmique ne prend pas de décisions et n’agit pas de manière autonome.
Ce n’est pas non plus une source d’information : seules les personnes et les institutions qui s’y expriment sont de véritables sources. La confusion, entretenue par de nombreux journalistes, vient de ce que, dans les médias de diffusion unilatérale traditionnels (organes de presse, radios, télévisions), le canal se confond avec l’émetteur. Mais, dans le nouvel environnement de communication, les mêmes plateformes peuvent être utilisées par de nombreuses sources indépendantes.
Le simple bon sens nous suggère également que ni l’Internet, ni même le bon usage de l’Internet, fût-ce selon les lignes du crowdsourcing ou de l’open data, ne peuvent évidemment fournir une solution universelle et un peu magique à tous les problèmes économiques, sociaux, culturels ou politiques. Lorsque presque tout le monde n’a plus que les mots de « disruption », d’innovation, de fonctionnement en réseau et d’intelligence collective à la bouche, ces mots d’ordre (voir l’analyse philosophique du mot d’ordre par Deleuze et Guattari dans Mille Plateaux) n’ont plus aucun sens parce qu’ils ne font plus de différence.
Dans le même ordre d’idée l’Internet n’est pas non plus un modèle. Wikipedia (depuis 2001) représente sans aucun doute une réussite dans le domaine du travail collaboratif et de la diffusion des connaissances. Mais faut-il pour autant imiter Wikipedia pour des projets et dans des contextes bien différents de celui de l’encyclopédie en ligne? On peut en dire autant d’autres réussites comme celles des logiciels à sources ouverte (depuis 1983) ou de la licence Creative Commons (depuis 2001). Wikipedia et la propriété intellectuelle libre sont désormais des institutions interdépendantes et bien établies. S’il faut copier la communauté Wikipedia ou celle du « libre », ce serait plutôt dans leur capacité à concevoir – presque de toutes pièces – les modèles singuliers dont elles avaient besoin pour leurs projet à elles. Nous sommes en 2013 et il n’y a aucune raison pour que de nouveaux modèles originaux ne viennent pas s’ajouter à ceux-là, en vue de projets peut-être plus ambitieux. Nous avons certes à faire fructifier les héritages technique, juridique et organisationnel du mouvement socio-technique multiforme qui a porté l’émergence du médium algorithmique, mais pourquoi devrions-nous nous conformer à de quelconques modèles?
Pour en finir avec l’oeil critique, examinons quelques mots d’ordre en vogue tels que les  big data et les digital humanities. Il est clair que l’immensité des données publiques disponibles appelle un effort concerté pour en extraire le maximum d’information utile. Mais les tenants des big data entretiennent l’illusion épistémologique qu’ils pourraient se passer de théories et qu’il leur est possible de faire émerger la connaissance d’une « simple » analyse statistique des données. Comme si la sélection des ensembles de données, le choix des catégories qui leur sont appliquées et la conception des algorithmes qui les traitent ne relevaient d’aucun d’aucun point de vue pragmatique, d’aucune hypothèse particulière et, en somme, d’aucune théorie! Mais peut-on demander à des ingénieurs ou à des journalistes, aussi bien intentionnés soient-ils, d’expliciter des théories en sciences humaines, alors que les chercheurs en sciences humaines eux-mêmes en fournissent si peu, si mal, de si simplistes ou de si limitées à telle ou telle localité?
Cela me mène à l’engouement contemporain pour les digital humanities. L’effort pour éditer et mettre en libre accès les données des sciences humaines, pour traiter ces données avec les outils des big data et pour organiser des communautés de chercheurs autour de ce traitement est certes fort louable. Hélas, je ne discerne pour l’instant aucun travail de fond pour résoudre les immenses problèmes de fragmentation disciplinaire, de testabilité des hypothèses et d’hyper-localité théorique qui empêchent les sciences humaines d’émerger de leur moyen-âge épistémologique. Les outils techniques ne suffisent pas! Quand les sciences humaines se délivreront-elles du sortilège post-moderniste qui leur interdit l’accès à la connaissance scientifique et au dialogue ouvert dans l’universel ? Pourquoi tant de chercheurs, pourtant très doués, se cantonnent-ils à la dénonciation politico-économique, à la protection ou à l’attaque de telle ou telle « identité » ou à l’enfermement disciplinaire? Sans doute faudra-t-il mobiliser de nouveaux instruments algorithmiques (la partie digital), mais il faudra surtout que la communauté des sciences humaines découvre un sens nouveau à sa mission (la partie humanities).

L’oeil visionnaire
Je disais en commençant que nous avions besoin – pour comprendre et pour agir – d’ouvrir nos deux yeux : l’oeil critique et l’oeil visionnaire. L’oeil critique dissout les idoles intellectuelles qui obstruent le champ cognitif. L’oeil visionnaire discerne de nouveaux problèmes, envisage les avenirs dissimulés dans la brume de l’avenir et crée. C’est là qu’intervient notamment la perspective du design, si bien évoquée par Stéphane Vial au sixième chapitre de L’être et l’écran. Mais avant de songer à créer, il faut d’abord discerner. L’humanité est la seule espèce animale à manipuler des symboles et cette singularité lui a donné accès à la conscience réflexive, à la culture et à l’histoire. Dès lors qu’un nouvel univers de communication – un univers qui est évidemment le fruit de sa propre activité – augmente et modifie sa capacité de manipulation symbolique, c’est l’être même de l’humanité – sa singularité ontologique – qui est appelé à se reconstruire. Or le médium algorithmique rassemble et interconnecte sur un mode ubiquitaire aussi bien les flots de données numériques émis par nos activités que les armées d’automates symboliques qui transforment et nous présentent ces données. Dès le XXe siècle, quelques visionnaires avaient osé regarder en face la mutation anthropologique qu’implique ce nouveau régime de manipulation symbolique. Il est temps maintenant que les conditions techno-sociales de la mutation en cours, les problèmes béants qu’elle nous pose et les opportunités inouïes qu’elle nous ouvre soient frontalement pris en compte par la communauté des chercheurs en sciences humaines. Comme le montre parfaitement le livre de Stéfane Vial, la « révolution numérique » ne concerne pas tant les apparences, ou l’observable, auquel les journalistes se limitent par profession, que le système organisateur de nos perceptions, de nos pensées et de nos relations, leur nouveau mode d’apparition, leur fabrique cognitive, leur nature naturante. Ouvrons donc notre oeil visionnaire, traversons le miroir et commençons à explorer le changement de transcendantal historique, l’émergence d’une nouvelle épistémè. Il est clair pour moi, comme je crois pour Stéfane Vial et pour bien d’autres, que ce changement est oeuvre humaine, qu’il n’est pas achevé et qu’il offre encore de nombreuses possibilités d’inflexion et d’intervention créative. Mais pour que les virtualités les plus fécondes de notre évolution historique et culturelle s’actualisent, encore faut-il les apercevoir et se donner les moyens non seulement techniques mais aussi symboliques, théoriques et organisationnels de les réaliser.
Il y a certes quelques exigences à respecter : des exigences culturelles, économiques, techniques, existentielles. Culturelles : ne mépriser ni les traditions locales, ni les traditions transmises par les générations passées ; respecter les trésors de savoir et la sagesse contenues dans les institutions vivantes. Economiques : quelles que soient les options choisies (public, privé, commercial, non commercial, etc.) nos projets doivent être viables. Techniques : familiarisons-nous avec les algorithmes, leur calculabilité, leur complexité. Existentielles : le design des expériences doit prendre en compte l’existence corporelle, relationnelle, affective et esthétique des humains engagés dans les dispositifs d’interaction techniques. Une fois ces exigences respectées, la liberté créatrice n’a pas de limite.
Pour ma part, je crois que la direction d’évolution la plus prometteuse est celle d’un saut de réflexivité de l’intelligence collective, dans une perspective générale de développement humain (voir La sphère sémantique). Ce projet culturel et cognitif s’appuie sur un dispositif techno-symbolique de mon invention : IEML. Ce métalangage algorithmique s’auto-traduit dans toutes les langues et fournit aux sciences humaines un puissant outil de catégorisation et d’explicitation théorique. Ce projet n’en exclut aucun autre. J’invite à penser et à dialoguer au sein d’une universalité ouverte. Ma philosophie, comme celle de Stéphane Vial, accueille l’émergence, la durée et l’évolution de singularités créatives et interprétatives qui soient à la fois distinctes et interdépendantes, compétitives et coopératives.
Il semble que nous ayons oublié pourquoi nous avons édifié le médium algorithmique. Etait-ce pour devenir millionnaire? Etait-ce pour révéler enfin aux peuples opprimés le « marketing des médias sociaux » qu’ils attendaient avec tant d’espoir? Etait-ce pour que chacun, des enfants des écoles aux armées les plus puissantes en passant par les entreprises et les partis politiques, puisse surveiller, calomnier et détruire ses ennemis avec des moyens plus puissants? Stéphane Vial nous rappelle ce que nous avons visé, ce que nous visons toujours, ce but qui semble se dérober au fur et à mesure que nous le poursuivons et qui cependant oriente notre course : une révélation dans les sujets.

Britannica

Steve Jankowski’s Master Thesis (Wikipedia and Encyclopaedism: A genre analysis of epistemological values Click Here!) is proof that a supervisor (me) can learn more from his student than the student from his supervisor. And I’m not speaking here about learning some interesting facts or methodological tricks. When reading the final version of the thesis, I truly learned about new, relevant and important ideas pertaining to digital humanities and post-colonial epistemology.

The main theme of Jankowski’s work is the “epistemological conservatism” of Wikipedia. This conservatism can be seen in two important features of this encyclopedia: its categorization system and its general theory of knowledge.

First, based on rigorous scientific methodology, this groundbreaking research shows that the paratextual headings of the famous online encyclopedia are very close to those of the 19th century Britannica. Since headings and disciplines form the meta-data system of the encyclopedia, or its chief categorization apparatus, we can say safely that it is one of the place where its tacit epistemology is hiding.

Second, based on a thorough historical study of the encyclopedic genre, Jankowski shows that the theory of knowledge officially followed by Wikipedia is also the theory of knowledge stemming form the movement of enlightenment and developed by modern Europe in the 19th century. According to this general framework, there is an “objective” scientific truth, that is produced by the scientific community according to its own academic rules (the primary sources) and a vulgarization of this objective truth by the writers and editors of the encyclopedia. Vulgarization is understood here as a kind of synthetic compendium of scientific knowledge for the “cultivated public” (meaning in fact: people having at least a secondary education).

These two discoveries are important for several reasons.

Wikipedia is one of the most consulted sites of the Internet and it is the first place where journalists, students and professors alike, go to find some basic information on any subject. This means that any epistemological bias in Wikipedia has more influence on the contemporary public mind than those exerted by the news outlets. A deeper influence, indeed, because Wikipedia is not only about facts, news or events but also about the basic structure of knowledge.

The idea that Wikipedia is epistemologically conservative may be counter-intuitive for many. Is not Wikipedia completely open and free? Don’t we know that anybody may write and edit this encyclopedia and that the editing process itself is transparent? Isn’t Wikipedia a fantastic example of international collective intelligence and one of the big successes of crowd-sourcing? Of course! But the big lesson of Jankowski’s work is that all this is not enough. There are still some emancipatory efforts to be made.

Wikipedia has opened new grounds by using hyper-textual tools, a crowd-sourced editorial process and an open intellectual property. These are all good and each should be pursued to further develop collective intelligence in online environments. But Wikipedia also contains within its DNA the typographic epistemology and the categorization system of good old colonial Great Britain.

In an increasingly data-centric society, when mastery of knowledge is the main asset of cultural, economic and military power, epistemology is key to the new politics. In this regard, Jankowski implicitly asks us two strategic questions. How can we build an organic and unified compendium of knowledge allowing as many categorization systems as possible? How can we integrate the different point of views on a given subject in a perspectivist way instead of imposing a “neutrality” or “objectivity” that reflects inevitably the dominating consensus? These sort of questions address epistemology’s crucial role in the new politics and within personal and collective identities.

critical-thinking

Voici ma communication au colloque sur les innovations pédagogiques dans l’enseignement supérieur, à Sherbrooke, début juin 2013.

Je recommande chaudement une excellente prise de notes sur cette conférence par @celinevde

Cliquez ci-dessous pour obtenir le PDF.

Competences cognitives pour la société du savoir