Etudes Digitales n°2 : le gouvernement des données • introduction

E

Le numéro 2 de la revue Études Digitales ouvre un champ de réflexion où, à partir de la montée contemporaine de l’hyperconnectivité des réseaux, les algorithmes concentrent le lien entre données et pouvoir. La compréhension de ce phénomène sera envisagée en deux mouvements distincts mais absolument complémentaires.

Le premier mouvement, via l’informatique, rend compte d’une mutation majeure dans les formes du savoir. Dans cette orientation, le « devenir donnée » de toute connaissance inscrit une nouvelle étape de l’histoire des écritures qui se traduit par le passage du monde des signes aux mondes des data.

Le second mouvement, via le politique et par conséquent par les données du pouvoir, produit une transformation des formes de la gouvernementalité qui s’inscrit dans le sillage indirect de la cybernétique (du grec « pilote », « gouverneur ») dont l’ambition était de construire des machines intelligentes. Rappelons que le verbe « gouverner » – le « pilote de l’âme » ; ψυχῆς κυβερνήτης – au sens de piloter un navire ou un char, fut déjà utilisé par Platon de façon métaphorique pour désigner le fait de diriger les hommes. Norbert Wiener, créateur du mot cybernétique l’utilisera dans un sens un peu différent.

C’est au croisement d’une double approche des données via l’informatique puis via l’utilisation des données par le politique, que nous entendons pointer la reconfiguration actuelle de la relation « savoir-pouvoir », selon une perspective post-foucaldienne, qui constitue le thème central de ce numéro. En effet, l’ordre classique qui menait, à partir de la raison et par l’intermédiaire de la connaissance, vers la maîtrise totale de la nature et des hommes, ne paraît plus aussi solidement établi. Ainsi, se met en place un pouvoir dont l’insu progresse parallèlement à l’augmentation des flux informationnels et l’accroissement de leur complexité. Se met alors en place, de manière progressive, une nouvelle condition, incertaine, de l’homme et de son savoir.

Sans proposer un savoir cohérent sur le monde contemporain en pleine transition, l’avènement de la « rationalité » algorithmique, qui s’incarne dans la computation numérique, constitue un mode inédit de gouvernementalité, fondé sur la dogmatique d’une efficience managériale dont la légitimation s’appuie sur la plus-value du code. La science du calcul prend de vitesse la pensée humaine et impose un nouveau « réalisme numérique », expression d’une « fonction dogmatique » (au sens de Pierre Legendre) qui prétend paradoxalement supprimer tous les dogmes dans l’affirmation d’une effectivité « sans théorie » produite par de simples corrélations instantanées, arrachées par extraction à la masse des données. Où trouver désormais la possibilité du jugement critique, la mise à l’épreuve de la vérité dans l’argumentation et la discussion ?

LE POUVOIR DES DONNÉES COMME « POUVOIR DE »

Une première façon d’aborder les données se comprend comme une interrogation sur le pouvoir au sens du « pouvoir de ». Ce type de pouvoir exprime essentiellement une « capacité à faire ». Il renvoie à l’extension de l’action et de l’expérimentation par l’extraction et le traitement des données dans tous les champs du savoir. C’est ainsi que s’organise, au coeur de la technoscience contemporaine, une mutation informationnelle qui prend un tournant radical. Ainsi, Chris Anderson évoque-t-il une « fin de la théorie » au moment où les corrélations massives de toutes les données rendent, selon lui, toute recherche de causalité inutile car : « Avec suffisamment de données, les chiffres parlent d’eux-mêmes. » Une réflexion sur la proposition d’une « science sans les sciences », c’est-à-dire d’un calcul au service d’une raison statistique, reste encore à étayer par le renforcement d’une critique de la raison computationnelle fondée sur une analyse mathématique appliquée aux énormes quantités de données recueillies par des capteurs qui collectent nos comportements. Comment répondre à la question posée par Anderson : « Pourquoi le déluge des data rendra la méthode scientifique obsolète ? ».

Les humanités digitales, et plus globalement les études digitales, à condition d’être entendues dans un sens large qui excède la simple analyse des corpus par la fouille, peuvent jouer un rôle critique face aux risques de déshumanisation de telles conceptions qui caractérisent les nouvelles pratiques scientifiques. La vitesse du calcul, associée à l’automatisation donne accès à une quantité massive de données (Big Data) qui alimente un comportementalisme réducteur négateur de la contingence et des situations infiniment variables. Ceci a pour effet de court-circuiter la réflexivité qui se manifeste dans le travail interprétatif et le jugement. Les savoirs, aussi bien les sciences humaines que les sciences de la nature, sont désormais largement tournés vers la prévision statistique (Supiot, La gouvernance par les nombres). Cette orientation critique et clinique paraît nécessaire si on veut éviter la réduction des SHS au statut de « sciences auxiliaires instrumentalisées ».

Face aux Big Data, le pouvoir des données doit-il être envisagé comme l’apparition d’une intelligence collective face au profilage généralisé ? Autrement dit, l’enjeu du devenir des Humanités et des sciences sociales ne repose-t-il pas sur l’aptitude de celles-ci à mettre en oeuvre un dépassement des frontières disciplinaires capable de prendre en charge la « réduction » de la digitalisation de tous les savoirs ? Il s’agit alors d’être en mesure de produire un savoir commun, qui peut se développer en commun, et aussi prendre en charge ces communs que constitue désormais la masse des données.

La reconnaissance du rôle des instruments et le questionnement de cette « nouvelle intelligence » impliquent la formation d’une critique nouvelle. Cette situation engage une autre relation aux faits et par conséquent aux « terrains ». Ce nouveau partage de l’empirique et du théorique renvoie à une expérience du sens qui ne possède pas encore son épistémologie, mais seulement une valeur heuristique.

Si la revue Études Digitales interroge la capacité des sciences humaines à intégrer dans la recherche de nouveaux outils d’interprétation des données, la pertinence des instruments repose la question de la performance qui ne peut se concevoir sans une nouvelle épistémè.

Cette épistémè, autour les « données du savoir », doit organiser une problématisation du champ selon un questionnement multiple qui part de l’effacement des frontières disciplinaires, confondues dans l’aplatissement des données, et prend en charge une redistribution des corpus sous l’effet des corrélations, tout en sachant demeurer prudent, voire sceptique, face à ce nouveau régime de validation de la preuve. En effet, le déphasage avec un ancien régime de « vérité » par le comput creuse l’écart entre le réel et sa représentation.

Désormais, le fondement de chaque discipline ne se pense pas hors

d’un milieu mnémotechnique – dont la forme est aujourd’hui celle du digital, – à travers lequel s’organisent les controverses scientifiques. Ce milieu est également celui d’un appareillage symbolique et signifiant. Si les caractéristiques du digital modifient la création et la transmission des connaissances et imposent une redéfinition des conditions de la véridiction, c’est en tant qu’elles constituent les nouvelles conditionnalités des savoirs, et non simplement les outils de traitement des données par le calcul. Il convient de chercher dans une nouvelle démarche interprétative, une démarcation entre production du savoir et savoir automatisable afin de mettre l’accent sur les conditions d’une réfutabilité. Reste à établir une épistémogenèse de cette transformation des sciences interprétatives sans s’appuyer sur une métaphysique mais sur un partage des connaissances, au-delà des sciences dures et des sciences humaines et sociales dans une transdisciplinarité à construire contre l’idée d’une post-vérité.

LES DONNÉES DU POUVOIR VIA LE POLITIQUE COMME « POUVOIR SUR »

La seconde façon d’aborder dans ce numéro l’examen des données s’entend au sens du pouvoir « sur ». Ce type de pouvoir trouve son originalité dans une conception renouvelée de la façon de gouverner par un nouveau processus de contrôle. Comme l’explique Antoinette Rouvroy, la normalisation se fait désormais préemptive et débouche sur une nouvelle approche de la gouvernementalité : « Pour Foucault, la normalisation visait la subjectivation des individus par un processus d’intégration de la norme. Le but était de réformer le psychisme. Désormais, les individus n’ont plus d’importance. On ne s’intéresse plus aux causes des comportements. On est dans l’anomie. La norme s’adapte à la sauvagerie des faits. Elle est devenue invisible tout en collant à la peau des individus car ce sont nos profils qui la font évoluer. On n’est plus dans la prévention mais dans la préemption. Le pouvoir devient ainsi de plus en plus difficile à localiser, notamment en raison de l’implication croissante des industriels privés. Toutes les stratégies de résistance se trouvent déstabilisées car il n’y a plus de pouvoir identifié. Cette tendance n’est toutefois pas nouvelle. Ce mouvement a commencé par l’expansion du concept de gouvernance. Avec les algorithmes, nous sommes passés dans une gouvernance hors-sol. »

La société de contrôle s’illustre par un pouvoir qui correspond à une déterritorialisation. Celui-ci qui ne relève pas seulement de prédiction mais de l’intervention. Il coïncide avec la nouvelle phase de l’informatique ubiquitaire (réseaux interconnectés et Big Data) qui succède à celle des interfaces. Aussi peut-on parler, après le biopouvoir, d’une nouvelle forme de surveillance qui réintroduit avec le digital un « psycho-pouvoir » ou encore une « algocratie » alimentés par un processus généralisé de « gamification » ?

N’assistons- nous pas en effet à une alliance tactique entre les limitations épistémiques des Big Data et les transformations politiques du néo-libéralisme, lui-même producteur d’un illibéralisme contraire à toute possibilité de liberté ? La délégation de la décision à des algorithmes n’implique- t-elle pas une transformation de la nature même des processus décisionnels comme le montre Paul Jorion dans Le prix au sujet des échanges robotisés à haute fréquence qui échappent désormais à toute logique de marché humain ?

Sans répondre définitivement à ces interrogations, la revue Études digitales formule cette hypothèse que s’engage aujourd’hui un tournant « technologico-politique », où les formes émergentes de gouvernementalité interrogent les institutions. Dans ce contexte, les données du pouvoir reposent sur une traçabilité générale, conséquence d’un passage du mémorable (ce dont l’on se souvient) au mémorisable (la mise en conservation de chaque événement). Ainsi, la mutation des savoirs interroge- t-elle les données du Pouvoir à partir de la distinction entre ce que gouvernent les données et ce qui gouverne les données, par-delà l’aspect impersonnel des procédés mis en oeuvre. Comment saisir l’impératif d’ouverture contemporain dans de nombreux domaines ? Quels sont les outils de la gouvernementalité ? Quels sont les risques d’une gouvernance par le calcul ? Allons-nous au-devant d’une logique de décision sans maîtrise humaine ?

Plus globalement, il faut tenter de comprendre comment se redéfinissent le politique et le droit dans cette transition qui nous mène de l’opposition « norme/répression », bien connue des politistes, à l’opposition « anomie/préemption ». C’est bien l’ensemble des disciplines concernées par le traitement massif des données qui est sollicité pour apporter une réponse à une mutation « du pouvoir sur », via le politique, par « le pouvoir de », via les data.

À cette question majeure, des éléments de réponse sont proposés dans un film qui fait déjà controverse, adaptation d’un roman écrit par un spécialiste des médias sociaux, Le Cercle, qui sort au début de l’année 2017. Ce film propose une fiction où le tout connecté se réalise par association des grandes firmes (GAFA) dans un monopole produit un « totalitarisme inversé ». Cette expression forgée par le philosophe Sheldon Wolon qui donne la mesure d’un renversement des approches de la philosophie politique qui annonce peut-être les enjeux importants de la politique et de la pensée dans le 21e siècle. Le Cercle fait l’objet d’un article dans ce numéro.

Les articles du dossier « le gouvernement des données » s’articulent autour des différentes approches et questions que nous venons d’évoquer. Le pouvoir des données doit d’abordêtre examiné dans sa constitution. Dominique Cotte en s’interrogeant sur la production des données de la recherche en sciences humaines pose la question du processus préalable à l’utilisation des données. Il existe en effet une certaine propension à naturaliser les données alors que la condition de leur donation pose problème : elles s’avèrent en effet plutôt être des « reçues » que des données immédiates. Il convient alors de comprendre le processus de leur élaboration afin d’éviter cette naturalisation abusive qui finirait par assigner toute réalité au processus de triage et d’encodage qui le génère. Baptiste Rappin procède à une généalogie de la gouvernementalité des données à travers un examen des relations entre organisation et information. Il inscrit son étude des fondements de la cybernétique dans le prolongement des débats médiévaux autour de la question de l’univocité. Les développements modernes de la cybernétique pourraient ainsi être considérés comme la sécularisation d’un mouvement amorcé dès la pensée scolastique. Armen Khatchatourov resitue la mutation épistémologique des Big Data dans la suite des révolutions précédentes, empirique, théorétique et computationnelle. Toutefois il refuse d’accepter sans examen l’idée d’un « quatrième paradigme » et propose un modèle d’analyse qui permet de saisir la tension entre le diagramme et l’archive.

Le pouvoir des données est ensuite considéré selon les domaines de son extension. André Vitalis s’interroge sur le profilage des populations. Après une approche archéologique de cette science des masses, il explique les modalités et les implications politiques et sociales d’une telle entreprise. Il s’interroge sur l’émergence d’un nouveau « féodalisme » des données et les moyens de reconquérir une nouvelle liberté informationnelle. David Pucheu examine les conditions d’une nouvelle physique sociale à travers les développements de l’informatique ubiquitaire dans le projet d’un décodage général de l’humain et envisage l’élaboration d’une nouvelle conception de réalité qui tend à modéliser l’ensemble des relations sociales. Alan Ouakrat interroge l’influence des métriques d’audience de la presse en ligne sur le contenu éditorial. Il met à jour l’acculturation du travail Le pouvoir des données est ensuite considéré selon les domaines de son extension. André Vitalis s’interroge sur le profilage des populations. Après une approche archéologique de cette science des masses, il explique les modalités et les implications politiques et sociales d’une telle entreprise. Il s’interroge sur l’émergence d’un nouveau « féodalisme » des données et les moyens de reconquérir une nouvelle liberté informationnelle. David Pucheu examine les conditions d’une nouvelle physique sociale à travers les développements de l’informatique ubiquitaire dans le projet d’un décodage général de l’humain et envisage l’élaboration d’une nouvelle conception de réalité qui tend à modéliser l’ensemble des relations sociales. Alan Ouakrat interroge l’influence des métriques d’audience de la presse en ligne sur le contenu éditorial. Il met à jour l’acculturation du travail journalistique face à cette nouvelle culture de la mesure. Le risque est en effet de considérer cette nouvelle objectivation de la « réalité » comme un objectif sans prendre en compte la dimension collective et politique d’une production de sens nécessaire au débat public. Mauro Turrini et Mattia Gallo approchent la question de la transparence de la vie et du corps à travers plusieurs romans contemporains qui, chacun à leur manière, posent la question de notre rapport personnel aux données. Ils envisagent, à travers ces oeuvres de fictions, les nouvelles modalités de

l’exposition de soi. Mathieu Corteel examine l’utilisation des Big Data dans l’espace médical et tente de définir l’articulation savoir/biopouvoir au sein de la médecine computationnelle. Il étudie les conditions et les conséquences de l’émergence de cette nouvelle épistémê computationnelle en médecine. Et tente d’en discerner les enjeux biopolitiques. Annie Blandin étudie l’utilisation des données personnelles à travers le rapport de pouvoir qui s’établit entre employeur et travailleur. Elle examine les conditions et les implications du travailleur à communiquer ses données pour assurer les meilleures conditions de sa sécurité avec tous les risques d’intrusion que cette situation peut présenter. Vincent Guérin pose la question de l’anticipation du crime à travers les méthodes actuarielles de Big Data. Il montre de quelle façon cette approche fait progressivement glisser la pénologie d’un modèle « correctif » de la délinquance à une gestion normative des risques encourus. Antoinette Rouvroy s’est fait connaître par ses travaux qui exposent la dimension prescriptive et non prédictive des algorithmes. Ceux-ci ne se contentent pas de capter des données pour établir des corrélations, ils façonnent le monde et modifient profondément le rapport qu’on peut entretenir avec le caractère fondamentalement incertain et tragique de la vie. Elle dénonce, à travers l’idéologie des Big Data, l’avènement d’une société « post-actuarielle » qui prive les hommes d’un regard sur le monde. Sa contribution est précédée de la retranscription par Anne Alombert d’un dialogue qu’elle a mené avec Bernard Stiegler lors d’un séminaire de Digital studies.

Le choix de Paul Jorion pour le Grand entretien d’Études digitales tient à l’originalité de son parcours et plus particulièrement à l’articulation d’une démarche anthropologique consacrée aux systèmes d’échange et de prix avec une réflexion sur les modèles philosophiques et culturels des modèles de vérité et de réalité. Ce parcours l’a mené d’une étude mythologique des sociétés primitives à une relecture attentive d’Aristote, de l’émergence des systèmes logiques à celle de l’intelligence artificielle sans jamais perdre de vue le point de départ anthropologique dont le but est toujours d’interroger la place de l’homme dans les environnements qu’il façonne et transforme, au risque de les détruire et même de se détruire. Notre équipe des recensions, dirigée par Daphné Vignon et Armen Khatchatourov poursuit dans la rubrique « Index » son travail de repérage des publications autour des problématiques digitales, proposant des comptes rendus et des études critiques plus développées.

Franck Cormerais et Jacques Athanase Gilbert

CORMERAIS (Franck) et GILBERT (Jacques Athanase), « Introduction. Le gouvernement des données », Études digitales, n° 2, 2016 – 2, Le gouvernement des données, p. 11-19

Par Études Digitales - web