Ces dernières années, le scandale Cambridge Analytica ainsi que la règlementation européenne RGPD ont contribué à accroitre la sensibilisation de la société civile sur les risques potentiels des big data et de l’intelligence artificielle. Cependant, la confidentialité n’est que la partie visible de l’iceberg. Nous avons rencontré la philosophe juridique Anne Rouvroy pour discuter de son travail sur la gouvernementalité algorithmique, et la profonde transformation que la révolution technologique néolibérale catalyse dans la société et la politique. Selon elle, il est nécessaire de retourner à la réalité et de tourner le dos à l’optimisation sans fin – et c’est en cela que l’Union européenne doit jouer son rôle.

Au-delà des aspects techniques et strictement matériels de la dite révolution technologique actuelle, un mouvement de fond plus important et structurant transforme les sociétés actuelles. Vous travaillez entre autres sur la question de la gouvernementalité algorithmique. De quoi s’agit-il et quelle est l’idéologie des big data qui la sous-tend  ?

La gouvernementalité algorithmique est l’idée d’un gouvernement du monde social qui serait fondé sur le traitement algorithmique des données massives plutôt que sur la politique, le droit et les normes sociales. La numérisation devient, une forme de quantification des enjeux politiques qui se réalise par la grâce d’algorithmes. Dans la pratique statistique « traditionnelle », il y a toujours des hypothèses à propos du monde, des conventions de quantification, des catégorisations préalables. Avec le big data, l’idée est de faire émerger des données les hypothèses et les critères de classification.

Il ne s’agit plus tant de gouverner ce qui est, de juger les comportements passés, de les sanctionner et de discipliner, mais plutôt de gouverner l’incertitude. Le traitement massif de données relève de la domestication de l’incertitude. En réalité, la gouvernementalité algorithmique vise bien plus large : viser l’excès du possible sur le probable. Réduire le possible au probable en affectant les comportements sur le mode de l’alerte plutôt que sur le mode de l’interdit ou de l’obligation. C’est un mode de gouvernement relativement subliminal qui consiste à diriger l’attention des gens sur certaines choses, à modifier l’environnement informationnel ou physique de manière à ce que des comportements soient rendus non pas obligatoires mais nécessaires.

Shoshana Zuboff, dans L’Âge du Capitalisme de Surveillance, parle de « marché des comportements futurs ». On traduit donc les expériences humaines, ce qui est dit « incontrôlable », en comportements, en signaux, de manière à vendre ces données sur un marché. L’objectif est de faire de la prédiction, mais en réalité n’est-ce pas aussi de domestiquer totalement le risque  ?

Un algorithme ne « voit » rien et au contraire défait toutes nos images. Il permet effectivement de désautomatiser, de défaire nos préjugés. Cela paraît donc très émancipateur mais génère des espaces spéculatifs déliés de toute idée de risque. Le but est précisément de réduire l’excès du risque. C’est une manière de « dé-penser » l’avenir, de déjà actualiser ce qui n’existe que sur plan de la virtualité. Prenez le risque de décès prématuré. La gouvernementalité algorithmique se désintéresse des causes et des signaux physiologiques ou plutôt ne les traite qu’à égalité avec d’autres types de signaux qui peuvent être par exemple le type de personne que vous fréquentez, ce que vous mangez, le fait que vous regardiez des films sur Netflix toute la nuit, tous types de signaux en général . Tout peut rentrer en compte, sans lien de causalité évident avec ce qu’on recherche. Une fois des signaux détectés, la personne en question va être traitée comme ayant déjà « contracté » le risque ou ayant déjà « réalisé » le danger, et peut donc par exemple être expulsée de son assurance vie. Il n’est pas question d’agir sur les causes mais anticipativement sur les effets et d’une manière qui soit profitable aux donneurs d’ordre de l’algorithme, que ce soit pour l’augmentation de profits ou de contrôle.. Le monde de l’assurance pour ne prendre que cet exemple, avec sa répartition solidaire des risques, meurt. Le monde post assurantiel n’a plus besoin de répartition puisqu’on peut déjà anticiper sur la réalisation. La notion de risque disparaît complètement.

Nous continuons à imaginer mais l’imagination n’est plus prise en compte. C’est la mort du politique.

On ne cherche donc plus à imposer de nouvelles normes, à façonner les interactions entre personnes et on passe donc carrément à une sorte de neutralisation. Est-ce qu’il s’agit de tuer l’imagination et le vivant  ?

Nous continuons à imaginer mais l’imagination n’est plus prise en compte. C’est la mort du politique. Optimisation plutôt qu’imagination ou anticipation. C’est exactement l’inverse de la politique. La politique, c’est transcender l’état de fait. La gouvernementalité algorithmique, elle, optimise l’état de fait de manière à ce qu’il reste le plus favorable à certains acteurs. C’est une nouvelle forme de rationalité, hyper sectorialisée, une optimisation d’une multitude de fonctions objectives, aujourd’hui déterminée par des intérêts industriels.

Le néolibéralisme nous a emmenés sur la voie du tout calculable. Or, si c’est la mort du politique, il doit toutefois y avoir des intérêts politiques et économiques qui ont poussé à l’avènement d’une telle réalité  ?

Les dispositifs actuels se nourrissent précisément des perspectives d’émancipation ouvertes dans les années 1960-70, d’une forme de refus de toute hétéronomie, de volonté de n’être gouverné que par soi-même, une sorte de haine qu’auraient les individus de la moyenne. C’est la fin des catégories et des groupes. Les individus ne veulent pas être considérés, par des bureaucraties publiques ou privées, comme membres d’une catégorie socio-professionnelle, sociale, ou autre, mais bien comme des êtres éminemment singuliers, uniques, créatifs… Et le big data s’adresse à nous précisément comme un individu aussi loin que possible de toute idée de moyenne. L’idée même de moyenne disparaît.

Nous vivons aujourd’hui dans une société de l’optimisation où chacun doit s’optimiser, être et avoir tout, tout le temps.

La personnalisation à l’échelle industrielle n’est plus du tout un oxymore. Tout le monde veut son équipement et son environnement personnalisés. L’écrivain Alain Damasio parle de techno-cocon, de quelque chose de très maternant. Tout le monde tremble de peur face à la perspective de la surveillance de masse, alors que l’un ne va pas sans l’autre, bien évidemment. Cet hyper-individualisme est le fruit de la tendance néolibérale, une sorte de passion pour la très haute définition : il s’agit de juger chacun ou d’évaluer les mérites et les besoins de chacun en haute définition. Que chacun paye pour ce qu’il fait, chacun pour soi. Dans certains cas, comme la conduite automobile, cet hyper individualisme et cette surveillance peuvent avoir des aspects positifs: faire varier les primes d’assurance en fonction du comportement de l’automobiliste. Mais par contre, faire varier des primes d’assurance en fonction de votre consommation au supermarché ou d’autres choix personnels, est éminemment problématique.

Mais ce ne sont pas les grands acteurs du numérique qui sont la cause de ça. Il y a une base idéologique. Nous vivons aujourd’hui dans une société de l’optimisation où chacun doit s’optimiser, être et avoir tout, tout le temps. Il ne s’agit plus d’être évalué à l’aune de valeurs, de morale, etc. Tout se vaut, en quelque sorte. Et la meilleure façon de satisfaire le consommateur en temps réel et sans évaluation, c’est de se brancher directement sur ses pulsions, plutôt que de se brancher sur sa réflexivité. Nous avons normalement un temps de réflexion avec des circulations d’influx nerveux qui sont beaucoup plus lents que la circulation des signaux numériques. Le rythme de la pensée humaine, de la réflexivité, est court-circuité par la cadence du numérique. La cadence se branche directement sur les pulsions, et non la réflexivité. Il y a évacuation du sujet.

L’évacuation du sujet, c’est aussi une autre manière de voir la crise de représentation dans les systèmes politico-économiques actuels  ?

Politiquement ce qui est intéressant, c’est que tout est maintenant capté, même ce qui était auparavant vu comme a-signifiant, et donc le système donne une voix et du poids à ce qui précédemment échappait à toute représentation, tout ce qui est infra-linguistique, qui n’a pas de représentation en mots. D’un côté, ça peut paraître très émancipateur. Mais ce qui manque, c’est un référentiel collectif, ce que Guattari et Deleuze appelaient les agencements collectifs d’énonciation. [1] Dans ces agencements on fait sens collectivement, on ne calcule pas, il y a quelque chose qui transcende l’individuel optimisé pour soi et qui relève du commun. Le commun, c’est en quelque sorte la quatrième personne du singulier. Complètement oublié aujourd’hui, c’est l’irreprésentable, l’irreprésenté dans les données, l’incalculable, qu’on trouve dans l’organique, la normativité de la vie même, c’est de l’altération en soi. Le terme anthropocène nous a d’ailleurs piégés car il implique que tout dépend de nous (même s’il est correct que beaucoup est « de notre faute ») et qu’il n’y a pas de nature hors de nous. Or, il y a une nature hors de nous, ni représentée ni représentable sous forme de données et c’est précisément cela le « vivant ».

L’indignation en ligne est de la nourriture pour le capitalisme algorithmique. Là où le contre-pouvoir fonctionne c’est quand les gens se mettent ensemble pour faire – dans le sens de réalisation concrète et tangible – quelque chose.

Notre raison en tant qu’être humain est limitée car nous avons un corps, un point de vue sensoriel et sans cela nous ne pouvons pas connaître, pas appréhender ni être dans le monde. Cela nous permet de projeter un avenir, c’est-à-dire un advenir non toujours déjà préoccupé, voire prédéterminé, par des logiques d’accumulation et d’optimisation. La gouvernmentalité algorithmique, c’est en réalité un anthropocentrisme absolu, c’est prétendre que la rationalité humaine peut avoir une prise sur le monde sans l’homme.

C’est sombre. Où voyez-vous les lumières, les lueurs d’espoir au bout du tunnel  ?

Les lueurs d’espoir sont absolument partout. Le capitalisme qui a épuisé toutes les ressources matérielles et exploite maintenant le virtuel, c’est de la super fiction, c’est hors sol  ! La meilleure résistance ou récalcitrance possible, c’est probablement d’être moins fasciné par l’intelligence artificielle (IA). Les spécialistes de l’IA la démystifient le mieux. Ils sont les meilleurs défenseurs du politique : Yann LeCun, chef de l’IA chez Facebook, dit que jamais une intelligence artificielle ne sera plus intelligente qu’un chat  ! Les spécialistes expliquent que l’IA est incapable de percevoir le contexte. Il faut écouter ces experts et pas le récit de l’industrie qui a été repris par les politiques qui se défaussent par ce biais de leur responsabilité. Le vivant est partout, il faut s’en occuper.

Le vivant, c’est qui concrètement  ? Il faut atterrir comme dit Bruno Latour  ?

Le retour au territoire, réhabiter, cela se traduit politique par un retour relatif au local. Cela n’a rien de régressif. C’est s’occuper d’ici et maintenant, de la terre sous nos pieds qui est plus ancrée que nous le sommes. Le projet de globalisation et du capitalisme est incompatible avec la survie. L’état d’optimisation c’est l’opposé de s’occuper de ce qui compte dans le concret ici et maintenant, cela fascine et dispense de regarder et d’être dans la réalité. L’IA ne va pas nous aider plus qu’un marteau ou une bêche. C’est seulement une source d’information. L’IA peut donner des cartographies intéressantes, aider à identifier des faits mais les faits et actions ne comptent pas par eux-mêmes, il faut les rendre importants, signifiants et cela n’est que le fait de l’être humain.

Politiquement, comment fait-on pour être subversif vis-à-vis de la gouvernementalité algorithmique  ?

Il y a aujourd’hui une passivité numérique hallucinante. Beaucoup de gens pensent que des votes numériques, des pétitions et des indignations vont changer les choses, voire même des assemblées citoyennes avec l’aide de la technologie. Je ne veux pas porter la charge contre tout cela mais l’indignation en ligne est de la nourriture pour le capitalisme algorithmique. Passer son temps à s’indigner sur Facebook nourrit la bête. Là où le contre-pouvoir fonctionne c’est quand les gens se mettent ensemble pour faire – dans le sens de réalisation concrète et tangible – quelque chose, qu’il s’agisse par exemple de construire une maison, de faire des potagers, ou bien d’autres choses.

Je voudrais passer à un sujet lié mais différent, celui du droit vis-à-vis des big tech. Vous dites que la RGPD est un outil utile mais arrivé trop tard et avec la mauvaise cible. Pourriez-vous m’expliquer  ?

J’ai en ligne de mire le droit de la concurrence, car quand on évoque les droits de l’homme, les enjeux numériques de protection de l’intimité, protection de la vie privée, ressortent immédiatement. Mais cela concerne la « citadelle » autour de l’individu. En réalité ce qui intéresse la gouvernementalité algorithmique n’est pas l’individu et ses préférences ou choix. C’est l’intensité du rapport statistique qui existe entre des fragments de l’existence individuelle quotidienne et des modélisations réalisées à l’échelle industrielle. En d’autres mots, grandes quantités de données pour des grandes quantités de personnes. Le RGPD se focalise trop sur l’individu, outre le fait que le consentement est en réalité très peu protecteur. Il est très facile d’identifier une personne à partir de données anonymes en croisant des données massives, peu importe son niveau de protection individuelle. Enfin et surtout, l’enjeu est que le pouvoir aujourd’hui passe moins par l’identification des personnes que par la modélisation de leurs comportements possibles, mais de façon collective.

L’Europe a un rôle à jouer, mais en repensant fondamentalement le statut de la donnée, quitte à le faire de façon négative.

Le statut des données lui-même est problématique. Aujourd’hui, toutes les données sont captées, et pas nécessairement produites, par les GAFAM. Les Etats eux-mêmes sont dépendants de ces acteurs, que ce soit à des fins de sécurité ou autre. Les Etats et d’autres acteurs de la société civile sont obligés de contracter avec ces GAFAM, par exemple la NSA aux Etats-Unis pour le contre-terrorisme ou la Croix Rouge internationale pour du regroupement familial après un séisme. Il y a là une centralisation, hors des mains démocratiques, par des industriels des données qui aujourd’hui sont en passe d’acquérir bien plus de pouvoirs que les Etats. C’est un enjeu géopolitique majeur.

Quels leviers pour l’UE  ?

En lieu et place d’un récit autour de l’éthique et de soi-disant comités de réflexion sur l’IA il faut un droit de la concurrence très fort et des sanctions financières appropriées. L’UE doit également investir elle-même dans des bases de données européennes, des savoir-faire européens, une IA européenne. Malheureusement, l’UE a du retard : manque de quantités de données face à nos concurrents (mis à part pour certains secteurs centralisés comme les soins de santé en France ou en Belgique). Mais je gage que les enjeux futurs de la compétition internationale ne se joueront pas sur l’IA, mais sur le climat et sur l’environnement, le gouvernement du réel.

Par ailleurs, une piste intéressante serait d’avoir un tout autre statut de la donnée. Aujourd’hui elle est vue comme un bien, une valeur positive pour la société et l’économie. Mais de façon très matérielle et pragmatique, la donnée est un déchet toxique. La plupart des données n’ont aucune signification en soi. Au moment où elles sont récoltées, elles n’ont qu’une valeur d’option, de spéculation, à potentiellement traiter, disséquer et utiliser plus tard. Une fois qu’une donnée est « dehors » elle s’apparente à ce qui se produit avec le nucléaire : quand elle est « sortie » elle est « partie » et cela sans fin. Il faudrait donc gérer l’environnement numérique comme l’environnement naturel. La moindre requête sur Google consomme une quantité incroyable d’énergie. L’Europe a un rôle à jouer, mais en repensant fondamentalement le statut de la donnée, quitte à le faire de façon négative. Obliger à réguler l’usage de la donnée, être transparent sur son utilité, son origine, sa destination, voir comment le collectif peut l’utiliser ou pas. Pour cela il faut revaloriser les institutions et réguler l’économie dangereusement extractive – tant vis-à-vis de l’environnement que de l’humain – de ce monde numérique dont il est vendu aux citoyens qu’il n’existe que dans un «  nuage », un « cloud » séparé de nos réalités terrestres.

[1] Les philosophes Félix Guattari et Gilles Deleuze ont développée en premier le concept de la théorie de l’assemblage dans leur ouvrage Mille plateaux, paru en 1980.