Contours du nouvel ordre politique des démocraties occidentales à l’ère numérique

L’objectif de cette réflexion est de tenter d’appréhender la redistribution des nouvelles formes de pouvoir à l’ère numérique autour d’une gouvernance politique inédite à deux têtes. Et d’esquisser d’éventuels points de fuite.

L’époque que nous produisons, rythmée par ses propres turbulences intestines, semble se caractériser par une crise générale des représentations institutionnelles : les sociétés occidentales se représentent comme des démocraties libérales où Privé et Public seraient, en théorie, dissociés. Or, c’est précisément cette représentation historique qui est aujourd’hui remise en cause. Une répartition nouvelle et inédite des nouvelles formes de pouvoir prend actuellement forme, matérialisée par l’apparition de deux Léviathans, l’un économique, l’autre sécuritaire, articulés autour d’un projet commun de surveillance transfigurant par là même la nature du Contrat Social.

I. CRISE DES REPRESENTATIONS INSTITUTIONNELLES ET EMERGENCE D’UNE DOUBLE GOUVERNANCE

En préambule, définissons la notion de “pouvoir” en partant de son sens foucaldien, c’est-à-dire comme étant une dynamique, un rapport de forces, au pluriel. Ainsi, tout rapport de forces est nécessairement un « rapport de pouvoir ». Nous pourrions même dire avec Foucault qu’une force est toujours en rapport avec une autre, ce qui la conduit à n’avoir aucun autre objet ni aucun autre sujet que la force elle-même. Toute force est alors déjà un rapport, et ainsi un « pouvoir ». Appliquée à l’ère numérique, l’accès mais aussi la capacité à exploiter et comprendre les big data représentent cette nouvelle forme de pouvoir. La capacité de les rendre transparentes ou invisibles, de les effacer ou de les revendiquer est au centre des relations de pouvoir. C’est autour de ce phénomène que toutes les luttes de pouvoir se concentrent (et se concentreront) et que la relation des surveillants, à savoir l’Etat et les Plateformes géantes (GAFAM) se dessine face aux surveillés.

Il est alors aisé d’observer une nouvelle forme de gouvernementalité se mettre en place où des plateformes privées géantes collaborent activement avec les services d’intelligence, les services d’ordre et l’armée, installant une intrication d’acteurs qui nourrissent et enregistrent les existences digitales des individus. Ces éléments ont été largement documentés par E. Snowden.

En dépit de postures et discours officiels en apparence divergents qui masqueraient des réalités inverses, ces deux entités se positionneraient en réalité sur un même continuum idéologique portées par une vision du monde cohérente, cristallisée autour d’une idéologie néolibérale où souveraineté fonctionnelle et souveraineté territoriale ne se confronteraient pas mais se compléteraient, où le « capitalisme de surveillance » tel que théorisé par la chercheuse Shoshana Zuboff irriguerait à la fois les intérêts publics et privés, où divertissement et punitif se mêlent, s’interpellent dans des liens d’interdépendance.

Partant de cette hypothèse initiale, les Plateformes auraient donc autant besoin de l’Etat que ce dernier d’elles. Du point de vue des plateformes, il apparait qu’au-delà de leur posture libertarienne souvent revendiquée, elles relèguent à l’Etat les tâches punitives et coercitives qu’elles ne souhaitent pas prendre en charge afin de ne pas entacher le vecteur principal de leur succès : la désirabilité. Comment maintenir le désir des utilisateurs de s’exposer si les plateformes numériques, pourvoyeuses de divertissement et de plaisir, se chargeaient dans le même temps d’infliger la punition ? Elles perdraient alors tout crédit. L’Etat, quant à lui, devenu sécuritaire libéral (G. Agamben, 2014, M. Foessel, 2016), a fondamentalement besoin de leurs infrastructures informationnelles qui monopolisent des quantités de données considérables sur les utilisateurs et ce, à échelle mondiale, formant un Datamonde où la tension initiale d’Internet qui voguait entre Liberté et Contrôle semble tendre de plus en plus vers une liberté fatalement rattrapée par un contrôle toujours plus élargi.

Le dernier avatar de cette clarification de périmètre serait symbolisé par l’étrange concept hybride d’Etat-Plateforme théorisé par les gourous de la Silicon Valley et qui consisterait à opérationnaliser progressivement le désengagement de l’Etat de ses prérogatives initiales d’Etat Social pour se replier vers ses fonctions purement régaliennes et en premier lieu sécuritaires. Ainsi, ce que l’Etat-Plateforme et la Start-Up Nation nous racontent de ce système politique en devenir est une clarification progressive des périmètres d’action entre Etat et Plateformes. L’Etat-Plateforme ne serait possiblement que l’étape transitoire vers ce nouvel ordre politique.

Nous basculerions alors d’un régime technocratique analogue ou l’Etat centralisait les décisions vers un régime technocratique numérique où les Plateformes organiseraient progressivement les équilibres sociaux sur les principes de l’offre marchande par l’instrument principal que sont les algorithmes nourris de nos métadonnées. L’Etat, quant à lui, se chargerait non pas de fabriquer des libertés par la Loi — comme autrefois pour le bon fonctionnement du marché libéral — mais de fabriquer, de concert avec les Plateformes, des enfermements nécessaires au capitalisme de surveillance, par le truchement des algorithmes.

Cette ultra-stabilité, pour paraphraser le cybernéticien britannique William R.Ashby, permise par la collecte systématisée des données, concourt à l’avènement de ce projet scientiste qui prend la forme de ce que la philosophe Antoinette Rouvroy nomme la gouvernementalité algorithmique. Une gouvernementalité immunisée contre toute forme d’altérité du réel.

Si bien qu’en lieu et place du brouillage des frontières institutionnelles décrit par B.E. Harcourt dans « Exposed », émergerait au contraire une double gouvernance où chaque gouvernant se spécialiserait sur un périmètre clairement défini : aux Plateformes l’économique, à l’Etat le sécuritaire faisant apparaitre deux Léviathans, transfigurant au passage le Contrat Social dont les termes initiaux « liberté contre sécurité » glissent sans grande résistance vers la formulation « liberté contre sécurité contre vie privée » articulée autour d’un régime de vérité contemporain qui pose comme postulat que plus nous possédons de données, plus nous nous rapprochons avec précision de la « vérité ».

II. LES ENFERMEMENTS ALGORITHMIQUES COMME DISPOSITIFS DE SURVEILLANCE GENERALISEE

A ce régime de vérité est assorti un discours dominant ultra-sécuritaire se plaçant sur une rhétorique de la peur, de la menace, des antagonismes. Légitimant la nature sécuritaire de l’Etat contemporain. Légitimant ainsi la collecte massive de données. Légitimant donc les dispositifs de surveillance généralisée qu’ils soient en réalité à des fins marchandes ou sécuritaires.

Pour répondre à la double insécurité consécutive à un Contrat Social devenu anti-démocratique et à l’obsession de ne pouvoir tout contrôler inhérente à ce nouveau régime de vérité, les surveillants (Etat et Plateformes) développeraient de nouvelles formes d’enfermements afin de faire advenir et maintenir une gouvernementalité algorithmique ultra-stabilisée, c’est-à-dire qui permettrait de gagner et de garder une emprise sur les surveillés, réduits aux données qu’ils produisent.

Si nous poussons le raisonnement dans son prolongement naturel, nous atteignons le point épistémologique final : la crainte qu’il n’y ait jamais assez de données, essentiellement personnelles. Or, à mesure que les gens cherchent à déjouer les techniques de surveillance, les techniques de collecte de données, toujours plus intrusives, se développent. Pour la chercheuse Kate Crawford, tel semble être le projet radical du Big Data. Et ces craintes se renforcent mutuellement, dans une boucle de rétroaction, devenant plus fortes à mesure qu’elles s’entraînent. Dès lors, des dispositifs d’enfermements spécifiques se mettent en place afin d’industrialiser les techniques de surveillance.

Le premier enfermement est d’ordre spatial. Pour Tim Berners-Lee, l’immensité d’Internet se rétrécirait progressivement autour de quelques enclosures qui enfermeraient les individus dans des pré-carrés numériques configurant ainsi un web sous contrôle, des « enclosures » qui tendent à renforcer leurs propres internalités alors que le web était fondé sur la capacité d’entretenir précisément des externalités, créant par conséquent des usages homophiles qui façonnent de nouvelles subjectivités, de nouvelles normes à intérioriser. De manière encore plus essentielle et plus déterminante, ces « walled gardens » qui n’étaient censés représenter qu’une partie d’Internet deviennent, par glissement sémantique, Internet lui-même. En effet, la représentation que nous avons d’internet, du web, des plateformes et des applications semble changer radicalement. Des millions de personnes dans le monde utilisent Facebook. Et dans le même temps, ces millions de personnes déclarent qu’elles n’utilisent pas internet. Google avait aussi réussi ce glissement sémantique consistant, de manière métonymique à devenir le synonyme de l’action « rechercher sur le web » par le verbe « To google ». Facebook et Google sont en train de réussir un hold-up sémantique très ambitieux : devenir la métonymie d’internet dans son ensemble. Ainsi, ces plateformes enferment les utilisateurs dans des pré-carrés numériques contraints, parfaitement balisés ou nous produisons, à leur compte, quantité de données personnelles dans un flux illimité.

En somme les Plateformes seraient en réalité autant de milieux clos invisibilisés où le contrôle est d’autant plus aisé à mettre en place et à automatiser. Paradoxalement, les walled gardens qui faciliteraient la surveillance en alimenteraient l’inflation dans un monde virtuel algorithmisé où pour mieux s’immuniser tout le monde serait coupable par défaut, l’inocuité parfaite étant par définition indémontrable.

Le second enfermement, purement algorithmique, prend une dimension particulièrement critique lorsque l’Etat lui-même prend en charge l’automatisation de ses services publics. Partant de ses observations terrain, la chercheuse Virginia Eubanks démontre que les plus démunis constituent les cibles prioritaires d’algorithmes d’aides sociales biaisés, reproduisant les inégalités. Des hospices de la fin du XVIIIe siècle nous serions passés d’après elle à des hospices numériques invisibles. Allant une fois de plus dans le sens d’un enfermement invisible ou certaines catégories seraient bloquées dans les limbes algorithmiques des surveillants, condamnés à ne pouvoir en sortir. Avant une généralisation de ces automatisations figeantes, ces populations seraient les cobayes de cette gouvernementalité algorithmique totalement désincarnée, immunisée contre toute forme de réel. Cette gouvernementalité pose d’autant plus question que la mathématicienne Cathy O’Neil démontre que les arbitrages d’encodage reflètent les biais, priorités et préoccupations de leurs concepteurs. La neutralité de la prédictivité est d’autant moins assurée quand nombre de variables sont subjectives. Autrement dit, les algorithmes sont loin d’être neutres et objectifs : ils ne seraient rien d’autre que des opinions formalisées dans du code.

Incluons évidemment dans notre périmètre de réflexion les effets de la police et de la justice prédictive basée sur des algorithmes et des calculs de dangerosité qui participent strictement de la même logique. Par exemple, l’arrivée en France du logiciel Predpol a fait couler beaucoup d’encre incluant des modalités de surveillance de la population : discrimination, racisme, ségrégation semblent surtout demeurer les principales sources de soupçon. Plus récemment encore, nous pourrions faire référence à la validation par le Conseil d’Etat du du méga-fichier TES.

Les recours peuvent par ailleurs se révéler compliqués. L’essayiste Adam Clair dresse une intéressante comparaison entre algorithme et bureaucratie. En effet, les algorithmes sont paradoxaux : « ils sont conçus pour améliorer la prise de décision humaine en supprimant supposément ses biais et ses limites, mais les protocoles analytiques inévitablement réducteurs qu’ils mettent en œuvre se révèlent surtout vulnérables à des formes d’utilisation abusive ». Si les bureaucraties et les algorithmes savent s’engager sur la voie de la transparence — avec des règles qui sont censées être claires, formulées uniformément et accessibles à tous, ce qui est plus vrai en théorie qu’en pratique -, ils légitiment l’un comme l’autre leur opacité pour conserver leur fonctionnalité. Par nature, la bureaucratie tend à exclure le public, à cacher ses connaissances et son action, lui permettant de devenir toujours plus insensible aux critiques. L’individu se retrouve alors démuni face à un calcul, surtout quand il s’agit d’expliquer qu’il est faux ou qu’il a été mal calculé. Or dans une société capitaliste, le désir de supprimer les préjugés humains des processus décisionnels fait partie intrinsèque de la recherche globale d’efficacité, d’optimisation, de rationalisation décrite par Max Weber. A sa suite, nous pourrions décrire cette gouvernementalité algorithmique comme une « cage de fer », une puissance emprisonnante et incapacitante.

En définitive, les algorithmes seraient des « matchmakers » qui produisent des appariements, génèrent du fonctionnement. Ils s’affranchissent du monde, du réel, de ses altérités tout en proposant une manière machinique, automatique, déshumanisée de le faire fonctionner. Derrière leurs biais réductionnistes, ce qui semble en jeu est une dépolitisation progressive, une image d’un monde parfaitement sous contrôle car parfaitement réduit à des arbres de décision, s’auto-validant dans d’infinies boucles de rétroaction. Le monde, algorithmisé, se reproduit sans n’avoir plus besoin du « vivant ». Le plus préoccupant dans cette dépolitisation est la dissimulation du pouvoir des surveillants. Ils nous présentent un monde systématisé, non pas a-politique mais où le pouvoir est invisibilisé, ne se met plus en scène, supprime donc toute possibilité de débats démocratiques inclusifs, contourne les rapports de forces. Les individus sont réduits à des « dividuels » pour reprendre l’expression deleuzienne. L’arbitraire des algorithmes, donc des Léviathans fait Foi et non plus Loi.

III. DE LA QUESTION DE L’AUTONOMIE COLLECTIVE ET D’UN CONTRAT SOCIAL RENOUVELE

Dans ce contexte, la question de la surveillance n’est alors pas tant une question de captation de données, de privacy que de contrôle, d’autodétermination, d’autonomie. Face à ce glissement progressif de l’Etat de droit vers un Etat ultra-sécuritaire, nous avons besoin de retrouver notre condition de sujet, nous repolitiser collectivement.

La notion de « collectif » apparait ici fondamentale car prenant le contre-pied de la doxa ultra-libérale dominante. En effet, certains philosophes invoquent parfois une désobéissance civile (B.E. Harcourt, 2015, F. Gros, 2017) où chacun serait censé retrouver une éthique de soi, une « Parrésia » individuelle. Sur un plan plus pragmatique, l’Union Européenne a promulgué le règlement de protection des données personnelles (RGPD), qui donne la possibilité à l’individu d’accepter ou refuser explicitement l’exploitation de ses données. Le think-tank libéral Génération Libre a tenté d’introduire dans le débat public l’idée du droit pour chacun de vendre ses données personnelles. Or, la lacune commune de tous ces raisonnements réside dans le fait qu’ils participent tous de cette même logique néolibérale qui consiste à faire porter sur l’individu seul la responsabilité du changement (nous retrouvons d’ailleurs cette même rhétorique dans d’autres domaines et sur d’autres enjeux comme l’écologie par exemple où il appartiendrait à chacun dans ses gestes du quotidien de maitriser ses usages). En ce qui concerne plus précisément la question de la patrimonialité de nos données, comment vendre ses données propres sans violer la vie privée et les informations personnelles de notre entourage (amis, familles, collègues, etc) ? Pour rester fidèle à la maxime minimaliste libérale, la liberté de l’un ne s’arrête-t-elle précisément pas là où celle de l’autre commence ? Il est impossible de dépasser la contradiction intestine de cette proposition, la rendant donc caduque.

Paradoxalement, la prise en charge individuelle semble de plus en plus compliquée à faire advenir dans des sociétés ultralibérales qui réduisent les individus à ce que Christopher Lasch appelait leur « moi minimal ». Dans ces « sociétés de survie », les sujets se retrouvent avec un « moi » érodé, incapable de faire lien, pris au piège de l’ultra-concurrence. Dès lors ils n’ont plus ni la capacité, ni la volonté, ni même le désir de la fraternité ou de la solidarité. Ils survivent. Par ailleurs, la prolifération de contrats individuels, notamment entre utilisateur et Plateforme transforme cette survie en ce qu’Alain Supiot décrit comme des liens d’allégeance, par nature dissymétriques : les CGU au détriment de la Loi.

Par ailleurs, la seconde lacune des raisonnements qui ont cours actuellement est l’obsession — maladive ? — de régulation des plateformes tout en omettant systématiquement le rôle de l’Etat dans ces mêmes collectes et exploitations des données.

Pour ouvrir davantage le champ de la réflexion, nous pourrions nous intéresser à des pistes de réponses qui permettraient ultimement de réactiver une « récalcitrance » émancipatrice collective. Plus concrètement, il nous faudra redéfinir ensemble la nature d’un Contrat Social renouvelé autour de la notion de privacy mais aussi d’auditabilité des boites noires algorithmiques qui concernent à la fois Etat et Plateformes.

C’est en partie dans ce sens que Lionel Maurel et Laura Aufrère militent dans leur proposition « Pour une protection sociale des données personnelles » pour une protection de la donnée adossée aux outils et textes juridiques existants. Ils soutiennent en substance qu’il s’agit « d’une part d’appréhender la vie privée dans sa dimension numérique en dépassant l’enjeu technique de la production des données pour reconsidérer la problématique comme un moment de construction historique de la notion de vie privée, attaché aux droits humains et à la dignité des personnes. Le débat citoyen s’impose alors comme une continuité cohérente des droits citoyens et des droits humains garantis collectivement, qui régulent déjà l’espace privé ».

Mais, si nous suivons notre hypothèse initiale d’un Etat Social réduit à sa version strictement minimale, c’est-à-dire un Etat qui détricote progressivement les instances de solidarités collectives, alors comment s’adosser à une réalité juridique qui, du point de vue des surveillants, appartient déjà au passé ?

C’est probablement la mission de l’Etat lui-même qui doit être repensé autour d’un Contrat Social renégocié collectivement ou a minima amendé de nouveaux concepts contemporains. Les questions que nous pourrions alors nous poser seraient : comment penser un Etat nouveau pour faire vivre une éthique, une justice et une relationnalité sociale plus vivable, plus émancipatrice ? Quelles sont les limites et les impensés des dispositifs actuels ? Comment échapper aux impasses du système tels qu’ils existent pour concevoir une prise en charge plus démocratique, donc plus artificielle ? En bref, comment activer une dynamique démocratique donnant au collectif civil des outils de négociation politique ?

Asma MHALLA

Standard