L’objectif
de cette réflexion est de tenter d’appréhender la redistribution des
nouvelles formes de pouvoir à l’ère numérique autour d’une gouvernance
politique inédite à deux têtes. Et d’esquisser d’éventuels points de
fuite.
L’époque
que nous produisons, rythmée par ses propres turbulences intestines,
semble se caractériser par une crise générale des représentations
institutionnelles : les sociétés occidentales se représentent comme des
démocraties libérales où Privé et Public seraient, en théorie,
dissociés. Or, c’est précisément cette représentation historique qui est
aujourd’hui remise en cause. Une répartition nouvelle et inédite des
nouvelles formes de pouvoir prend actuellement forme, matérialisée par
l’apparition de deux Léviathans, l’un économique, l’autre sécuritaire,
articulés autour d’un projet commun de surveillance transfigurant par là
même la nature du Contrat Social.
I. CRISE DES REPRESENTATIONS INSTITUTIONNELLES ET EMERGENCE D’UNE DOUBLE GOUVERNANCE
En
préambule, définissons la notion de “pouvoir” en partant de son sens
foucaldien, c’est-à-dire comme étant une dynamique, un rapport de
forces, au pluriel. Ainsi, tout rapport de forces est nécessairement un
« rapport de pouvoir ». Nous pourrions même dire avec Foucault qu’une
force est toujours en rapport avec une autre, ce qui la conduit à
n’avoir aucun autre objet ni aucun autre sujet que la force elle-même.
Toute force est alors déjà un rapport, et ainsi un « pouvoir ».
Appliquée à l’ère numérique, l’accès mais aussi la capacité à exploiter
et comprendre les big data
représentent cette nouvelle forme de pouvoir. La capacité de les rendre
transparentes ou invisibles, de les effacer ou de les revendiquer est au
centre des relations de pouvoir. C’est autour de ce phénomène que
toutes les luttes de pouvoir se concentrent (et se concentreront) et que
la relation des surveillants, à savoir l’Etat et les Plateformes
géantes (GAFAM) se dessine face aux surveillés.
Il
est alors aisé d’observer une nouvelle forme de gouvernementalité se
mettre en place où des plateformes privées géantes collaborent
activement avec les services d’intelligence, les services d’ordre et
l’armée, installant une intrication d’acteurs qui nourrissent et
enregistrent les existences digitales des individus. Ces éléments ont
été largement documentés par E. Snowden.
En
dépit de postures et discours officiels en apparence divergents qui
masqueraient des réalités inverses, ces deux entités se positionneraient
en réalité sur un même continuum idéologique portées par une vision du
monde cohérente, cristallisée autour d’une idéologie néolibérale où
souveraineté fonctionnelle et souveraineté territoriale ne se
confronteraient pas mais se compléteraient, où le « capitalisme de surveillance »
tel que théorisé par la chercheuse Shoshana Zuboff irriguerait à la
fois les intérêts publics et privés, où divertissement et punitif se
mêlent, s’interpellent dans des liens d’interdépendance.
Partant
de cette hypothèse initiale, les Plateformes auraient donc autant
besoin de l’Etat que ce dernier d’elles. Du point de vue des
plateformes, il apparait qu’au-delà de leur posture libertarienne
souvent revendiquée, elles relèguent à l’Etat les tâches punitives et
coercitives qu’elles ne souhaitent pas prendre en charge afin de ne pas
entacher le vecteur principal de leur succès : la désirabilité. Comment
maintenir le désir des utilisateurs de s’exposer si les plateformes
numériques, pourvoyeuses de divertissement et de plaisir, se chargeaient
dans le même temps d’infliger la punition ? Elles perdraient alors tout
crédit. L’Etat, quant à lui, devenu sécuritaire libéral (G. Agamben,
2014, M. Foessel, 2016), a fondamentalement besoin de leurs
infrastructures informationnelles qui monopolisent des quantités de
données considérables sur les utilisateurs et ce, à échelle mondiale,
formant un Datamonde où la tension initiale d’Internet qui voguait entre
Liberté et Contrôle semble tendre de plus en plus vers une liberté
fatalement rattrapée par un contrôle toujours plus élargi.
Le dernier avatar de cette clarification de périmètre serait symbolisé par l’étrange concept hybride d’Etat-Plateforme théorisé
par les gourous de la Silicon Valley et qui consisterait à
opérationnaliser progressivement le désengagement de l’Etat de ses
prérogatives initiales d’Etat Social pour se replier vers ses fonctions
purement régaliennes et en premier lieu sécuritaires. Ainsi, ce que l’Etat-Plateforme et la Start-Up Nation
nous racontent de ce système politique en devenir est une clarification
progressive des périmètres d’action entre Etat et Plateformes. L’Etat-Plateforme ne serait possiblement que l’étape transitoire vers ce nouvel ordre politique.
Nous
basculerions alors d’un régime technocratique analogue ou l’Etat
centralisait les décisions vers un régime technocratique numérique où
les Plateformes organiseraient progressivement les équilibres sociaux
sur les principes de l’offre marchande par l’instrument principal que
sont les algorithmes nourris de nos métadonnées. L’Etat, quant à lui, se
chargerait non pas de fabriquer des libertés par la Loi — comme
autrefois pour le bon fonctionnement du marché libéral — mais de
fabriquer, de concert avec les Plateformes, des enfermements nécessaires
au capitalisme de surveillance, par le truchement des algorithmes.
Cette
ultra-stabilité, pour paraphraser le cybernéticien britannique William
R.Ashby, permise par la collecte systématisée des données, concourt à
l’avènement de ce projet scientiste qui prend la forme de ce que la
philosophe Antoinette Rouvroy nomme la gouvernementalité algorithmique. Une gouvernementalité immunisée contre toute forme d’altérité du réel.
Si bien qu’en lieu et place du brouillage des frontières institutionnelles décrit par B.E. Harcourt dans « Exposed »,
émergerait au contraire une double gouvernance où chaque gouvernant se
spécialiserait sur un périmètre clairement défini : aux Plateformes
l’économique, à l’Etat le sécuritaire faisant apparaitre deux
Léviathans, transfigurant au passage le Contrat Social dont les termes
initiaux « liberté contre sécurité » glissent sans grande résistance
vers la formulation « liberté contre sécurité contre vie privée »
articulée autour d’un régime de vérité contemporain qui pose comme
postulat que plus nous possédons de données, plus nous nous rapprochons
avec précision de la « vérité ».
II. LES ENFERMEMENTS ALGORITHMIQUES COMME DISPOSITIFS DE SURVEILLANCE GENERALISEE
A
ce régime de vérité est assorti un discours dominant ultra-sécuritaire
se plaçant sur une rhétorique de la peur, de la menace, des
antagonismes. Légitimant la nature sécuritaire de l’Etat contemporain.
Légitimant ainsi la collecte massive de données. Légitimant donc les
dispositifs de surveillance généralisée qu’ils soient en réalité à des
fins marchandes ou sécuritaires.
Pour
répondre à la double insécurité consécutive à un Contrat Social devenu
anti-démocratique et à l’obsession de ne pouvoir tout contrôler
inhérente à ce nouveau régime de vérité, les surveillants (Etat et
Plateformes) développeraient de nouvelles formes d’enfermements afin de
faire advenir et maintenir une gouvernementalité algorithmique
ultra-stabilisée, c’est-à-dire qui permettrait de gagner et de garder
une emprise sur les surveillés, réduits aux données qu’ils produisent.
Si
nous poussons le raisonnement dans son prolongement naturel, nous
atteignons le point épistémologique final : la crainte qu’il n’y ait
jamais assez de données, essentiellement personnelles. Or, à mesure que
les gens cherchent à déjouer les techniques de surveillance, les
techniques de collecte de données, toujours plus intrusives, se
développent. Pour la chercheuse Kate Crawford, tel semble être le projet
radical du Big Data. Et ces craintes se renforcent mutuellement, dans
une boucle de rétroaction, devenant plus fortes à mesure qu’elles
s’entraînent. Dès lors, des dispositifs d’enfermements spécifiques se
mettent en place afin d’industrialiser les techniques de surveillance.
Le
premier enfermement est d’ordre spatial. Pour Tim Berners-Lee,
l’immensité d’Internet se rétrécirait progressivement autour de quelques
enclosures qui enfermeraient les individus dans des pré-carrés
numériques configurant ainsi un web sous contrôle, des « enclosures »
qui tendent à renforcer leurs propres internalités alors que le web
était fondé sur la capacité d’entretenir précisément des externalités,
créant par conséquent des usages homophiles qui façonnent de nouvelles
subjectivités, de nouvelles normes à intérioriser. De manière encore
plus essentielle et plus déterminante, ces « walled gardens » qui
n’étaient censés représenter qu’une partie d’Internet deviennent, par
glissement sémantique, Internet lui-même. En effet, la représentation
que nous avons d’internet, du web, des plateformes et des applications
semble changer radicalement. Des millions de personnes dans le monde
utilisent Facebook. Et dans le même temps, ces millions de personnes
déclarent qu’elles n’utilisent pas internet.
Google avait aussi réussi ce glissement sémantique consistant, de
manière métonymique à devenir le synonyme de l’action « rechercher sur
le web » par le verbe « To google ». Facebook et Google sont en train de
réussir un hold-up sémantique très ambitieux : devenir la métonymie
d’internet dans son ensemble. Ainsi, ces plateformes enferment les
utilisateurs dans des pré-carrés numériques contraints, parfaitement
balisés ou nous produisons, à leur compte, quantité de données
personnelles dans un flux illimité.
En
somme les Plateformes seraient en réalité autant de milieux clos
invisibilisés où le contrôle est d’autant plus aisé à mettre en place et
à automatiser. Paradoxalement, les walled gardens
qui faciliteraient la surveillance en alimenteraient l’inflation dans
un monde virtuel algorithmisé où pour mieux s’immuniser tout le monde
serait coupable par défaut, l’inocuité parfaite étant par définition
indémontrable.
Le
second enfermement, purement algorithmique, prend une dimension
particulièrement critique lorsque l’Etat lui-même prend en charge
l’automatisation de ses services publics. Partant de ses observations
terrain, la chercheuse Virginia Eubanks démontre que les plus démunis
constituent les cibles prioritaires d’algorithmes d’aides sociales
biaisés, reproduisant les inégalités. Des hospices de la fin du XVIIIe
siècle nous serions passés d’après elle à des hospices numériques
invisibles. Allant une fois de plus dans le sens d’un enfermement
invisible ou certaines catégories seraient bloquées dans les limbes
algorithmiques des surveillants, condamnés à ne pouvoir en sortir. Avant
une généralisation de ces automatisations figeantes, ces populations
seraient les cobayes de cette gouvernementalité algorithmique totalement
désincarnée, immunisée contre toute forme de réel. Cette
gouvernementalité pose d’autant plus question que la mathématicienne
Cathy O’Neil démontre que les arbitrages d’encodage reflètent les biais,
priorités et préoccupations de leurs concepteurs. La neutralité de la
prédictivité est d’autant moins assurée quand nombre de variables sont
subjectives. Autrement dit, les algorithmes sont loin d’être neutres et
objectifs : ils ne seraient rien d’autre que des opinions formalisées
dans du code.
Incluons
évidemment dans notre périmètre de réflexion les effets de la police et
de la justice prédictive basée sur des algorithmes et des calculs de
dangerosité qui participent strictement de la même logique. Par exemple,
l’arrivée en France du logiciel Predpol a fait couler beaucoup d’encre
incluant des modalités de surveillance de la population :
discrimination, racisme, ségrégation semblent surtout demeurer les
principales sources de soupçon. Plus récemment encore, nous pourrions
faire référence à la validation par le Conseil d’Etat du du méga-fichier
TES.
Les
recours peuvent par ailleurs se révéler compliqués. L’essayiste Adam
Clair dresse une intéressante comparaison entre algorithme et
bureaucratie. En effet, les algorithmes sont paradoxaux : « ils
sont conçus pour améliorer la prise de décision humaine en supprimant
supposément ses biais et ses limites, mais les protocoles analytiques
inévitablement réducteurs qu’ils mettent en œuvre se révèlent surtout
vulnérables à des formes d’utilisation abusive ». Si les
bureaucraties et les algorithmes savent s’engager sur la voie de la
transparence — avec des règles qui sont censées être claires, formulées
uniformément et accessibles à tous, ce qui est plus vrai en théorie
qu’en pratique -, ils légitiment l’un comme l’autre leur opacité pour
conserver leur fonctionnalité. Par nature, la bureaucratie tend à
exclure le public, à cacher ses connaissances et son action, lui
permettant de devenir toujours plus insensible aux critiques. L’individu
se retrouve alors démuni face à un calcul, surtout quand il s’agit
d’expliquer qu’il est faux ou qu’il a été mal calculé. Or dans une
société capitaliste, le désir de supprimer les préjugés humains des
processus décisionnels fait partie intrinsèque de la recherche globale
d’efficacité, d’optimisation, de rationalisation décrite par Max Weber. A
sa suite, nous pourrions décrire cette gouvernementalité algorithmique
comme une « cage de fer », une puissance emprisonnante et incapacitante.
En définitive, les algorithmes seraient des « matchmakers »
qui produisent des appariements, génèrent du fonctionnement. Ils
s’affranchissent du monde, du réel, de ses altérités tout en proposant
une manière machinique, automatique, déshumanisée de le faire
fonctionner. Derrière leurs biais réductionnistes, ce qui semble en jeu
est une dépolitisation progressive, une image d’un monde parfaitement
sous contrôle car parfaitement réduit à des arbres de décision,
s’auto-validant dans d’infinies boucles de rétroaction. Le monde,
algorithmisé, se reproduit sans n’avoir plus besoin du « vivant ». Le
plus préoccupant dans cette dépolitisation est la dissimulation du
pouvoir des surveillants. Ils nous
présentent un monde systématisé, non pas a-politique mais où le pouvoir
est invisibilisé, ne se met plus en scène, supprime donc toute
possibilité de débats démocratiques inclusifs, contourne les rapports de
forces. Les individus sont réduits à des « dividuels » pour reprendre
l’expression deleuzienne. L’arbitraire des algorithmes, donc des
Léviathans fait Foi et non plus Loi.
III. DE LA QUESTION DE L’AUTONOMIE COLLECTIVE ET D’UN CONTRAT SOCIAL RENOUVELE
Dans ce contexte, la question de la surveillance n’est alors pas tant une question de captation de données, de privacy
que de contrôle, d’autodétermination, d’autonomie. Face à ce glissement
progressif de l’Etat de droit vers un Etat ultra-sécuritaire, nous
avons besoin de retrouver notre condition de sujet, nous repolitiser
collectivement.
La
notion de « collectif » apparait ici fondamentale car prenant le
contre-pied de la doxa ultra-libérale dominante. En effet, certains
philosophes invoquent parfois une désobéissance civile (B.E. Harcourt,
2015, F. Gros, 2017) où chacun serait censé retrouver une éthique de
soi, une « Parrésia » individuelle. Sur un plan plus pragmatique,
l’Union Européenne a promulgué le règlement de protection des données
personnelles (RGPD), qui donne la possibilité à l’individu d’accepter ou
refuser explicitement l’exploitation de ses données. Le think-tank
libéral Génération Libre a tenté d’introduire dans le débat public
l’idée du droit pour chacun de vendre ses données personnelles. Or, la
lacune commune de tous ces raisonnements réside dans le fait qu’ils
participent tous de cette même logique néolibérale qui consiste à faire
porter sur l’individu seul la responsabilité du changement (nous
retrouvons d’ailleurs cette même rhétorique dans d’autres domaines et
sur d’autres enjeux comme l’écologie par exemple où il appartiendrait à
chacun dans ses gestes du quotidien de maitriser ses usages). En ce qui
concerne plus précisément la question de la patrimonialité de nos
données, comment vendre ses données propres sans violer la vie privée et
les informations personnelles de notre entourage (amis, familles,
collègues, etc) ? Pour rester fidèle à la maxime minimaliste libérale,
la liberté de l’un ne s’arrête-t-elle précisément pas là où celle de
l’autre commence ? Il est impossible de dépasser la contradiction
intestine de cette proposition, la rendant donc caduque.
Paradoxalement,
la prise en charge individuelle semble de plus en plus compliquée à
faire advenir dans des sociétés ultralibérales qui réduisent les
individus à ce que Christopher Lasch appelait leur « moi minimal ». Dans ces « sociétés de survie »,
les sujets se retrouvent avec un « moi » érodé, incapable de faire
lien, pris au piège de l’ultra-concurrence. Dès lors ils n’ont plus ni
la capacité, ni la volonté, ni même le désir de la fraternité ou de la
solidarité. Ils survivent. Par ailleurs, la prolifération de contrats
individuels, notamment entre utilisateur et Plateforme transforme cette
survie en ce qu’Alain Supiot décrit comme des liens d’allégeance, par
nature dissymétriques : les CGU au détriment de la Loi.
Par
ailleurs, la seconde lacune des raisonnements qui ont cours
actuellement est l’obsession — maladive ? — de régulation des
plateformes tout en omettant systématiquement le rôle de l’Etat dans ces
mêmes collectes et exploitations des données.
Pour
ouvrir davantage le champ de la réflexion, nous pourrions nous
intéresser à des pistes de réponses qui permettraient ultimement de
réactiver une « récalcitrance » émancipatrice collective. Plus
concrètement, il nous faudra redéfinir ensemble la nature d’un Contrat
Social renouvelé autour de la notion de privacy mais aussi d’auditabilité des boites noires algorithmiques qui concernent à la fois Etat et Plateformes.
C’est en partie dans ce sens que Lionel Maurel et Laura Aufrère militent dans leur proposition « Pour une protection sociale des données personnelles »
pour une protection de la donnée adossée aux outils et textes
juridiques existants. Ils soutiennent en substance qu’il s’agit « d’une
part d’appréhender la vie privée dans sa dimension numérique en
dépassant l’enjeu technique de la production des données pour
reconsidérer la problématique comme un moment de construction historique
de la notion de vie privée, attaché aux droits humains et à la dignité
des personnes. Le débat citoyen s’impose alors comme une continuité
cohérente des droits citoyens et des droits humains garantis
collectivement, qui régulent déjà l’espace privé ».
Mais,
si nous suivons notre hypothèse initiale d’un Etat Social réduit à sa
version strictement minimale, c’est-à-dire un Etat qui détricote
progressivement les instances de solidarités collectives, alors comment
s’adosser à une réalité juridique qui, du point de vue des surveillants,
appartient déjà au passé ?
C’est
probablement la mission de l’Etat lui-même qui doit être repensé autour
d’un Contrat Social renégocié collectivement ou a minima amendé de
nouveaux concepts contemporains. Les questions que nous pourrions alors
nous poser seraient : comment penser un Etat nouveau pour faire vivre
une éthique, une justice et une relationnalité sociale plus vivable,
plus émancipatrice ? Quelles sont les limites et les impensés des
dispositifs actuels ? Comment échapper aux impasses du système tels
qu’ils existent pour concevoir une prise en charge plus démocratique,
donc plus artificielle ? En bref, comment activer une dynamique
démocratique donnant au collectif civil des outils de négociation
politique ?
Asma MHALLA