Mouvement contre le Racisme
et pour l’Amitié entre les Peuples

Comité local de Nanterre, 27 rue Sadi Carnot, 92000 Nanterre
06 31 82 20 85 nanterre@mrap.fr

Accueil > DONNÉES ET ANALYSES > Le Monde 11 février 2023 Thomas Dumortier "La tentation d’un modèle de (...)

Le Monde 11 février 2023 Thomas Dumortier "La tentation d’un modèle de surveillance automatisée devrait faire réfléchir nos concitoyens"

dimanche 12 février 2023

Rubrique : DONNÉES ET ANALYSES

Dans Le Monde, le 11 février 2023, article de Thomas Dumortier, conseiller juridique à la CNCDH (Commission Nationale Consultative des Droits de l’Homme), titré :

JO de Paris 2024 : "La tentation d’un modèle de surveillance automatisée devrait faire réfléchir nos concitoyens"

Ci-joint et (pour les abonnés) :

https://www.lemonde.fr/idees/article/2023/02/11/jo-de-paris-2024-la-tentation-d-un-modele-de-societe-de-surveillance-automatisee-devrait-faire-reagir-nos-concitoyens_6161404_3232.html

En voici :

 le préambule :

Les députés doivent examiner, début mars, un projet de loi relatif aux Jeux olympiques et paralympiques de 2024, qui, parmi d’autres mesures, autorisera, à titre expérimental, l’utilisation de la vidéosurveillance automatisée pour la sécurité de manifestations sportives, récréatives ou culturelles.

 un extrait, qui met en évidence un danger inhérent aux logiciels de surveillance automatisée, auquel ne peuvent qu’être sensibles les militants contre le racisme :

Son fonctionnement repose sur un modèle mathématique obtenu au terme d’un « apprentissage » pratiqué par des salariés de l’entreprise qui commercialise le logiciel.
Pour parvenir à ce modèle, on utilise un nombre considérable de données étiquetées, annotées : pour faire bref, à partir de bases de données préexistantes, des êtres humains livrent à la machine des images d’événements, de comportements, qu’ils qualifient de « suspects », d’« anormaux », notions éminemment subjectives. Le choix des images collectées et la qualification retenue dépendront par conséquent de la décision des personnes en charge de l’annotation.
Des biais discriminatoires peuvent ainsi intégrer la conception du système, par exemple en ciblant des regroupements de personnes présentant un certain profil.

 la conclusion :

La rhétorique enthousiaste et confiante d’une intelligence artificielle au service de la sécurité publique, en grande partie axée autour des performances de la machine et du contrôle par un agent humain, a décidément de quoi contrarier l’intelligence humaine et nos libertés.

Cette analyse renvoie, plus généralement, à des études sur "les sociétés du profilage".

A ce sujet le philosophe Philippe Huneman vient de publier :

Les Sociétés du profilage. Evaluer, optimiser, prédire , Payot, janvier 2023,

ouvrage qu’il a présenté dans :

https://www.nonfiction.fr/article-11623-les-societes-du-profilage-entretien-avec-philippe-huneman.htm

Il s’exprime sur le point des caméras de surveillance automatisée dans un article paru dans Libération le 1er février, titré Penser comme une caméra ?. Ci -joint et (pour les abonnés)

https://www.liberation.fr/idees-et-debats/tribunes/penser-comme-une-camera-20230201_XZS2H4TFG5GQXD3RRPQS3NP4F4/

En voici la conclusion :

Les caméras intelligentes et la police prédictive en général relèvent de la même logique retorse, elles qui sont l’avant-garde des sociétés du profilage propres au capitalisme financier, globalisé et digitalisé.

Car si le profilage parfois échoue – pensez aux mauvaises recommandations Netflix ou Amazon, plans Tinder foireux, etc. – il réussit assez souvent non pas à prédire vraiment ce que fera une personne, mais à infléchir assez efficacement son comportement. Ainsi, la firme Cambridge Analytica transforma en électeurs pro-Brexit ceux dont elle avait pu calculer sur leur profil Facebook (volé) qu’ils étaient susceptibles de réagir de telle et telle manière aux stimuli appropriés. On imagine à quel point ces capacités d’infléchissement des conduites seraient accrues si les données et les conclusions de ces caméras intelligentes devenaient par un probable accident disponibles à tout usage gouvernemental ou privé.

Mais avant cela, nos caméras augmentées auront suscité par leur existence même le sentiment d’une omniprésence de l’Etat, de sa possible mainmise sur chacun quoi qu’on ait fait, d’un ersatz de sens civique qui sera au fond la peur.