CAIRN.INFO : Matières à réflexion

1Quel sens accorder à la promesse « de prédire où et quand les crimes sont susceptibles d’avoir lieu » ? Comment les entreprises privées qui commercialisent des Software as a Service (SaaS) auprès de l’administration policière, sous la forme de cartographie prédictive et de tableau de bord analytique se représentent-elles l’action publique de sécurité ? À quoi rêvent les développeurs des machines à prédire le crime (Cardon, 2015) ? Dans cet article, nous proposons de répondre à ces questions en rentrant dans le contenu des applications numériques de la police prédictive. Les machines prédictives sont des technologies morales de gouvernement. Elles servent non seulement à prédire où et quand les crimes sont susceptibles d’avoir lieu, mais aussi et surtout à orienter, superviser et réguler le travail de la police. Elles calculent des rapports d’équivalence, en distribuant de la sécurité sur le territoire, selon de multiples critères de coûts et de justice sociale. Prédire le crime, c’est gérer les ressources policières et, dans le même temps, cadrer l’activité des agents de police dans la perspective de doser la quantité de sécurité optimale dans l’espace et le temps.

2Pour comprendre le développement du predictive policing, il faut le situer dans le mouvement de réformes aux États-Unis visant à rendre la police plus proactive et vigilante que réactive et urgentiste – une police plus engagée dans la production de la sécurité que dans la répression des criminels. À partir des années 1980-1990, des nouveaux modèles de la police ont été imaginés dans ce sens. Plusieurs travaux de recherche, en collaboration avec des polices locales, ont expérimenté des nouvelles stratégies de lutte contre la délinquance : le community policing (Skogan et Hartnett, 1999), le hot spot policing (Eck et Weisburd, 1995), le problem-oriented policing (Goldstein, 2015) et l’intelligence-led policing (Ratcliffe, 2016) sont les innovations policières (Weisburd et Braga, 2006) les plus célèbres de l’histoire de la réforme des polices américaines de ces trente dernières années – le predictive policing (Perry, 2013) s’inscrit dans la continuité de ces catégories ou « labels » de l’action policière.

3Dans ce mouvement réformateur figure une autre catégorie, qui occupe un statut particulier : le Compstat, imaginé et déployé à New York dans les années 1990 par le chef de la police, William Bratton (Bratton et Knobler, 2009). Selon cette doctrine directement inspirée du New Public Management, pour rendre la police proactive, il faut intervenir sur le plan de l’organisation du travail. L’idée est de responsabiliser tous les échelons de l’organisation policière, en particulier les échelons les plus proches des problèmes de sécurité, au niveau des responsables de precincts (équivalent d’un commissariat) à qui il est demandé de rendre des comptes (accountability), c’est-à-dire de rendre compte systématiquement des résultats du travail de chacun des agents sur leur territoire. En pratique, la méthode repose sur des réunions hebdomadaires, les Compstat meetings, appelées aussi de manière plus explicite les Crime Control Strategy Meetings, soutenus par un système informatisé d’enregistrement des données, le Compstat System (la contraction de la formule Computerized Statistics) et lors desquelles les stratégies mises en œuvre au niveau des precincts sont évaluées en rapport aux tendances du crime qui leur sont associées (Silverman, 1999).

4En France, les sociologues qui ont observé les mises en œuvre du Compstat à Paris se sont essentiellement concentrés sur les usages et les effets des indicateurs de performance utilisés, lors de ces réunions, comme des outils de motivations des policiers (Purenne et Aust, 2010 ; Didier, 2011). Dans ce type de recherche, le Compstat apparaît comme un dispositif de quantification des performances dans un souci de mise en compétition des individus. À New York, au niveau des postes de police, par exemple, les commandants sont mis en compétition pour atteindre les meilleurs résultats (nombre d’arrestations, taux d’élucidation des crimes, diminution du sentiment d’insécurité des citoyens…). Ainsi, ces indicateurs placent le policier comme un producteur de sécurité que l’on responsabilise par des techniques d’encouragement à faire mieux que les autres à partir d’objectifs chiffrés (Eterno et Silverman, 2012). Emmanuel Didier décrit le Compstat comme un système d’incitation au travail, par une mise en concurrence des policiers, opérée par un classement (ranking) selon leur performance (Didier, 2011 ; Bruno et Didier, 2015). L’intériorisation et la subjectivation de cette performance assignée rétroagiraient sur les policiers quantifiés. Ainsi, ces indicateurs de performance auraient le pouvoir de conduire indirectement la conduite des policiers par des procédés indirects d’intériorisation et de subjectivation des indicateurs de résultats (Desrosières, 2014). La gouvernementalité néolibérale (Foucault, 2004b, 2004a) serait au cœur du dispositif de gestion des ressources policières et de contrôle de l’activité des acteurs.

5Mais si un chef ou un commandant de police devait gérer les agents dont il a la responsabilité sur ces seuls procédés indirects d’intériorisation et de subjectivation des indicateurs de résultats, il aurait une prise bien trop abstraite sur les personnes qui composent son système de production de sécurité – d’autant plus que l’un des effets pervers de ces indicateurs est de conduire à la manipulation des chiffres par les officiers de terrain qui tentent d’échapper à la pression de la performance en falsifiant leurs résultats (Eterno et Silverman, 2012). Les experts de l’organisation policière le savent, la statistique est un instrument du pouvoir, mais ce pouvoir ne se déploie pas systématiquement, surtout lorsqu’il est censé agir indirectement. Il faut aussi des instruments de comptage qui permettent d’activer directement les policiers, de les contraindre physiquement au travail, d’agir sur eux au quotidien en temps réel. Le gouvernement de la police proactive ne peut reposer uniquement sur la confrontation des performances attendues avec les résultats obtenus en termes de réduction du crime et de satisfaction de la population. Il doit aussi reposer sur les traces de la proactivité concrète des policiers.

6Cette persistance de la forme industrielle de gestion du travail (Thévenot, 2015) nous a semblé prégnante lors de notre enquête sur la police prédictive. L’émergence de la catégorie de predictive policing peut être lue comme la mise en algorithme progressive ou l’automatisation des deux grands principes du Compstat : d’une part, l’orientation de l’action par les savoirs afin de mieux identifier les problèmes et, d’autre part, la gestion de l’organisation policière par la mise en place de mécanismes de mesure, de suivi et de pilotage de l’activité des agents. L’objectif des développeurs des machines de la police est de lier ensemble ces deux dimensions sous la forme de métriques de prédiction du crime et de prédiction de l’efficience organisationnelle. Nous nous intéressons à la dimension gestionnaire de la police prédictive en rentrant dans les détails de la fabrication de ces différentes métriques calculées par les algorithmes, non pas celles qui évaluent la qualité des modèles prédictifs [2], mais celles qui apportent une mesure quantifiable de la production de la sécurité par la police [3].

7Nous verrons que la police prédictive est une entreprise de rationalisation de l’administration dans la continuité du Compstat par la mise en place de métriques de « dosage » de la quantité du travail de la police. Ces métriques visent non seulement la hausse de la productivité de la police, mais aussi le renforcement de la légitimité politique qui lui est nécessaire auprès de la population. C’est en explorant la diversité des types de métriques, leurs façons de définir des priorités et d’optimiser la présence policière sur le territoire que nous pourrons saisir la manière dont les machines prédictives cherchent à transformer l’action de la police (partie 2). Ce sera aussi l’occasion de comprendre comment, sous l’effet d’un mouvement critique dénonçant les biais discriminatoires des machines prédictives, les développeurs imaginent les techniques d’audit des données des bases d’apprentissage et les calculs de la quantité raisonnable de contrôle policier dans la population (partie 3). Mais avant de rentrer dans les détails de ces métriques, il nous faudra retracer les origines des plateformes analytiques dans le système du Compstat, ce qui nous permettra de comprendre comment les systèmes d’information géographique ont d’abord été conçus comme des sites web pour donner les moyens aux officiers d’avoir un accès facilité et rapide à l’information statistique et de tester leurs intuitions pour la mise en place de stratégies discutées lors des réunions du Compstat (partie 1). Ce n’est que dans un second temps que les machines prédictives apparaîtront non plus pour servir les officiers dans la procédure du Compstat, mais pour mettre en algorithme le Compstat lui-même.

8Cet article porte sur deux plateformes prédictives Hunchlab et Predpol, mais il en existe beaucoup d’autres. Le présent travail a pris le parti d’étudier les usages des algorithmes par les concepteurs de ces deux plateformes, en analysant ce que les développeurs entendent faire faire à la police avec des calculs. Le parti pris est à la fois internaliste et externaliste : nous allons décrire le contenu des machines prédictives, en le mettant en perspective avec les débats autour des réformes managériales de la police. Durant ces cinq dernières années, nous avons suivi leur évolution, en accumulant tous les documents disponibles [4], en passant des entretiens [5], en consultant les logiciels et en intervenant dans des discussions privées et des débats publics avec les développeurs eux-mêmes en tant que sociologue des sciences et des techniques. Nous livrons ici les résultats d’une enquête compréhensive de ce que les machines prédictives sont, ou du moins cherchent à devenir – la plupart des métriques que nous décrirons dans cet article sont encore à l’état expérimental et ne font pas encore l’objet d’un usage intégré par l’administration policière [6], d’où la difficulté pour l’instant de se prononcer sur une sociologie des usages des machines par les policiers eux-mêmes.

Aux origines de la police prédictive

9Avant la commercialisation des plateformes analytiques, les cartes du crime sont réalisées, dans les départements de police, avec des systèmes d’information géographique (SIG) installés sur les machines personnelles des crime analysts (Chainey et Ratcliffe, 2013). Si dans les années 1990 les tableurs, les logiciels d’analyse spatiale et les progiciels statistiques qui composent les SIG sont l’occasion pour cette profession émergente de découvrir des outils ouvrant de nouvelles perspectives pour l’analyse du crime (Weisburd et Lum, 2005), ils apparaissent néanmoins inadaptés pour faire face aux besoins informationnels de l’administration policière : d’une part, la quantité croissante des traces collectées par le développement de la micro-informatique invite l’administration policière à s’équiper de technologies capables de stocker et traiter en temps réel de très gros volumes de données, notamment celles contenant une composante spatiale (appel téléphonique, enregistrement d’incident, dépôts de plainte, etc.) (Manning, 2014). D’un autre côté, les demandes accrues en matière d’informations statistiques et cartographiques liées aux nouvelles pratiques managériales nécessitent de trouver le moyen d’automatiser la production d’informations analytiques et de les rendre rapidement et facilement accessibles aux policiers.

10La réponse à ce double enjeu est le développement d’un système d’information géographique non plus installé sur les machines personnelles, mais sur un web interne à la police (un intranet) permettant de diffuser les cartes du crime de manière interactive et librement consultable à tout moment par les officiers de police. La genèse de ce que l’on n’appelait pas encore la « police prédictive » peut être comprise comme cette volonté de reprendre les technologies de l’internet et les formats du web pour les appliquer au réseau informatique interne sur lequel reposent les SIG de l’administration policière. C’est ce que nous allons observer à Philadelphie avec le développement des plateformes cartographiques et analytiques à l’origine d’Hunchlab, conçues pour répondre au besoin d’un accès rapide en informations statistiques et cartographique pour le Compstat. C’est seulement en 2012 que Predpol fait irruption. La commercialisation de la plateforme de Los Angeles contraste avec le lancement difficile de la première version d’Hunchlab, en s’imposant rapidement sur le marché par le vocabulaire de la prédiction en lieu et place de celui de l’intuition au cœur du principe de la première versiond’Hunchlab.

Un système d’information cartographique en ligne pour le Compstat

11Les plateformes analytiques de cartographie du crime n’émergent pas aux États-Unis, à la fin des années 1990, au hasard des polices locales américaines. À Philadelphie, un acteur en particulier œuvre au développement des premières applications de web mapping dans ce domaine : Robert Cheetham, le développeur du Service d’Information Géographique de la police de Philadelphie, le Philadelphia Crime and Mapping Systems (PHiCAM) et du Crime Spike Detector (le prototype d’Hunchlab) entre 1997 et 2006, d’abord au sein de l’administration policière, puis comme entrepreneur dans la start-up qu’il crée en 2000. Lorsque Cheetham est recruté par la police de Philadelphie pour mettre sur pied une unité d’analyse du crime et de cartographie (crime analysis and mapping unit), il poursuit dans le même temps un travail de développeur de logiciel au sein du laboratoire de modélisation cartographique de l’Université de Pennsylvanie. Cheetham s’intéresse ainsi aux SIG en traitant à la fois de leur aspect informatique et analytique.

12Cette approche colle assez bien avec les enjeux de développement du Compstat qui nécessite de mettre en place un système informatique de collecte et de traitement de données spatiales et temporelles. Le Compstat est mis en place à Philadelphie à l’occasion de l’arrivée d’un nouveau chef de Police en 1998, John Timoney, dont le programme s’inspire de ce que ce dernier vient d’expérimenter à New York au côté de William Bratton. Cheetham raconte comment son unité est devenue l’instrument central de la réforme de la police de Philadelphie avec l’arrivée du Compstat :

13

« John Timoney arrive à Philadelphie et nous dit : “Nous allons mettre en œuvre le Compstat, et nous allons changer notre façon de fonctionner.” À New York, John Timoney avait une centaine de personnes qui travaillaient pour lui sur le Compstat. Ici il avait seulement deux personnes parmi nous et un policier. Nous n’avions pas assez de personnel pour tout faire, alors nous avons dû développer des outils de cartographie de la criminalité sur le web et des logiciels pour automatiser une grande partie de ce que nous faisions. »
(Entretien avec Robert Cheetham, août 2016)

14Le Compstat process évoqué dans l’extrait d’entretien correspond à des rencontres hebdomadaires de trois heures où chaque commandant est amené à présenter la situation de son service, les différentes actions menées et les tendances du crime sur son territoire. Ces réunions doivent permettre la discussion autour de l’attribution des ressources en fonction d’une analyse des problèmes et de l’exposition des stratégies pour les résoudre. Les cartes du crime sont les supports essentiels de cette négociation.

15Mais avec trois analystes seulement, l’unité de cartographie et d’analyse du crime est sous-dotée pour répondre aux besoins statistiques d’une organisation qui compte plus de six mille agents de police. L’arrivée du Compstat implique de produire de manière hebdomadaire une série d’informations quantitatives et des représentations cartographiques du crime pour chacun des trente-neuf districts. Les outils de bureau utilisés par les crime analysts ne résolvent pas le double défi auquel l’unité doit répondre avec l’arrivée du Compstat : d’une part, collecter, stocker et actualiser rapidement les flux de données et, d’autre part, répondre aux besoins analytiques des policiers.

16Lorsque Cheetham intègre l’unité, installée au service du système d’information de la police de Philadelphie, les agents accèdent à de multiples bases de données, mais la plupart d’entre elles ne sont accessibles que depuis les machines du quartier général. Aucun système ne permet encore de relier les données. Exigeant la mise en œuvre de stratégies fondées sur des données, le Compstat nécessite que tous les agents puissent avoir accès aux systèmes d’information, n’importe où et n’importe quand, afin de pouvoir croiser des données et les projeter sur des cartes. Cependant, en comptant des milliers d’agents, la police n’a pas les moyens d’obtenir une licence par siège pour des logiciels de SIG destinés à des machines personnelles. Et quand bien même elle trouverait les moyens pour se procurer les licences, le problème ne serait pas résolu. Le coût de l’entretien des installations logicielles sur plusieurs postes de travail dans des emplacements géographiquement distribués est très élevé et il est difficile de maintenir et assurer l’actualité des données spatiales et des incidents criminels sur les postes de travail.

17La solution à ce problème est de développer une plateforme en ligne afin d’assurer l’organisation et la gestion technique des données et de les rendre accessibles et manipulables par les logiciels de SIG pour les différents agents de police opérant depuis des sites multiples, loin du quartier général. À partir des années 1980, les systèmes de gestion des bases de données (SGBD) atteignent un niveau de perfectionnement qui leur permet d’être exécutés sur du matériel à faible coût. C’est à la faveur de ce progrès technique que Cheetham développe un système d’information géographique en ligne qui donne les moyens aux agents de visualiser tous les incidents auxquels les services de police ont réagi, de faire des recherches dans plusieurs bases de données, de créer des graphiques et de produire facilement des rapports. À la fin des années 1990, lorsque Cheetham met en place PHiCAMS, un web-based information geographic system, la police de Philadelphie est considérée comme une des organisations policières les plus en « pointe » sur le plan des technologies d’information géographique. Le caractère novateur de PHiICAMS peut être compris en le situant dans le contexte des années 1990 où le web fournit une « enveloppe » nouvelle qui implique une modification importante du rapport du policier à l’accès à l’information cartographique sur le crime. L’appréciation des problèmes sur le district est désormais médiatisée par l’interface web.

Des intuitions assistées par ordinateur

18Mais PHiCAMS reste un outil descriptif. Lors des réunions du Compstat, l’anticipation du futur relève d’une dimension réflexive et stratégique construite par les policiers discutant de cartes de l’activité historique du crime. De la sorte, PHiCAMS maintient les policiers dans une posture réactive : les cartes du crime reflètent l’activité passée. Les policiers doivent en effet élaborer leurs stratégies sur la base d’une information prédictive. L’enjeu devient dès lors d’automatiser la réflexivité et la proactivité dans la carte.

19Il est possible de former les policiers aux subtilités de l’utilisation des SIG, à la manipulation des bases de données et à l’utilisation des progiciels statistiques afin qu’ils puissent faire des liens entre les variables de manière à estimer le comportement futur des phénomènes criminels. Mais une démarche de ce type prendrait un temps considérable, serait coûteuse et ne correspondrait pas nécessairement au métier de policier. C’est davantage le travail du crime analyst, mais le Compstat implique une logique de travail prescrit par les capitaines des districts. Il rend l’activité de l’analyste routinière, standardisée et répétitive, ce que Cheetham cherche à tout prix à éviter. Comment dès lors faire un système d’information géographique prescriptif ? Comment mettre à profit, en amont, la détection des patterns, pour permettre aux policiers, en aval, d’être autonome ? De quel type de prescription les policiers ont-ils besoin ? Quelle intelligence une machine peut-elle fournir automatiquement qui soit utile aux policiers et qui réponde aux exigences du Compstat ? Pour répondre à cette question, Cheetham s’appuie sur deux constats : d’une part, les agents et détectives ont besoin d’interagir avec des SIG, mais ils n’ont pas besoin de toutes les fonctionnalités des logiciels utilisés ; d’autre part, lors des réunions du Compstat, l’analyse de l’état de la situation existante présente systématiquement un retard de plusieurs semaines. Dès lors, il faut permettre au policier de manipuler des applications analytiques limitées à des usages prédéfinis, fonctionnant sur une base quotidienne.

20C’est dans cette perspective que Robert Cheetham imagine une machine de détection et de signalement des tendances criminelles : le Crime Spike Detector, une machine conçue sur le model d’un système d’alerte précoce. En 2000, lors de la conférence nationale sur la cartographie du crime organisée à San Diego, le premier prototype est présenté comme un logiciel permettant d’exploiter les données des incidents enregistrés et les appels de services afin de déterminer les secteurs où l’activité est statistiquement inhabituelle, c’est-à-dire d’identifier rapidement les changements brusques dans la distribution locale du crime – les pics du crime (crime spikes). La version du Spike Detector qui suivra le prototype est développée à partir de 2004, puis éditée en 2006 sous la forme d’une application web. L’innovation du Spike Detector tient moins à l’algorithme qui calcule l’alerte qu’aux technologies web sur lesquelles il repose : c’est au niveau de la manipulation des pages dynamiques offertes par le site, des visualisations des cartes et des modes de communication de l’alerte que se jouent les transformations majeures du travail des policiers. Le Spike Detector repose en effet sur le principe suivant : les policiers peuvent accéder au site web à tout moment pour effectuer des analyses, mais ils y viennent plus souvent parce qu’ils ont reçu une notification du Spike Detector par e-mail. Les policiers peuvent aussi avoir accès aux incidents concrets qui contribuent à un pic en particulier, en étant orientés vers PHiCAMS qui fournit les détails sur les crimes. En cliquant sur le lien « Graphiques », l’utilisateur accède à un histogramme qui permet de rendre statistiquement intelligible le pic. En plus de pouvoir visualiser les pics sur un graphique, l’utilisateur peut cliquer sur le lien « Carte » qui affiche une carte de la ville où d’autres pics sont affichés sous la forme d’un carré plein.

21La version d’Hunchlab qui suivra le Spike Detector conserve le modèle du système d’alerte précoce, mais devient plus flexible. Les développeurs d’Hunchlab cherchent une manière de représenter les intuitions des policiers de telle sorte qu’un ordinateur puisse les comprendre et les visualiser. En 2008, la première version d’Hunchlab commercialisée fonctionne sur le principe d’une requête à cinq critères prédéfinis (les catégories d’incident, la zone géographique délimitée par l’utilisateur sur une carte, la définition de la période historique de comparaison, la définition de la période de l’intuition, et le sens du pic (à la hausse ou à la baisse). Si cette première version est encore assez simple, les projets de recherche de cette période que nous avons pu consulter laissent imaginer les prémisses d’une machine capable de tester des intuitions plus précises (heure de la journée, jour de la semaine, modus operandi associé à la classe d’incidents, etc.).

De l’intuition à la prédiction

22La machine Hunchlab dont nous venons de décrire le développement s’adresse aux policiers, mais aussi aux analystes du crime. Elle automatise la production d’information comme support à la discussion. Il ne s’agit donc pas encore de recommander aux policiers des trajectoires de patrouille comme ce sera le cas avec les machines prédictives de la décennie 2010.

23Pour bien comprendre le mouvement de la première version d’Hunchlab vers l’émergence des machines prédictives, il faut souligner qu’à la fin des années 1990 aux États-Unis, des techniques du machine learning ont été testées en laboratoire pour prédire le crime dans l’espace et le temps (Groff et Vigne, 2002). Le National Institute of Justice (NIJ) a financé plusieurs projets visant à soutenir le développement de méthodologies de modélisation prédictive. Les réseaux de neurones (Olligschlaeger, 1998 ; Gorr, Olligschlaeger et Thompson, 2003) ont montré à cette occasion leur utilité prédictive. Mais ces recherches étaient académiques, souvent basées sur des petits ensembles de données contrôlées, ce qui ne correspondait pas à la réalité des situations opérationnelles. Si les résultats se sont révélés prometteurs, ces techniques ne sont pas sorties des laboratoires. Elles n’ont donc pas été intégrées dans des logiciels, à l’exception notable du célèbre CrimeStat (Levine, 2006), mais il s’agissait d’un logiciel de bureau (nous avons vu l’importance de la forme site web).

24La période de ces travaux universitaires est concomitante à celle de la création du Crime Spike Detector, mais la notion de prédiction a été volontairement évitée par les développeurs de la plateforme de Philadelphie. Hunchlab détecte automatiquement les pics, c’est-à-dire des différences significatives des tendances du crime au regard des distributions passées. L’enjeu est avant tout de développer une machine sous la forme d’un site web afin de permettre aux officiers de tester leurs intuitions et de naviguer dans les pics détectés. Une fois validée, l’intuition testée par une machine doit être explicable. Les réseaux de neurones testés à la fin des années 1990 sur des données spatiales du crime ont montré leur efficacité, mais ils fonctionnent comme des boîtes noires, d’où un désintérêt pour cette méthode dans cette première phase de développement.

25Le Spike Detector est resté à l’état de plateforme expérimentale sur l’environnement informatique de la police de Philadelphie entre 2000 et 2006. La première version d’Hunchlab, commercialisée à la fin des années 2000, est conçue en revanche pour être un produit commercialisable. Dans une étude de marché réalisée en 2008, une cinquantaine de départements de police ont été identifiés comme clients potentiels de la première version d’Hunchlab au regard, entre autres, de leurs ressources informatiques. Pour utiliser Hunchlab, les polices doivent être dotées du matériel informatique nécessaire au fonctionnement de l’application, c’est-à-dire être équipées de serveurs de stockage et d’exécution, mais aussi de tout l’environnement de développement qui lui est associé. Cependant, seuls la ville de Tacoma et deux consortiums qui rassemblent les ressources informatiques de plusieurs départements de polices, le comté de Pierce et le Northwest Ohio Regional Information System à Toledo, en Ohio, tenteront l’expérience. Le constat est cruel : la première version d’Hunchlab est un échec commercial, malgré dix années de recherche et de développement intenses. En revanche, lorsque Predpol fait irruption en 2011, le succès commercial de l’entreprise est immédiat.

26Face au succès commercial de Predpol, Hunchlab renoncera progressivement à ce concept innovant d’« intuitions assistées par ordinateur ». Selon Cheetham, ce que Predpol a réussi est ce qui a manqué à Hunchlab : en ses termes, la « mise en produit » de la plateforme. L’innovation de Predpol tient à sa simplicité. La plateforme fournit des cartes interactives simplifiées (un carré rouge sur une carte) grâce à un algorithme de calcul de point chaud projeté sur un tableau de bord embarqué sur ordinateur, tablette ou smartphone. En 2013, l’entreprise qui commercialise Hunchlab entreprend une refonte complète de la plateforme. Une deuxième version est développée from scratch, pour passer en mode SaaS et revoir entièrement les usages de l’outil pour s’aligner sur le modèle de la machine de Predpol. La deuxième version d’Hunchlab n’a donc plus rien à voir avec la première. Il s’agit, comme pour Predpol, de projeter sur une carte les crimes à venir. Les projections ne font l’objet d’aucune interprétation de la part des policiers. La machine est tournée vers l’orientation directe des patrouilles de police. D’une application construite au sein du système d’information de la police cherchant à aider les policiers à explorer des hypothèses et des intuitions, on passe à une application beaucoup plus externe qui prédit automatiquement et, partant, fait disparaître la dimension réflexive de la proactivité.

Police productiviste

27Avant la mise sur le marché de Predpol, la plateforme Hunchlab dont nous venons d’observer les conditions d’émergence est une composante d’une doctrine plus large de l’action policière. Elle automatise une des exigences du Compstat qui impose aux policiers une très grande connaissance du crime sur leur territoire afin qu’ils développent des réponses stratégiques innovantes. Bien que le modèle statistique soit prédéfini, une certaine flexibilité de la machine est recherchée. Le policier teste ses intuitions en commandant la machine. En introduisant le vocabulaire de la prédiction, Predpol change la nature de l’interaction entre le policier et la machine : la plateforme fournit des cartes simplifiées qui indiquent simplement les risques par un carré rouge sur une carte. Les prédictions sont projetées sur un plan dans l’objectif de déclencher des actions policières. Dans ce contexte où la hiérarchie homme-machine est inversée – la machine est dans l’action et non plus à sa périphérie –, le statut des plateformes prédictives change vis-à-vis du Compstat : la police prédictive est progressivement placée sur le même niveau que le Compstat. C’est ce qu’observe William Bratton, alors chef de la police de Los Angeles en 2013, qui voit dans les technologies prédictives l’occasion d’un second souffle pour le Compstat qu’il a lui-même initié à New York :

28

« […] qu’est-ce que la police prédictive si ce n’est Compstat ? Je pense que pour faire passer Compstat à un niveau supérieur, il faut mobiliser la police prédictive et les médias sociaux. La police prédictive consiste à recueillir de l’information et à appliquer des algorithmes pour prédire où le crime se produira. Je me souviens de la façon dont nous avions l’habitude d’utiliser les punaises sur les cartes et nos ordinateurs de bureau. Maintenant, nous avons des centres d’analyse du crime en temps réel, des algorithmes et des partenariats avec des universités ».
(Police Executive Research Forum, 2013, p. 28)

29Mais dès lors que la police prédictive n’est plus simplement une solution logicielle, mais une approche plus générale du policing, la prédiction ne sert plus à prédire le crime – dans les multiples sens que les scientifiques donnent à cette expression (Hofman, Sharma et Watts, 2017). Contrairement à ce que le bon sens pourrait laisser croire, prédire n’est pas l’objectif en soi de ces machines. Le principal développeur de la deuxième version d’Hunchlab le souligne bien, la prédiction est rapidement devenue un élément standard assez simple à mettre en œuvre :

30

« Je pense que l’idée de prédictions de la criminalité commence à être quelque peu banalisée. Construire un système qui se contente de faire des prédictions n’est pas si difficile. Cela dit, la grande majorité de notre investissement ne consiste pas à faire des prédictions et ne l’est plus depuis plusieurs années. Nous investissons notre temps dans tous les aspects qui entourent les prédictions – sécurité des données, journaux d’audit, la haute disponibilité de la plateforme, l’interface utilisateur, les fonctions connexes, etc. C’est là que se joue la différenciation entre les produits mis sur le marché ».
(Entretien avec Jeremy Heffner, août 2016)

31Ainsi, l’enjeu du développement des plateformes tient à des éléments connexes à la prédiction, c’est-à-dire aux modules et spécifications intégrables pour en faire des outils opérationnels de recommandation. Ces modules et spécifications vont dans le sens du développement de machines de supervision de l’activité des agents. Ils permettent aux gestionnaires de prendre connaissance de l’état de l’utilisation des ressources qu’ils pilotent. Dans cette perspective, la police prédictive est, pour les développeurs, la mise en algorithme des principes gestionnaires du Compstat. La prédiction devient ainsi le vecteur de tout un ensemble de métriques visant à rendre la police proactive.

Des quotas de « stop-and-frisk » au dosage en temps réel

32Si l’objectif initial du Compstat est de gérer une police proactive, comment faire de la proactivité une quantité ? Comment mettre en équivalence cette quantité avec de la sécurité ? Depuis les réformes des administrations publiques dans les années 1990, le travail d’un responsable de département de police est celui d’un gestionnaire d’une quantité de proactivité mise en équivalence en des termes de réduction de la criminalité escomptée. Mais comment le gestionnaire d’un département de police peut-il s’assurer, au niveau de chacun de ses agents sur le terrain, de leur proactivité et, partant, de leur productivité dans le travail ? Comment un responsable de district peut-il s’assurer des tâches de sécurisation bel et bien réalisées ? Loin du regard de ses supérieurs, un agent de police à une marge de liberté importante sur le terrain.

33Une manière de contraindre les policiers est de leur imposer des quotas [7] de proactivité (Bronstein 2014 ; Eterno et Silverman, 2012). À New York, un système de quotas de stop-and-frisk[8] a été mis en place, exigeant une quantité minimum, par agent, de contrôles d’identité et, le cas échéant, d’une palpation de sécurité. C’est ce que souligne Wesley Skogan, célèbre observateur des pratiques policières aux États-Unis, qui voit dans les quotas de contrôle une stratégie organisationnelle :

34

« À titre de stratégie organisationnelle, la méthode du stop-and-frisk intègre de nombreuses caractéristiques supplémentaires. En l’occurrence, les contrôles ne sont pas seulement des réactions face à des événements ; et les agents partent en patrouille avec l’intention de procéder à ce type de contrôles. C’est leur mission, tout au moins en partie. Ils doivent procéder à ces interpellations parce que leurs supérieurs leur demandent d’effectuer des contrôles et de fouiller les citoyens […]. Les agents sont encouragés à “remplir leurs quotas” afin de satisfaire leurs supérieurs. Les contrôles étant enregistrés dans la base de données du service de police, il s’agit bien ici de chiffres, et ces chiffres sont surveillés par leurs supérieurs. Ils peuvent imposer un quota officiel et fixer un nombre d’interpellations à effectuer pour chaque équipe, ou peuvent tout aussi bien demander une augmentation de ces chiffres lors des réunions de briefing. […] »
(Skogan, 2017, p. 56)

35Simples à mettre en place, les quotas indiquent des quantités minimales de contrôles routiniers allouées aux agents de terrain. C’est donc une manière de rendre un policier proactif. Utilisé à haute dose, l’usage du contrôle devient une technique de maintien de l’ordre par la saturation du contrôle policier dans les zones considérées comme des points chauds, ce qui permet la dispersion des membres de gang, d’augmenter la probabilité d’arrestation pour détention de drogue ou d’arme à feu et de capter davantage les situations irrégulières de migrants. Les quotas sont des métriques commodes pour mettre en équivalence la valeur travail de l’officier en patrouille, car ils apportent une solution de contrôle de la production du travail des policiers qui opèrent en principe dans des situations de faible visibilité.

36Mais les quotas sont dénoncés par les réseaux d’activistes de protection des droits civiques et par les policiers eux-mêmes (Ismaili, 2015). L’usage du contrôle à dose élevée est jugé non constitutionnel en 2013 par la Cour de justice de l’État de New York lors de l’affaire Floyd vs City of New York (Bellin, 2014 ; White et Fradella, 2016). Il s’en est suivi une diminution importante des contrôles (une chute de 97 % entre 2011 et 2016). La police se retrouve non seulement amputée de l’unique stratégie sur laquelle repose la proactivité, mais aussi de son principal instrument de gestion.

37L’entreprise Predpol innove en proposant une plateforme qui intègre la même fonction que les quotas : permettre aux gestionnaires de s’assurer que les officiers, durant leur temps de patrouille, font le travail escompté au regard des objectifs de production élaborés au niveau supérieur [9]. Pour ce faire, elle imagine la plateforme non pas comme un SIG, mais comme un « tableau de bord » qui permette de contrôler en temps réel cette production sous la forme de quantité de travail réalisé par les agents de police sur le terrain. Pour mettre les policiers sous la pression du temps réel, il faut une plateforme de stream computing permettant de traiter des flux de données « au fil de l’eau » afin d’enregistrer les trajets des patrouilles. Pour ce faire, Predpol intègre les données des systèmes de suivi GPS placés dans les voitures de police, ce qui permet de suivre les officiers à la trace et de contrôler le temps de la présence des patrouilles selon les secteurs de la ville. Pour organiser la distribution des patrouilles dans l’espace et le temps, les développeurs de Predpol vont proposer un usage astucieux des résultats de leur recherche : ils ont découvert que les patrouilles de police atteignent un niveau d’efficacité suffisant en passant seulement 5 % de leur temps de travail dans les zones identifiées par l’algorithme. Ces résultats sont précieux, car ils permettent de contrôler avec précision le dosage des patrouilles, tout en mobilisant a minima la part proactive de l’activité policière. L’un des utilisateurs précoces de Predpol, Sean Malinowski, alors capitaine de police du secteur Foothill à Los Angeles et chef de projet du programme predictive policing financé par le Bureau of Justice Assistance, raconte comment ce dosage quantifié permet une meilleure gestion de la proactivité :

38

« Aujourd’hui, les systèmes de localisation automatique de véhicules (AVL) sont dans tous les véhicules de patrouille. Nous essayons d’utiliser ces données et de mettre au point un véritable système de dosage. Nous avons fait une expérience à Foothill où […] nous avons pu déterminer combien de temps ils passaient dans des boxes[10]. […] Nous avons compris que le GPS captait les moments où les patrouillent ne savaient même pas qu’elles étaient dans une box. Si l’officier s’arrête en route vers un appel radio ou s’il s’arrête à un feu qui se trouve dans une box prédictive, cela reste un facteur dissuasif. C’est possible, parce que si un suspect voit la patrouille, il ne sait pas ce que la patrouille est en train de faire. Donc, éventuellement, ce que nous pourrons faire avec cela, c’est que vous aurez ces boxes rouges sur la carte et vous aurez ce doseur, et cela vous dira si vous avez effectué une quantité optimale de dosage. Vous fixez une dose optimale : pour nous, c’est de 70 à 100 heures par semaine. Nous avons fait toutes sortes d’études pour estimer cette quantité. Plus la dose est élevée, mieux c’est, mais les résultats diminuent avec le temps, en termes d’effet sur le crime. Donc nous avons maintenant ce doseur. »
(Sean Malinowski, Conférence de l’International Association of Chiefs of Police, 2015)

39Le dosomètre présenté par Malinowski fonctionne sur le principe simple de couleur différenciée des boxes : le carré prédictif reste rouge sur la carte tant que la police n’y a pas patrouillé, tourne ensuite au jaune lors des premiers passages, puis apparaît en vert lorsque le policier a passé le temps suffisant et optimal calculé selon les ressources disponibles (par exemple, les 5 % du temps du travail journalier d’une patrouille). La circulation dans les boxes peut se faire de manière aléatoire. Predpol permet un contrôle des agents de terrain en mesurant leur contribution à la part proactive de leur temps de travail, souvent par la simple présence dissuasive, mais sur une durée optimisée, dans les zones où le risque est estimé le plus haut. En dehors de cette part proactive, les officiers peuvent s’adonner à d’autres tâches.

40Hunchlab oriente le développement de son instrument dans cette même perspective de dosage des patrouilles en intégrant aussi les données GPS, mais il propose une approche sensiblement différente. Le temps de dosage ne se définit plus par rapport à un pourcentage du temps de travail journalier, mais sur la base de Key Performance Indicators (KPI), c’est-à-dire de mesures quantifiables de rendement choisies pour rendre compte de l’activité de la police par rapport à des objectifs prédéfinis. Les difficultés de cette méthode résident principalement dans le choix des indicateurs, en particulier du point de vue de leur faisabilité et utilité. En collaboration avec des acteurs de terrain, Hunchlab a retenu trois indicateurs de rendement de l’activité des patrouilles :

41

« 1) Minutes de mission : Il s’agit du temps passé à visiter les missions. Il exclut le temps consacré aux visites de très courte durée (<5 minutes), car il est peu probable qu’elles soient significatives. Il limite également le temps consacré à deux fois 15 minutes afin d’éviter d’accumuler beaucoup de temps au cours d’une seule mission. Il y aura une valeur d’objectif basée sur le temps qu’il est recommandé de consacrer à chaque mission et qui sera ensuite agrégé à l’ensemble des missions ; 2) Bonnes séances de mission. Il s’agit du nombre de visites par mission qui représentent probablement une dose significative. Pour être considérée comme bonne, une session doit commencer au moins 30 minutes après la dernière bonne session (pour commencer et terminer les sessions encore et encore afin de faire jouer les métriques). Le temps passé doit être d’au moins 5 minutes. Il y aura un objectif par mission qui sera ensuite agrégé pour l’ensemble des missions ; 3) Missions validées. Une mission est considérée comme validée si elle a subi au moins 3 bonnes sessions de mission. Ceci est conçu pour aider les commandants à répartir le dosage entre les missions. »
(Entretien avec Jeremy Heffner, ces trois points apparaissent dans un slide utilisé lors de notre entretien)

42C’est donc à partir d’un tableau de bord affichant plusieurs indicateurs de performance clef que la machine incite les policiers à faire varier des styles de patrouilles dans les missions (l’équivalent de la box). Outre la définition de ces indicateurs d’activité, Hunchlab envisage d’approfondir les informations de dosage à un niveau granulaire. Sur la base d’une comparaison des comportements de patrouilles, l’enjeu est aujourd’hui d’utiliser les données GPS pour que les machines détectent des patterns de patrouilles efficaces. Compstat deviendrait ainsi une plateforme qui collecte des données en vue d’une continuelle progression des logiques de dosage des patrouilles.

43On le voit, que ce soit Predpol ou Hunchlab, l’information prédictive n’est pas seulement une projection dans le futur, elle est aussi le support d’une mise en équivalence nouvelle de la valeur travail. De la saturation par les quotas qui fonctionnaient comme des métriques de performance, on passe à l’optimisation des patrouilles par le dosomètre. Ce passage des quotas aux dosomètres peut être analysé comme une forme d’intégration de la critique adressée au Compstat. Le Compstat est traduit sous la forme d’une application qui apporte une solution gestionnaire concrète dans un contexte de crise des techniques managériale développée depuis les années 1990 : un dosomètre d’activité qui permet de piloter la production de sécurité mise en équivalence avec du temps de patrouille ou des manières différentes de patrouiller. Les machines prédictives permettent de contrôler et superviser, sans avoir recours aux quotas, la quantité et la qualité de travail réalisé par les agents de police sur le terrain. Désormais, il ne s’agit plus de compter sur les réunions hebdomadaires pour inciter les agents au travail. En temps réel, les responsables de la police de différents niveaux peuvent piloter derrière leur écran l’offre publique de sécurité. L’enjeu de la police prédictive est de gérer, selon des critères gestionnaires nouveaux de productivité, le temps de vigilance quotidienne.

La valeur de la patrouille

44Le dosage n’est pas seulement temporel, il est aussi situationnel : quelles sont les situations prioritaires sur lesquelles les polices doivent patrouiller. Pour répondre à cette question, les entreprises qui développent des plateformes d’analyse prédictive complètent les scores de risques par des métriques de pondération qui permettent de classer par ordre de priorité les situations sur lesquelles il faut intervenir. L’analyse comparée de ces métriques utilisées dans les plateformes Predpol et Hunchlab montre que la pondération du risque peut relever de deux logiques différentes qui évoluent selon la manière dont les plateformes conçoivent les rapports entre la prédiction, la police et la population.

45Predpol propose une méthode permettant de mettre en lumière l’aspect économique de l’action policière. Pour ce faire, la plateforme évalue la valeur de la patrouille à partir d’une formule classique du calcul du retour sur investissement :

46ROI = (Gains – Coûts d’investissement) / Coûts d’investissement.

47Comme on peut le lire dans un compte rendu d’une étude réalisée par un doctorant de l’entreprise Predpol, ce ratio théoriquement simple à énoncer implique une évaluation comptable du travail de la police par une mise en équivalence du coût évité (les gains) par l’action de la patrouille (Samuels, 2014). Pour évaluer ce rendement mesurable de l’investissement, Predpol s’appuie sur l’estimation monétaire du « coût du crime » mise à disposition par la Rand Corporation. Il est ainsi fourni une valeur synthétique unique qui permet à la police de mesurer son action prédictive en termes d’investissement, exprimant la prédiction dans une valeur monétaire. Une telle évaluation comptable classe les ordres de priorité à partir d’une « fonction de production de la sécurité » de type analyse coût/bénéfice. Predpol automatise ainsi l’analyse économique de l’action policière, d’une manière rudimentaire, mais opérationnelle et effective. Autrement dit, la prédiction devient le vecteur d’une marchandisation de l’action policière.

48De son côté, Hunchlab travaille au développement d’une plateforme qui intègre des grands choix politiques pour l’action publique. Dans la continuité des vœux de la Task Force mise en place par Barack Obama sur la police du XXIe siècle en 2015, notamment celui d’« une police communautaire basée sur des technologies accroissant la confiance de la population » [11], la plateforme Hunchlab propose de classer les ordres de priorité des patrouilles d’une manière plus ouverte que Predpol. Quatre manières différentes de pondérer les crimes sont proposées :

49

« 1) Le département de police décide des pondérations. Nous ne recommandons pas vraiment cela, car nous pensons qu’il est plus logique que le service de police s’appuie sur une évaluation de la gravité effectuée par un tiers, mais c’est une option possible ; 2) Le coût du crime. L’avantage est que de nombreux types de coûts pour la société peuvent être incorporés dans un seul chiffre. Il est plus facile de parler d’investissement pour la communauté, car les prévisions de criminalité sont également exprimées en dollars. L’inconvénient est que les chiffres publiés sur le coût du crime ne sont pas précis et ne sont disponibles que pour les principaux types d’incidents. 3) Une pondération relative à la détermination de la peine (Crime Harm Index). L’avantage de cette pondération réside dans le fait que le Crime Harm Index est très précis. Avec ces pondérations, le système optimise la prévention du crime de manière à réduire la durée totale des peines, en essayant essentiellement de réduire l’incarcération en prévenant les événements comportant des peines plus longues. Une critique que certains soulèveront serait que le Crime Harm Index ne reflète pas toujours un préjudice réel pour la collectivité. Par exemple, les incidents liés à la drogue sont plus longs que ce qui est probablement justifié. Si nous essayons d’empêcher de telles peines, je pense que ce biais est en fait tout à fait approprié dans un système préventif comme le nôtre. 4) La participation du public. C’est ce que nous préconisons, un processus d’engagement public ou semi-public pour déterminer les pondérations. On peut imaginer qu’il s’agit d’un groupe de représentants de la communauté, informés des effets de ces pondérations dans le système. Ce groupe peut décider des poids associés à des types de crime à renseigner dans l’espace de l’administrateur système. Nous avons un ministère qui a accepté de travailler avec nous pour tester cette approche avec leurs électeurs. »
(Entretien avec Jeremy Heffner, Data Scientist Hunchlab, juillet 2016)

50Ces quatre métriques font varier des conceptions de la politisation de l’algorithme dans une gradation de la primauté accordée à l’administration ou aux intérêts de la population souveraine : la première pondération donne la primauté à l’administratif ; la deuxième la donne au calcul économique ; la troisième intègre le sens de la justice du système judiciaire [12] ; et la dernière asservit l’administration à la souveraineté de la population. Hunchlab rend l’utilisateur du logiciel, par la multiplicité des formes de pondération, libre de penser le modèle relationnel entre le pouvoir de la police (de l’administration) et le pouvoir politique (le public).

51Si la plateforme Predpol fait de l’administration policière une entreprise visant la rentabilité, Hunchlab pense l’administrator system de la plateforme comme un véritable système administratif qui contient les contradictions et les tensions propres aux administrations publiques des démocraties occidentales (Rosanvallon, 2015). L’opposition entre les deux approches est assez classique : d’un côté, Predpol propose un raisonnement qui s’inscrit dans la continuité du processus ancien de naturalisation de l’analyse économique de l’action publique ; d’un autre côté, Hunchlab propose au contraire une politisation en donnant le choix à l’utilisateur d’une multitude de pondérations. Hunchlab va jusqu’à proposer de rendre discutables les pondérations avec les populations.

52Mais pour les deux plateformes, il s’agit d’intégrer in itinere, au niveau de l’action quotidienne d’un agent, des métriques d’évaluation utilisées jusqu’à présent de manière ex ante ou ex post au niveau des réunions du Compstat. La nécessité de formaliser ces métriques dans les plateformes impose de rendre plus explicites des valeurs dans le choix de telle ou telle tactique policière. Faut-il considérer la police comme une organisation qui doit être rentable économiquement ou comme un service tourné vers les demandes et les préoccupations de la population ? Les développeurs de Predpol ont répondu eux-mêmes à cette question en fixant le calcul du ROI dans la machine ; Hunchlab laisse la possibilité aux acteurs de la police d’y répondre eux-mêmes dans l’administrator system[13]. Dans tous les cas, la police prédictive impose de rendre explicites les valeurs que l’on attribue à la patrouille. La présence policière dans l’espace public est désormais systématiquement associée à une opération permanente d’évaluation (Dussauge, Helgesson et Lee, 2015) paramétrable et automatisable.

Discrimination et « harm policing »

53Les machines prédictives dont on vient d’analyser les métriques en les mettant en perspective avec les enjeux gestionnaires du Compstat doivent aujourd’hui à leur tour faire face à la critique. Si elles apparaissent comme des alternatives à la logique des quotas et au profilage racial des policiers en patrouille, ces machines se trouvent de plus en plus ébranlées par la montée en puissance de la critique des « biais algorithmiques » : les prédictions renforceraient les discriminations policières à l’égard des minorités (Ferguson, 2016 ; Robinson et Koepke, 2016 ; Selbst, 2017 ; Shapiro, 2017).

54Dans un contexte de mobilisation des activistes aux États-Unis [14], Predpol comme Hunchlab n’ont pas d’autres choix que de répondre à la critique et d’intégrer dans la conception des machines le problème des biais algorithmiques. Si les développeurs de Predpol s’engagent dans une recherche d’audit des données d’apprentissage, ceux d’Hunchlab cherchent à réguler et optimiser les « policing harms », c’est-à-dire les préjudices causés par la proactivité policière. Les réactions de Predpol et Hunchlab sont révélatrices des manières dont les promoteurs des plateformes peuvent se donner les moyens de maîtriser les biais et de développer les métriques de régulation du contrôle policier.

Maîtriser les biais

55Depuis sa création, Predpol fait l’objet de nombreuses critiques, mais seules celles concernant les biais de discrimination ont suscité une réponse publique de la part des développeurs. La dénonciation de l’association à but non lucratif Human Rights Data Analysis Group a particulièrement intéressé Predpol. Dans leur étude, To Predict and Serve (Lum et Isaac, 2016), l’association publie une analyse des effets de l’algorithme de Predpol sur la base d’une simulation numérique. La démonstration est simple. Sur une carte de la ville d’Oakland, est projetée la distribution spatiale des drug arrest, construite à partir des données enregistrées par la police. On peut constater sans aucune hésitation une concentration des arrestations dans les quartiers où résident les populations non blanches et au niveau de salaire le plus faible. Une autre carte est construite qui indique cette fois, grâce à une extrapolation de la National Survey on Drug Use and Health, que les prévalences des consommations de drogue se distribuent d’une manière équivalente d’une catégorie raciale à une autre. Si ces données d’arrestation alimentent le processus d’apprentissage des machines, il n’est pas surprenant que l’algorithme de Predpol contienne ce biais discriminatoire. La simulation, réalisée à partir du modèle prédictif utilisé dans Predpol, montre en effet que les Noirs seraient ciblés par la police prédictive à un taux deux fois plus élevé que celui des Blancs, et les personnes classées dans une catégorie autre que Blancs obtiennent un score d’arrestation 1,5 fois supérieur à celui des Blancs. Mais la question cruciale est de savoir s’il n’y a pas un effet de boucle de rétroaction (feedback loop), c’est-à-dire si les résultats des prédictions se constituent en retour en données d’apprentissage qui viennent renforcer et augmenter la distribution inégale des arrestations dans la population. En faisant varier de 20 % les quantités d’arrestations – illustrant le cas typique des injonctions à la productivité telles qu’elles existent dans le Compstat – dans les zones prédites par l’algorithme, la simulation montre un effet de renforcement des inégalités d’arrestation dans le temps à mesure que l’algorithme apprend sur des données d’arrestations produites à l’issue des recommandations de l’algorithme lui-même.

56Suite à la dénonciation du biais de discrimination, les développeurs de Predpol admettent qu’il y a de bonnes raisons de craindre que les méthodes algorithmiques de la police prédictive puissent amplifier les distributions inégales des arrestations dans la population, mais ils se défendent en apportant une double réponse à la critique.

57La première réponse de Predpol consiste à montrer que la situation est moins alarmante que la critique ne le laisse entendre. Dans leur article intitulé « Does Predictive Policing Lead to Biased Arrests ? Results From a Randomized Controlled Trial » (Brantingham, Valasik et Mohler, 2018), les développeurs de Predpol reprennent les données d’un essai randomisé contrôlé réalisé en 2011 pour tester l’efficacité de leur machine à Los Angeles (Mohler et al., 2015), ce qui leur donne la possibilité de comparer la distribution des arrestations des patrouilles selon les variables ethniques (renseignées par les policiers) pour les zones qui n’ont pas fait l’objet de recommandations algorithmiques (groupe contrôle) avec celles où Predpol a été utilisé (le groupe traitement). Les auteurs de l’article ne constatent pas de différences significatives – ils utilisent la procédure classique des tests statistiques, l’hypothèse nulle à tester étant l’absence de discrimination – dans la proportion d’arrestations selon les groupes ethniques entre les opérations réalisées sous les conditions de contrôle et les conditions de traitement. De plus, selon Brantingham et Mohler, s’il est tenu compte du taux global de criminalité plus élevé aux endroits prévus par l’algorithme, les arrestations restent inchangées, voire sont plus faibles dans les zones recommandées par la machine. Pour le dire simplement, selon Predpol, la police prédictive produit une activité ni plus ni moins plus discriminante que les pratiques courantes des patrouilles.

58Une deuxième réponse est formulée dans un article publié dans un numéro spécial portant sur la police prédictive dans la revue juridique Ohio State Journal of Criminal Law (Brantingham, 2017), qui procède d’une simulation, mais en construisant le problème du biais algorithmique d’une manière plus sophistiquée que ses détracteurs. Si la critique de l’association de protection des droits civiques adressée à Predpol a le mérite d’alerter sur les risques de discrimination, elle est néanmoins en décalage avec la réalité de la pratique : l’algorithme de Predpol n’apprend pas à partir des données d’arrestations, mais principalement à partir des crimes signalés à la police par le public. Brantingham le rappelle dans son article : alors que tout le débat se concentre sur les biais d’arrestation à l’encontre des minorités, les données entrantes sont des incidents criminels signalés, plutôt que des actes criminels capturés directement par les agents. Une méthode plus adaptée à la réalité des données d’apprentissage pour prévenir et mesurer les biais algorithmiques de la police prédictive consisterait, selon Brantingham, à localiser les biais au niveau des interactions sociales qui produisent le signalement des crimes entre la police, le public et les criminels :

59

« Certaines voies mettent la police en contact avec les victimes, tandis que d’autres la mettent en contact avec des suspects. Dans le premier cas, les préjugés implicites viseront à minimiser la victimisation par le déclassement des crimes (downgrading of crimes). Dans le dernier cas, les préjugés implicites chercheront à maximiser la responsabilité par un sur-classement des crimes (upgrading of crimes). »
(Brantingham, 2017, p. 477)

60Le processus par lequel les données sont générées peut avoir un impact sur l’estimation algorithmique du risque qu’il est aisé d’envisager : le déclassement (downgrading) implique une sous-activité policière, alors que le sur-classement (upgrading) produit de la suractivité. Autrement dit, si le biais concerne les victimes, la police minimise les victimations (déclassement) ; si le biais concerne les suspects, alors la police produit de la discrimination (sur-classement). Brantingham cherche à évaluer empiriquement l’effet de ces biais sur le processus d’apprentissage de la machine, en observant dans quelle mesure les déclassements et les sur-classements impactent les différents paramètres estimés du modèle (ceux de la concentration, de la contagion et de la fenêtre temporelle de la contagion, cf. Benbouzid (2017) pour une explication détaillée de ces éléments du modèle). Pour ce faire, il calcule la moyenne et l’écart-type de la distribution de la moyenne pour chacun de ces paramètres estimés, pour des situations différentes de déclassement et du sur-classement (de 0 à 20 %), en appliquant systématiquement cinq simulations indépendantes pour chaque situation, ce qui permet de mesurer l’étendue des variations des estimations paramétriques issues du processus d’apprentissage. Si pour les phénomènes de déclassement, les résultats correspondent aux intuitions (les estimateurs minimisent les risques), il n’en va pas de même pour les sur-classements. De manière contre-intuitive, l’effet du sur-classement diminue aussi les clusters de contagion. L’impact des biais est différent selon les composantes du modèle et Brantingham tente d’apporter une explication : les biais étant distribués de manière aléatoire dans le jeu de données d’apprentissage, seule la partie qui modélise la dépendance à l’espace est impactée de manière directe, alors que la partie qui modélise la dépendance au temps est moins directement touchée par ces variations aléatoires. Mais le plus intéressant des résultats obtenus est que les moyennes et les écarts-types de la distribution de la moyenne pour les différentes situations de déclassement et de sur-classement se situent dans la plage de variation de l’estimation des paramètres pour les ensembles de données non biaisés (figure 1).

Figure 1

Graphes représentants les effets des données biaisées sur les trois paramètres du modèle prédictif

Figure 1

Graphes représentants les effets des données biaisées sur les trois paramètres du modèle prédictif

Graphes dans Brantingham (2017, p. 482) représentant l’effet des biais (en haut le sur-classement, en bas le déclassement) sur le processus d’apprentissage des trois paramètres du modèle (de gauche à droite, la concentration, la contagion et la fenêtre temporelle de la contagion). Chaque graphe représente la moyenne et le one standard deviation range (1SD) des paramètres estimés à partir du modèle, pour cinq simulations indépendantes, appliquées systématiquement sur six variations de biais (de 0 % à 20 %). La ligne en rouge pointillé correspond à la valeur des paramètres de base du modèle, c’est-à-dire le modèle qui a permis de générer les données et qui sert de point de repère à l’expérimentation. La bande gris clair correspond à la fourchette de variation naturelle du paramètre (0 % de données biaisées). On observe donc facilement à partir de quelle quantité de données biaisées l’impact sur le modèle se distingue de la variation naturelle des paramètres observés dans les situations non biaisées.

61Tout compte fait, l’impact des biais sur l’estimation du risque est difficile, voire impossible, à distinguer de la variation naturelle des paramètres observée dans les situations non biaisées. Brantingham parvient néanmoins à estimer un taux de biais à partir duquel les estimations du risque évoluent en dehors du cadre des variations naturelles : plus de 20 % des événements biaisés pour les crimes déclassés, et seulement plus de 5 % pour les crimes surclassés. Si le problème de la discrimination peut être traduit en termes mathématiques, et donc en métriques, il est envisageable de construire des algorithmes capables de mesurer, gérer et corriger les biais.

Optimiser les préjudices

62Répondre à la critique de la discrimination de la police prédictive ne relève pas uniquement de la résolution du problème des biais algorithmiques. Dans une société démocratique, la police déploie une activité de contrôle sur un faible pourcentage de la population, mais une partie plus ou moins importante de ces contrôles reste infructueuse, et peuvent dans certains cas viser des personnes suspectées à tort. Une certaine quantité de contrôle de la population est acceptable, si en contrepartie ce contrôle permet de sécuriser la population et le territoire. Autrement dit, les contrôles infructueux sur des personnes suspectées à tort sont légitimes en tant qu’ils sont nécessaires à la production d’une offre de police proactive et uniquement dans la mesure où les contrôles profitent toujours à la population (Bambauer, 2015).

63Mais il existe de fait un découplage entre la population qui bénéficie des avantages sécuritaires de la proactivité de la police et celle qui en paie les coûts, car elle a subi les préjudices des contrôles non mérités ou inadaptés de la police (Harmon, 2015, 2012 ; Huq, 2016). Cette part inéluctablement préjudiciable de la police proactive ne se distribue pas de manière aléatoire dans la population. Elle se concentre sur une minorité qui a une proximité spatiale et sociale avec les criminels suspectés. Le principal problème politique du policing est celui de la distribution juste de l’action préjudiciable de la police dans la population et de la régulation qui lui associée (Harmon, 2012). Les machines prédictives ne pourraient-elles pas aussi répondre à ce problème crucial en régulant le travail de la police pour minimiser les préjudices que celle-ci cause à la population dans le quotidien de son activité ? Comment les données de l’activité policière peuvent-elles être utilisées stratégiquement, de manière opérationnelle, pour réduire la fréquence et l’impact de ces préjudices ?

64Dans un livre blanc en cours de préparation, Using data to reduce policing harms[15], Hunchlab tente de répondre à ces questions en imaginant comment cette part inéluctablement préjudiciable du travail proactif de la police (harm policing) pourrait être réduite à l’aide d’un calcul. S’il est difficile de modéliser l’ensemble des préjudices causés par l’activité policière, Hunchlab propose de traiter de la part du harm policing qui se limite à celle produite par l’activité de voies publiques des patrouilles, c’est-à-dire l’ensemble des interactions ordinaires vécues comme négatives par les personnes, en particulier les stops and frisks infructueux. Après un contrôle, les agents remplissent un formulaire qui enregistre divers aspects de l’interpellation, y compris les caractéristiques démographiques du suspect, l’heure et le lieu, le crime présumé et la justification de l’interpellation. Après le stop d’une personne, les agents peuvent procéder à un frisk (une palpation) s’ils ont de bonnes raisons de croire (reasonnable suspicion) que la personne est suspecte. Les agents peuvent également procéder à un search (une fouille vestimentaire) s’ils estiment une probable cause d’activité criminelle. Un agent peut ensuite décider de procéder à une arrestation ou de délivrer une assignation, le tout étant consigné sur le formulaire. Les réponses sont ensuite normalisées, compilées et rendues accessibles sous la forme de données ouvertes. Une start-up comme Hunchlab peut donc facilement envisager de tirer profit de ces données pour analyser les contextes d’apparition des contrôles et, partant, calculer les probabilités des contrôles non fructueux.

65Dans le livre blanc, Hunchlab imagine une machine qui recommande des trajectoires de patrouille en fonction d’une quantité plus ou moins acceptable de contrôles non fructueux distribués dans la population. Mais comment distribuer cette quantité dans l’espace et le temps ? Nous l’avons vu plus haut, les machines prédictives sont conçues non seulement pour prédire le crime, mais aussi pour optimiser l’allocation des ressources afin de maximiser l’offre publique de sécurité : la police prédictive intègre dans la machine une méthode de calcul coût-avantage permettant de peser le total des coûts des ressources mobilisées vis-à-vis des gains de bien-être escomptés associés à la dissuasion des activités criminelles évitées. Hunchlab propose de prolonger ce raisonnement économique au problème de la réduction des nuisances policières : si la police produit inexorablement des nuisances en produisant de la sécurité, celles-ci peuvent être considérées comme les externalités négatives de la production d’un bien public. Les nuisances policières représentent une part non négligeable du coût de la police qu’il est possible d’intégrer dans le calcul de la fonction de production de la sécurité sur lequel repose le dosage des patrouilles.

66Comment réguler l’activité policière afin de minimiser les coûts externes négatifs que la police impose à la population, tout en lui favorisant la tâche de maintenir l’ordre ? Si le livre blanc n’apporte pas de définition précise du concept d’externalité lié aux nuisances policières, il apparaît néanmoins en filigrane que les auteurs s’inspirent des méthodes utilisées en économie de l’environnement, en particulier celles développées en matière de régulation des entreprises polluantes (Boudia, 2014). La production de la sécurité quotidienne peut être en effet assimilée à celle des biens polluants : elle génère des externalités négatives diffuses, avec un préjudice faible par agent, mais touchant un grand nombre de personnes. Si le livre blanc botte en touche au sujet du calcul de la valeur du coût de l’externalité négative de l’activité policière (seul l’enjeu d’une enquête permettant de connaître le consentement aux contrôles en interrogeant les individus sur ce qu’ils sont prêts à subir pour bénéficier de la sécurité est mentionné), il apporte néanmoins des éléments concernant la manière de réguler ces nuisances. Le principe utilisé en économie de l’environnement d’introduire graduellement un système de taxation progressif, tel qu’il a été proposé pour mener les pollueurs à internaliser les externalités négatives, pourrait être transposé à la sécurité :

67

« Pour certains préjudices, comme les arrêts infructueux, une approche progressive et graduelle – c’est-à-dire un modèle qui augmente le préjudice marginal de chaque nouvel arrêt infructueux à mesure que le nombre total augmente, comme dans le cas de la taxation progressive – pourrait aider à saisir les aspects plus diffus des préjudices des services de police. »
(Ibid., p. 4)

68Et il est indiqué en citation :

69

« Il s’agit de la méthode standard d’évaluation des montants théoriquement optimaux de l’impôt pour les acteurs qui produisent des externalités importantes, mais diffuses. Voir, par exemple, Cremer, Gahvari et Ladoux, “Externalities and Optimal Taxation”, Journal of Public Economics, 1997. »
(Ibid., p. 4)

70Hunchlab montre que ce procédé de régulation peut avoir une structure complexe. Si dans le cadre de deux contrôles routiers simultanés, par exemple dans l’espoir d’obtenir des informations sur les activités récentes des gangs dans une région, deux conducteurs sont également susceptibles de fournir des renseignements et d’être en possession d’une arme à feu, faut-il interroger le conducteur qui a fait l’objet de trois contrôles non fructueux au cours du dernier mois ou celui qui n’a pas été en contact avec la police depuis plus d’une année civile ? Une fois l’identité d’un conducteur connue, une machine pourrait inviter un agent à s’abstenir de procéder à un contrôle ou inversement, elle pourrait l’encourager, en fonction des préjudices subis. Dans les secteurs où l’exposition à l’activité policière est relativement importante en raison de problèmes de criminalité particuliers, un algorithme pourrait limiter les contacts de la police avec les publics en fonction de l’équilibre de la distribution des contrôles entre les territoires. Le livre blanc indique un exemple qui illustre bien comment une machine pourrait distribuer de manière équitable les préjudices de la police dans la population :

71

« Imaginez que deux agents, au cours d’une mission, s’apprêtent chacun à effectuer un contrôle routier. Un policier se trouve dans un quartier qui compte de nombreuses ressources policières en raison d’un problème de crimes violents et le nombre total d’interpellations est donc élevé. Le deuxième policier se trouve dans un quartier où les ressources policières sont limitées et le nombre total d’interpellations est donc beaucoup plus faible. Supposons que chaque contrôle routier réponde à la même infraction à la loi (par exemple le non-respect d’un feu rouge) et que chaque agent jouit donc du même pouvoir discrétionnaire pour émettre une contravention. Est-ce que l’agent dans le quartier où le taux d’arrestation est le plus élevé devrait émettre des procès-verbaux au même rythme que l’agent dans le quartier où le taux d’arrestation est plus faible ? Encore une fois, une réponse complète dépend de nombreuses variables, mais, toutes choses étant égales par ailleurs, nous pensons qu’il y a de solides arguments en faveur de procès-verbaux à un taux inférieur dans le quartier où le taux d’arrestation est le plus élevé, étant donné l’exposition relativement plus grande des résidents de ce quartier aux activités policières (pour des raisons sans rapport avec les contrôles routiers). Par conséquent, un système logiciel de suivi de la fréquence globale des contrôles pourrait éloigner les agents des quartiers qui connaissent un taux de procès-verbal élevé (du moins dans les limites du possible). »
(Ibid., p. 8)

72On le voit, le dosage des patrouilles procède par un contrôle algorithmique graduel qui limite de manière progressive le nombre de contrôles et de procès-verbaux qui lui est associé jusqu’à atteindre une sorte d’optimum de policing harms. Autrement dit, il s’agit d’optimiser de manière non linéaire la quantité de contrôle acceptable en temps réel. En collectant les données des contrôles routiniers, une machine possède un point de vue global sur la fréquence des contrôles policiers sur le territoire. Elle est donc une sorte d’intelligence morale qui, à un instant donné, connaîtrait les tendances du crime, la situation des ressources sur le territoire et la distribution du contrôle de personnes innocentes. Elle encourage la police à adopter un comportement en prenant en charge le calcul du seuil acceptable des nuisances de la police. Bien qu’il ne s’agisse que d’une proposition théorique et provisoire, le livre blanc d’Hunchlab laisse entrevoir les premières briques d’une solution opérationnelle au problème moral de la distribution du contrôle de la police dans une population donnée par la conduite de l’allocation optimale des ressources policières pour un moindre mal commun nécessaire.

73C’est donc une norme quantitative qui permet de rendre justice, corriger les comportements de la police et, partant, dire le droit à la protection contre les contrôles abusifs que garantit le Quatrième amendement. Prédire le crime, c’est intégrer des règles d’action dans le paramétrage des machines, plaçant dans le calcul la clé de l’harmonie sociale (Supiot, 2015).

Notes

  • [1]
    Cet article s’inscrit dans le cadre du projet de recherche INNOX (L’innovation dans l’expertise. Simulation et modélisation comme mode d’action publique) financé par le programme ANR Société Innovante (INOV2013).
  • [2]
    Nous avons déjà analysé dans un article précédent la manière dont les modèles prédictifs sont évalués par les scientifiques (Benbouzid, 2017).
  • [3]
    Si le Compstat a fait l’objet d’un nombre important de recherche en étude de l’innovation (Weisburd et Braga, 2009), en étude des usages de la cartographie du crime (Manning, 2008) et en sociologie de l’action publique (Jobard et Maillard, 2015), plus rares sont les travaux sociologiques à s’être attardés sur l’aspect « informatique » des techniques de quantification du Compstat, c’est-à-dire sur le développement des infrastructures de calcul et des systèmes informatiques qui leur sont associés. Analyser cet aspect du Compstat est une façon d’observer une dimension essentielle de la réforme de la police aux États-Unis qui s’appuie en grande partie sur la transformation de son système d’information. La plupart des travaux qui s’intéressent au Predictice policing s’intéressent moins à la dimension gestionnaire de la prédiction qu’aux nouvelles formes de surveillance qu’elle rend possibles (Brayne, 2017).
  • [4]
    Nous avons pu obtenir de nombreux documents relatifs aux développements de la plateforme Hunchlab : des articles de recherche non publiés, des supports de communication, les demandes de financement des différentes versions de la machine et les rapports techniques qui leur sont associés. Ce sont les demandes de financement qui nous ont permis de retracer les origines de la police prédictive dans le Compstat, car elles indiquent de nombreux éléments de contextes et de motivations. Si les documents relatifs à Predpol ont été obtenus en ligne, ce sont les développeurs d’Hunchlab qui nous ont livré lors de nos entretiens les éléments de compréhension du projet de Predpol.
  • [5]
    Pour enquêter sur Predpol, nous avons mené un entretien en 2013 auprès de Sean Malinowski, alors capitaine de police du secteur Foothill à Los Angeles et chef de projet du programme predictive policing, financé par le Bureau of Justice Assistance. C’est ce programme qui a permis la première expérimentation de Predpol. Nous avons également interrogé à Los Angeles le crime analyst du secteur de Foothill. C’est plus tardivement en 2016 que nous avons enquêté sur Hunchlab. Nous avons mené plusieurs entretiens avec Robert Cheetham et Jeremy Heffner, respectivement le fondateur de l’entreprise Azavea qui commercialise Hunchlab et le data scientist et chef de projet de la deuxième version d’Hunchlab.
  • [6]
    Bien qu’elles soient aujourd’hui commercialisées et largement diffusées à l’échelle internationale depuis 2011, les plateformes prédictives ont encore un statut expérimental dans les pratiques policières. Les métriques gestionnaires que nous observons ont été testées autour de 2015 pour Predpol et 2016 pour Hunchlab. L’usage gestionnaire des plateformes est apparu dans une seconde phase de développement des applications, après une première phase de commercialisation des plateformes essentiellement comme technologies prédictives. Les métriques gestionnaires sont apparues comme une manière de définir les usages des plateformes. C’est en ce sens que nous entendons la notion d’usage, et non pas dans celui de l’utilisation concrète de ces machines gestionnaires par les services de police. Il est trop tôt pour se prononcer sur l’épreuve du terrain pour cette dimension gestionnaire qui débute à peine. Bien que très bref sur le cas de Predpol, le travail de Brayne (2017) apporte une analyse des usages de la dimension prédictive de la plateforme par les policiers en patrouille à Los Angeles.
  • [7]
    Notons que la pratique des « quotas » de stop-and-frisk est officiellement interdite depuis la fin des années 1950, mais elle continue d’être pratiquée de manière informelle et implicite, en particulier dans le cadre du Compstat (Spitzer, 1999).
  • [8]
    Le stop-and-frisk est une méthode consistant à interpeller et à fouiller les citoyens dans la rue. C’est une catégorie qui permet spécifiquement d’identifier la pratique du contrôle routinier dans l’espace public. Nous l’appellerons « contrôle » dans la suite de l’article.
  • [9]
    La continuité entre la méthode du stop-and-frisk et la logique prédictive est directe. En effet, la définition de l’usage du stop-and-frisk est très proche de celle généralement attribuée à la police prédictive : « Stop-and-frisk is intended to reduce crime by affording officers the opportunity to apprehend criminals in action as well as by reducing the likelihood of future criminal actrivity » (La Vigne et al., 2014).
  • [10]
    Les boxes renvoient aux carrés rouges projetés sur la carte, c’est-à-dire la zone de 200 x 200 mètres où il est recommandé de patrouiller. Les développeurs d’Hunchlab utilisent un vocabulaire différent en les appelant « missions ».
  • [11]
    « Law enforcement agencies should adopt model policies and best practices for technology-based community engagement that increases community trust and access » (Final Report of the President’s Task Force on 21st Century Policing 2015).
  • [12]
    L’usage du crime harm index organise les priorités selon les critères de l’institution judiciaire. Hunchlab s’est inspiré de l’article de Sherman, Neyroud et Neyroud (2016). Plutôt que pondérer les risques a posteriori, les développeurs de Predpol développent actuellement une méthode qui intègre dans le calcul du risque le social harm comme une variable qui intervient dans la dynamique spatio-temporelle. Si les développeurs utilisent le vocabulaire du social harm, c’est en dollars que la variable est exprimée dans l’algorithme (Mohler, Carter et Raje, 2018).
  • [13]
    Notons que les retours d’expérience d’Hunchlab montrent que les polices ont tendance à manifester un intérêt plus grand pour les logiques de rentabilité économique – la mise en équivalence en dollars de l’activité policière – que pour la concertation auprès de la population.
  • [14]
    L’association de tutelle Leadership Conference on Civil Right a ainsi publié le 31 août 2016 une pétition, signée par dix-sept organisations non gouvernementales, dénonçant « les défauts systémiques, la partialité inhérente et le manque de transparence endémique de la police prédictive et des fournisseurs de produits qui lui sont associés » (la pétition n’est plus consultable en ligne). Plus récemment, des activistes ont manifesté pour appeler à l’arrêt immédiat des programmes de police prédictive à Los Angeles.
  • [15]
    Ce livre blanc en cours de préparation n’est pas accessible. Il est le fruit d’une collaboration entre Jeremy Heffner, le product manager et data scientist de la deuxième version d’Hunchlab, et Kiel Brennan-Marquez, un juriste du Georgetown University Law Center.
Français

Dans cet article, nous rentrons dans les détails du contenu des applications numériques de la police prédictive. Les machines prédictives sont des technologies morales de gouvernement. Elles servent non seulement à prédire où et quand les crimes sont susceptibles d’avoir lieu, mais aussi à réguler le travail de la police. Elles calculent des rapports d’équivalence, en distribuant de la sécurité sur le territoire, selon de multiples critères de coûts et de justice sociale. En retraçant les origines de la police prédictive dans le système du Compstat, nous observons le passage de machines à explorer des intuitions (le policier garde la main sur la machine) à des applications qui font disparaître la dimension réflexive de la proactivité, faisant de la prédiction le support de métriques de « dosage » de la quantité du travail de la police. Nous voyons enfin comment sous l’effet d’un mouvement critique dénonçant les biais discriminatoires des machines prédictives, les développeurs imaginent les techniques d’audit des données des bases d’apprentissage et les calculs de la quantité raisonnable de contrôle policier dans la population.

Mots-clés

  • compstat
  • police prédictive
  • prédiction du crime
  • cartographie du crime
  • sociologie des algorithmes
  • sociologie des sciences et des techniques
  • instrument de gouvernement

Références

  • BAMBAUER J. R. (2015), « Hassle », Michigan Law Review, vol. 113, n° 4, pp. 461-512.
  • BELLIN J. (2014), « The Inverse Relationship between the Constitutionality and Effectiveness of New York City “Stop and Frisk” », Boston University Law Review, n° 94, p. 1495-1550.
  • BENBOUZID B. (2017), « Des crimes et des séismes », Réseaux, n° 206, pp. 95-123.
  • BOUDIA S. (2014), « Gouverner par les instruments économiques. La trajectoire de l’analyse coût-bénéfice dans l’action publique », in PESTRE D., Le gouvernement des technosciences. Gouverner le progrès et ses dégâts depuis 1945, Paris, La Découverte, pp. 231-259.
  • BRANTINGHAM P. J. (2017), « The Logic of Data Bias and its Impact on Place-Based Predictive Policing », Ohio State Journal of Criminal Law, vol. 15, pp. 473-486.
  • BRANTINGHAM P. J., VALASIK M., MOHLER G.O. (2018), « Does Predictive Policing Lead to Biased Arrests ? Results From a Randomized Controlled Trial », Statistics and Public Policy, vol. 5, n° 1, pp.1-6.
  • BRATTON W., KNOBLER P. (2009), The Turnaround : How America’s Top Cop Reversed the Crime Epidemic, New York, Random House.
  • En ligneBRAYNE S. (2017). « Big Data Surveillance : The Case of Policing », American Sociological Review, vol. 82, n° 5, pp. 977-1008.
  • BRONSTEIN N. (2014), « Police Management and Quotas : Governance in the Comp Stat Era », Columbia Journal of Law & Social Problems, 2015, vol. 48, n° 4, pp. 543-581.
  • BRUNO I., DIDIER E. (2015), Benchmarking. L’État sous pression statistique, Paris, La Découverte.
  • CARDON D. (2015), A quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Le Seuil.
  • CHAINEY S., RATCLIFFE J. (2013), GIS and Crime Mapping, Hoboken, John Wiley & Sons.
  • CHEETHAM R. (2000), « Pattern Discovery Services, Part I : Developing a ‘Spike Detector’ for Finding Anomalous Activity in Large Crime Databases », presentation given at the 2000 Crime Mapping Research Conference, San Diego (December 2000).
  • En ligneDESROSIÈRES A. (2014), Prouver et gouverner. Une analyse politique des statistiques publiques, Paris, La Découverte.
  • DIDIER E. (2011), « Compstat » à Paris : initiative et mise en responsabilité policière », Champ pénal/Penal field, vol. VIII, mis en ligne le 13 avril 2015, http://journals.openedition.org/champpenal/7971 (consulté le 14 septembre 2018). doi :10.4000/champpenal.7971
  • En ligneDUSSAUGE I., HELGESSON C. F., FRANCIS L. (2015), Value Practices in the Life Sciences and Medicine, Oxford, Oxford University Press.
  • ECK J. E., WEISBURD D. (1995), Crime and place, New York, Criminal Justice Press.
  • ETERNO J. A., SILVERMAN E. B. (2012), The Crime Numbers Game. Management by Manipulation, Boca Raton, CRC Press.
  • FERGUSSON A. G. (2016), « Policing Predictive Policing », Washington University Law Review, 2017, vol. 94, n° 5, pp. 1109-1189.
  • « Final Report of the President’s Task Force on 21st Century Policing » (2015), http://elearning-courses.net/iacp/html/webinarResources/170926/FinalReport21stCenturyPolicing.pdf, consulté le 05/10/2018.
  • FOUCAULT M. (2004a), Naissance de la biopolitique. Cours au collège de France (1978-1979), Paris, Gallimard.
  • FOUCAULT M. (2004b), Sécurité, territoire, population. Cours au Collège de France (1977-1978), Paris, Gallimard.
  • GOLDSTEIN H. (1990), Problem-Oriented Policing, Philadelphia, Temple University Press.
  • En ligneGORR W., OLLIGSCHLAEGER A., THOMPSON Y. (2003), « Short-term forecasting of crime », International Journal of Forecasting, vol. 19, n° 4, pp. 579-594.
  • GROFF E. R., LA VIGNE N.G. (2002), « Forecasting the future of predictive crime mapping », in Analysis for Crime Prevention, Crime Prevention Series, vol. 13, New York, Lynne Rienner Publishers, pp. 29-57.
  • HARMON R. A. (2012), « The Problem of Policing », Michigan Law Review, 2012, vol. 110, n° 5, pp. 761-817.
  • HARMON R. A. (2015), « Federal Programs and the Real Costs of Policing », New York University Law Review, vol. 90, n° 3, pp. 871-960.
  • HEFFNER J., BRENNAN-MARQUEZ K. (2018), « Using data to reduce policing harms. A draft position paper about evolving place-based predictive policing systems to account for the produced harms of policing », Livre blanc non publié.
  • En ligneHOFMAN J., SHARMA A., WATTS D. (2017), « Prediction and explanation in social systems », Science, 2017, vol. 355, n° 6324, pp. 486-488.
  • HUQ A. (2016), « The Consequences of Disparate Policing : Evaluating Stop-and Frisk as a Modality of Urban Policing », Minnesota Law Review, 2017, vol. 101, pp. 2397-2480.
  • ISMAILI K. (2015), U.S. Criminal Justice Policy, Burlington, Jones & Bartlett Publishers.
  • En ligneJOBARD F., DE MAILLARD J. (2015), Sociologie de la police. Politiques, organisations, réformes, Paris, Armand Colin.
  • LA VIGNE N. G., LACHMAN P., SHEBANI RAO, MATTHEWS A. (2014), Stop and Frisk. Balancing Crime Control with Community Relations, U.S. Department of Justice-COPS.
  • En ligneLEVINE N. (2006), « Crime Mapping and the Crimestat Program », Geographical Analysis, vol. 38, n° 1, pp. 41-56.
  • En ligneLUM K., ISAAC W. (2016), « To predict and serve ? », Significance, vol. 13, n° 5, pp.14-19.
  • MANNING P. K. (2008), The Technology of Policing. Crime Mapping, Information Technology, and the Rationality of Crime Control, New York, New York University Press.
  • MANNING P. K. (2014), « Information Technology and Police Work », in G. BRUNINSMA, D. WEISBURD (Eds), Encyclopedia of Criminology and Criminal Justice, New York, Springer, pp. 2501-2513.
  • En ligneMOHLER G. O., SHORT M. B., MALINOWSKI S., JOHNSON M., TITA G. E., BERTOZZI A. L., BRANTINGHAM P. J. (2015), « Randomized Controlled Field Trials of Predictive Policing », Journal of the American Statistical Association, vol. 110, n° 512, pp. 1399-1411.
  • En ligneMOHLER G., CARTER, J., RAJEEV R. (2018), « Improving social harm indices with a modulated Hawkes process », International Journal of Forecasting, vol. 34, n° 3, pp. 431-439.
  • OLLIGSCHLAEGER A. M. (1998), « Artificial neural networks and crime mapping », in D. WEISBURD, T. McEWEN (Eds.), Crime Mapping, Crime Prevention, Crime Prevention Studies, New York, Criminal Justice Press, vol. 8, pp. 313-348.
  • PERRY W. L. (2013), Predictive Policing. The Role of Crime Forecasting in Law Enforcement Operations, Rand Corporation.
  • POLICE EXECUTIVE RESEARCH FORUM (2013), « Compstat : Its Origins, Evolution, and Future in Law Enforcement Agencies », https://www.ncjrs.gov/App/Publications/abstract.aspx?ID=265292 (consulté le 14 septembre 2018).
  • En lignePURENNE A., AUST J. (2010), « Piloter la police par les indicateurs ? », Déviance et Société, vol. 34, n° 1, pp. 7-28.
  • En ligneRATCLIFFE J. H. (2016), Intelligence-Led Policing, New York, Routledge.
  • ROBINSON D., LOGAN K. (2016), « Stuck in Pattern. Early evidence on “predictive policing” and civil rights », https://www.upturn.org/reports/2016/stuck-in-a-pattern/ (consulté le 14 septembre 2018).
  • ROSANVALLON P. (2015), Le Bon Gouvernement, Paris, Le Seuil.
  • SAMUELS L. (2014), « The effect of crime rate reduction on patrol officer time, an ROI analysis », http://www.predpol.com/wp-content/uploads/2015/03/ROI-Whitepaper.pdf (consulté le 14 septembre 2018).
  • SELBST A. (2017), « Disparate Impact in Big Data Policing », Georgia Law Review, vol. 52, pp. 109-195.
  • En ligneSHAPIRO A. (2017), « Reform Predictive Policing », Nature News, vol. 541, pp. 458-460.
  • En ligneSHERMAN L., NEYROUD P. W., NEYROUD E. (2016), « The Cambridge Crime Harm Index : Measuring Total Harm from Crime Based on Sentencing Guidelines », Policing. A Journal of Policy and Practice, vol. 10, n° 3, pp. 171-183.
  • SILVERMAN E. B. (1999), NYPD Battles Crime : Innovative Strategies in Policing, Boston, Northeastern University Press.
  • SKOGAN W. G. (2017), « La méthode du stop-and-frisk en tant que stratégie organisationnelle : leçons tirées à partir des exemples des villes de New York et Chicago », Les Cahiers de la sécurité et de la justice, n° 40, pp. 54-62.
  • SKOGAN W. G., HARTNETT S. M. (1999), Community Policing, Chicago Style, Oxford, Oxford University Press.
  • SPITZER E. (1999), The New York City Police Department’s Stop & Frisk Practices. A Report to the People of the State of New York from the Office of the Attorney General, New York, Civil Right Bureau.
  • SUPIOT A. (2015), La gouvernance par les nombres, Paris, Fayard.
  • THÉVENOT L. (2015), « Autorités à l’épreuve de la critique. Jusqu’aux oppressions du gouvernement par l’objectif », in B. FRÈRE, Le tournant de la théorie critique, Paris, Desclée de Brouwer, pp. 216-235.
  • WESIBURD D., BRAGA A. (2009), « La diffusion de l’innovation dans la police, Abstract ». Revue française de science politique, vol. 59, n° 6, pp. 1097-1126, https://doi.org/10.3917/rfsp.596.1097, consulté le 05/10/2018.
  • En ligneWEISBURD D., BRAGA A. A. (2006), Police Innovation. Contrasting Perspectives, New York, Cambridge University Press.
  • En ligneWEISBURD D., LUM C. (2005), « The Diffusion of Computerized Crime Mapping in Policing. Linking Research and Practice », Police Practice and Research, vol. 6, n° 5, pp. 419-434.
  • WHITE M. D., FRADELLA H. F. (2016), Stop and Frisk : The Use and Abuse of a Controversial Policing Tactic, New York, New York University Press.
Bilel Benbouzid
Université Paris-Est Marne-la-Vallée, LISIS
Dernière publication diffusée sur Cairn.info ou sur un portail partenaire
Mis en ligne sur Cairn.info le 16/11/2018
https://doi.org/10.3917/res.211.0221
Pour citer cet article
Distribution électronique Cairn.info pour La Découverte © La Découverte. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...