Predictive policing is een technologiegedreven aanpak waarbij algoritmes en big data worden ingezet om criminaliteit te voorspellen en te voorkomen. Hoewel het klinkt als een efficiënte manier om veiligheid te vergroten, roept het ook fundamentele vragen op over privacy, discriminatie en uitvoerbaarheid. In deze blog duiken we in hoe predictive policing werkt, hoe het in Nederland wordt toegepast, en waar de ethische en juridische grenzen liggen.
Wat is predictive policing?
Predictive policing gebruikt historische gegevens, zoals misdaadcijfers, locatie-informatie en zelfs persoonlijke kenmerken, om te voorspellen waar en wanneer criminaliteit waarschijnlijk zal plaatsvinden. Er zijn twee hoofdvormen:
- Plaatsgebonden voorspellingen: zoals het Nederlandse CAS-systeem (Criminaliteit Anticipatie Systeem), dat risicogebieden identificeert op basis van eerdere incidenten.
- Persoonsgebonden voorspellingen: waarbij individuen worden geanalyseerd op basis van risicofactoren zoals eerdere arrestaties, gedragspatronen of zelfs medische gegevens.
Hoe werkt het in Nederland?
Sinds 2014 experimenteert de Nederlandse politie met predictive policing, waaronder het CAS-systeem en het controversiële Sensing Project in Roermond. In dit laatste project werden voertuigen gescoord op basis van kenmerken zoals herkomstland en bestemming, wat leidde tot massasurveillance en etnisch profileren
De ethische en juridische grenzen
Hoewel predictive policing potentie heeft, zijn er serieuze bezwaren:
1. Privacy en datagebruik
Het verwerken van gevoelige persoonsgegevens, zoals etniciteit of medische geschiedenis, staat op gespannen voet met privacywetgeving. De AVG (Algemene Verordening Gegevensbescherming) biedt bescherming, maar is niet altijd toereikend voor groepsgerichte analyses
2. Discriminatie en bias
Algoritmes zijn niet neutraal. Ze worden gevoed door data die vaak al bevooroordeeld zijn. Dit kan leiden tot discriminerende risicoprofielen, vooral voor kwetsbare groepen die oververtegenwoordigd zijn in politiedata
3. Transparantie en verantwoording
Veel AI-systemen zijn zelflerend en ondoorzichtig. Het is vaak niet duidelijk waarom een systeem een bepaalde voorspelling doet. Dit maakt het moeilijk om beslissingen te controleren of aan te vechten
4. Uitvoerbaarheid
Zelfs als een systeem tientallen risicopersonen identificeert, is het praktisch onmogelijk om daar effectief op te reageren. Politiecapaciteit en operationele haalbaarheid worden vaak over het hoofd gezien
Wat zegt de wet?
Nederland kent nog geen specifieke wetgeving voor predictive policing. Wel pleiten organisaties zoals Amnesty International voor:
- Een bindende mensenrechtentoets bij het gebruik van algoritmes.
- Een verbod op het gebruik van etniciteit en nationaliteit in risicoprofielen.
- Een onafhankelijke algoritmetoezichthouder met bindende adviezen.
Conclusie: Waar ligt de grens?
Predictive policing kan bijdragen aan een veiliger samenleving, maar alleen als het transparant, verantwoord en mensgericht wordt ingezet. De grens ligt daar waar technologie de rechten en waardigheid van burgers begint te ondermijnen. Het is aan beleidsmakers, onderzoekers én burgers om die grens scherp te bewaken.