De Antwerpse politie meldt dat ze de komende twee jaar gaan onderzoeken of ze met slimme camera’s, dus camera’s met AI, de Joodse gemeenschap in Antwerpen beter kunnen beschermen. Bart De Wever noemde recent nog camera’s ‘de hoeksteen van zijn veiligheidsbeleid’.
Door zo sterk te focussen op technologie als de voornaamste manier om veiligheid te creëren, kan handig de aandacht afgeleid worden van het falen van het Antwerpse bestuur om de diepere oorzaken van de sociale problemen in Antwerpen aan te pakken. Enkel een rechtvaardig beleid dat tegemoetkomt aan álle bevolkingsgroepen zal ons uiteindelijk veiliger maken.
Politici nemen vaak kritiekloos de argumenten van de surveillance-industrie over, zonder volledig inzicht in wat de technologie wel of niet kan bereiken
Bezorgdheden rond antisemitisme zijn uiteraard terecht, zo signaleerde Kif Kif al naar aanleiding van de verkiezingen in juni. Sinds de aanval van Hamas, en de daaropvolgende genocidaire campagne van Israël in Palestina, is het antisemitisme in Europa sterk gestegen.
AI-surveillance versterkt racistische vooroordelen en discriminatie
We hebben daar inderdaad een doortastend beleid tegen nodig. Maar er is nog geen enkel onderzoek dat effectief heeft kunnen aantonen dat AI-camera’s helpen de veiligheid te waarborgen. Politici nemen vaak kritiekloos de argumenten van de surveillance-industrie over, zonder volledig inzicht in wat de technologie wel of niet kan bereiken.
Wat daarentegen wél vaak is bewezen is dat AI-surveillance racistische vooroordelen en discriminatie versterkt, en leidt tot meer etnische profilering. In de VS kocht bijvoorbeeld New Orleans gezichtsherkenningssoftware aan, om gezichten van verdachten te matchen met gezichten uit hun database, en zo verdachten te identificeren.
Uit onderzoek van Politico bleek dat de politie de software bijna exclusief toegepast had op mensen van kleur. De software bleek bovendien meestal geen match te vinden, maar was zelfs in de gevallen dat er wel een match was gevonden, de helft van de keren volledig fout. Foute identificaties gebeuren veel vaker bij mensen van kleur dan bij witte mensen en kunnen zeer concrete en ernstige gevolgen hebben. In Frankrijk werd een man onterecht tot achtien maanden celstraf veroordeeld, enkel op basis van foute identificatie door gezichtsherkenningssoftware.
‘Gedragsherkenning’-camera’s
De Antwerpse politie zou er waarschijnlijk op wijzen dat het in dit geval gaat om AI-camera’s die geen gezichtsherkenning doen, maar aan ‘gedragsherkenning’. Daarbij wordt de AI getraind om verdacht gedrag te herkennen, en niet persoonlijke en lichamelijke kenmerken, zoals het gezicht. Maar ook daar zijn vragen bij te stellen.
Wie bepaalt welk gedrag verdacht is? Zo wijst onderzoek van European Network Against Racism uit dat onschuldig gedrag van mensen van kleur door politie vaker wordt gecriminaliseerd, omdat de politie niet-witte etniciteiten associeert met misdaad
Want wie bepaalt welk gedrag verdacht is? Zo wijst onderzoek van European Network Against Racism (ENAR) uit dat onschuldig gedrag van mensen van kleur door politie vaker wordt gecriminaliseerd, omdat politie niet-witte etniciteiten associeert met misdaad. Omdat AI leert uit de omgeving waarin deze zich bevindt, zal het deze tendens alleen maar versterken.
Daar komt nog bij dat mensen geen inzicht hebben over de exacte manier waarop AI leert en besluiten neemt. Misschien denken we wel dat de AI niet let op bijvoorbeeld iemands huidskleur bij het markeren van verdacht gedrag, maar we kunnen daar nooit helemaal zeker van zijn. Dat leidt tot een gebrek aan transparantie bij het nemen van belangrijke beslissingen over de openbare veiligheid.
De zogenaamde ‘absolute noodzaak’ van AI-camera’s
Nieuwe surveillance maatregelen worden door overheden, politie en bedrijven vaak gelegitimeerd door deze te framen als een absolute noodzaak op een dringende kwestie waar niemand op tegen kan zijn. Eenmaal het gebruik ervan is genormaliseerd, wordt de technologie uitgebreid en toegepast in andere situaties.
In Antwerpen wordt de technologie voorgesteld door te argumenteren dat dit de Joodse gemeenschap beter zal beschermen. Maar de Antwerpse politie meldde al in haar persbericht dat op termijn de technologie ingezet zou kunnen worden op andere ‘gevoelige locaties’ in Antwerpen.
Een lovenswaardig doel, namelijk het beschermen van de Joodse gemeenschap, wordt dus gebruikt als aanzet om een quasi-Orwelliaanse stad te creëren waar burgers constant gecontroleerd worden door camera’s op verdacht gedrag. Onderzoek wijst daarbij uit dat in de praktijk het telkens gemeenschappen van mensen in armoede en mensen van kleur zijn die het meeste geviseerd worden door dergelijke surveillance.
Wat de focus op technologie verbergt
De vraag is uiteindelijk wat de overmatige focus op technologische oplossingen uit het zicht onttrekt. Voor politici is het makkelijker om technologie naar voren te schuiven als antwoord, dan om een consistent beleid te voeren dat de diepere oorzaken van sociale problemen en spanningen aanpakt.
De uitgesproken en eenzijdige steun van de N-VA aan Israël, ondanks dat het Internationaal Strafhof onlangs een arrestatiebevel voor Netanyahu en Gallant uitvaardigde, en dat Amnesty International officieel stelt dat Israël genocide pleegt, giet in deze context olie op het vuur.
Voor politici is het makkelijker om technologie naar voren te schuiven als antwoord, dan om een consistent beleid te voeren dat de diepere oorzaken van sociale problemen en spanningen aanpakt
Een goed veiligheidsbeleid erkent daarentegen de wederzijdse spanningen die uit deze situatie voortkomen en zet in op dialoog tussen de verschillende Joodse en niet-Joodse gemeenschappen. Zo geven verschillende stemmen binnen de Joodse gemeenschap aan dat het net het gelijkstellen van Joodse mensen met Israël en zijn politiek project is dat hen in gevaar brengt.
Er is nood aan een stadsbestuur dat universele mensenrechten verdedigt
Er is dus nood aan een stadsbestuur dat universele mensenrechten verdedigt en uitgaat van de gelijkheid van de verschillende gemeenschappen in de stad en deze actief bevordert, zonder stigmatisering en criminalisering van één bepaalde bevolkingsgroep. In plaats daarvan voert het Antwerpse bestuur steevast een repressief veiligheidsbeleid dat het gevoel van controle, wantrouwen en onbehagen alleen maar aanwakkert.
Om effectief álle burgers te beschermen, is er dus nood aan politieke keuzes die de eigen dogma’s in vraag stellen. Maar dat vraagt meer politieke wil en ambitie dan nieuwe camera’s te installeren in de straten. Het zal uiteindelijk aan de Antwerpse burgers, oppositie en middenveld zijn om onze vrijheden te bewaken, en een tegengewicht te vormen tegen beleid dat ongelijkheid en racisme versterkt.
Afbeelding CC Young-Chan Lee et al.
Over de auteur:
Igor Živković heeft een master in de sociaal-economische wetenschappen behaald aan de Universiteit Antwerpen, en specialiseerde nadien in ontwikkelingssamenwerking en milieurechtvaardigheid. Hij heeft onderzoek gedaan naar het discours van radicaal-rechts rond klimaatverandering en naar gender- en klimaatongelijkheid. Sindsdien heeft hij zich toegelegd op storytelling. Igor werkt momenteel als beleidsmedewerker voor Kif Kif rond online racisme, met een nadruk op AI, data en racisme.