Waarom pleit de Liga voor een verbod op gezichtsherkenningstechnologie in de openbare ruimte?
27 januari 2025
Een deel van de AI-Act, de Europese verordening over artificiële intelligentie, treedt op 2 februari in werking. De verordening verbiedt het gebruik van deze technologie in de openbare ruimte, maar voorziet in enkele uitzonderingen. Het is aan elke lidstaat om eigen wetgeving aan te nemen over deze uitzonderingen. Liga voor Mensenrechten en la Ligue des droits humains pleiten voor een totaalverbod op gezichtsherkenning in België. Hiermee kan België een dam opwerpen tegen de verdere uitholling van onze fundamentele rechten.
De AI Act is een Europese verordening die de ontwikkeling en het gebruik van AI-systemen regelt. Daarnaast geeft de wet rechten aan burgers die in aanraking komen met AI-systemen. Het doel van de wet is dat AI-systemen die organisaties gebruiken binnen de Europese Unie veilig zijn en onze fundamentele rechten respecteren. AI-systemen worden onderverdeeld in verschillende risicocategorieën. Afhankelijk van de categorie gelden striktere of lossere regels. Het real-time inzetten van gezichtsherkenningstechnologie valt onder de categorie van verboden praktijken, mits enkele uitzonderingen. De bepalingen die onder deze verboden categorie vallen, treden in werking vanaf 2 februari 2025.
1. Gezichtsherkenning in de strijd tegen criminaliteit? Een slippery slope.
Misdaad- en terrorismebestrijding worden vaak door de autoriteiten aangehaald om een lans te breken voor gezichtsherkenning. Deze redenering werd, onder invloed van lobbywerk door overheden en Big Tech, doorgetrokken in de AI Act. Ondanks het uitgangsprincipe van een verbod, laat de Verordening immers ruimte voor lidstaten om gezichtsherkenning toe te passen in een beperkt aantal situaties. Bij real-time gezichtsherkenning gaat het onder meer over de preventie van een terreuraanslag of het opsporen van een verdachte van strafbare feiten, zoals milieucriminaliteit of sabotage. De vaagheid van deze uitzonderingen brengt echter grote risico’s met zich mee. Zo omvat de definitie van ‘milieucriminaliteit’ zowel grootschalige illegale praktijken als kleine overtredingen, zoals sluikstorten. Bij sommige politici lijkt de wens om gezichtsherkenning zelfs voor kleine vergrijpen in te zetten duidelijk aanwezig. Zo opperde Vooruit-voorzitter Conner Rousseau onlangs nog om gezichtsherkenning in te zetten als maatregel tegen sluikstorten.
Ook bij het misdrijf terrorisme bestaat een reëel risico op disproportionele verschuivingen. Zo riep Vlaams Belang in november op om bewegingen zoals Black Lives Matters en Exctintion Rebellion toe te voegen aan de Belgische lijst van terreurorganisaties. Daarbij baart de groeiende criminalisering van het recht op protest en acties van burgerlijke ongehoorzaamheid ons zorgen in deze context. De dreiging en angst die surveillance met zich meebrengen, zal dus het chilling effect voor activisten die hun rechten uitoefenen alleen maar vergroten.
In België worden huidige bewakingstechnologieën nu al steeds breder verspreid en steeds vaker toegepast in situaties waarvoor ze oorspronkelijk niet waren bedoeld. Zo werden bewakingscamera’s in de Joodse wijk van Antwerpen geïnstalleerd om een terroristische aanslag te voorkomen. Deze werden later door de politie aangewend om na te gaan of de coronamaatregelen in dezelfde wijk werden nageleefd. Een ander voorbeeld betreft de ANPR-camera’s. De Antwerpse politie ontsloeg één van hun agenten toen bleek uit beelden gemaakt door ANPR-camera's dat hij sjoemelde met zijn fietsvergoeding.
Uitzonderingsgronden moeten dus kritisch worden benaderd. De definities van deze misdrijven zijn immers rekbaar en bieden zelden een solide kader dat een beperkt gebruik van gezichtsherkenning zou toelaten.
2. Misbruik van referentiedatabanken
Gezichtsherkenningstechnologie werkt op basis van databanken waarin persoonsgegevens worden opgeslagen en geanalyseerd. In België staat momenteel één op drie burgers in de Algemene Nationale Gegevensbank (BNG). De Controlecommissie voor Politiegegevens (COC) heeft in meerdere rapporten vastgesteld dat politieagenten deze databanken regelmatig onrechtmatig raadplegen. Dit roept ernstige vragen op over privacy en misbruik. Bovendien worden historisch gemarginaliseerde groepen, zoals mensen met een migratieachtergrond of daklozen, veel vaker geregistreerd in deze databanken. De invoering van gezichtsherkenning dreigt deze privacy problemen en ongelijkheden verder te vergroten.
3. Een feilbare technologie met grote consequenties
De doeltreffendheid van gezichtsherkenningstechnologie is relatief omdat ze gepaard gaat met fouten en misbruik. In het Verenigd Koninkrijk wordt gezichtsherkenning sinds 2016 gebruikt. Drie jaar later bleek uit een eerste onafhankelijk onderzoek van twee onderzoekers aan de Universiteit van Essex naar het gebruik van gezichtsherkenning door de Londense politie dat 80% van de verdachten die door gezichtsherkenningssoftware werden gemarkeerd in werkelijkheid onschuldig waren. Aan de hand van het systeem werden regelmatig personen ten onrechte geïdentificeerd, met alle mogelijke sociale en juridische gevolgen van dien.
De vraag is of foutenmarges, zelfs al zouden die verkleinen in de toekomst, ooit gerechtvaardigd zijn gelet op de verregaande gevolgen voor betrokken individuen. Een nauwkeurigheidspercentage van 99% lijkt op het eerste gezicht positief. Toch heeft een foutenmarge van 1% verregaande gevolgen voor de betrokken personen.
Bovendien staat vast dat die gevolgen vooral kwetsbare groepen zal treffen. Een van de meest problematische aspecten van gezichtsherkenning is de kans op een discriminerend effect aangezien de meeste software aanvankelijk ‘gevoed’ werd met gegevens die niet representatief zijn voor de gehele samenleving. Bovendien zal de impact van gezichtsherkenningstechnologie ongetwijfeld groter zijn bij groepen in onze samenleving die vandaag al vaker geviseerd en geprofileerd worden. Meer specifiek zijn dit mensen op de vlucht, mensen van de LGBTQI+-gemeenschap, geracialiseerde minderheden, daklozen.
4. Een onomkeerbare dreiging voor de toekomst
Gefilmd en gecontroleerd worden in de openbare ruimte is een inbreuk op de privacy en de individuele vrijheid. Vanuit dat perspectief moeten we een uitbreiding van surveillancetechnologie ook beoordelen in het licht van politieke ontwikkelingen. Radicale en autoritaire partijen winnen terrein, zowel in België, als op het wereldtoneel. De vraag rijst wat er met deze technologieën gebeurt als ze in handen vallen van een dergelijk regime. De geschiedenis toont immers aan dat eens een surveillance-infrastructuur is opgezet, deze moeilijk terug te draaien is.
De AI Act laat toe dat lidstaten gezichtsherkenning strenger regelen, inclusief verbieden zonder uitzonderingen. Onlangs waarschuwden ook KULeuven-onderzoekster Sofie Royer voor overhaaste beslissingen en het belang van een breed maatschappelijk debat. Liga voor Mensenrechten en Ligue des Droits Humains roepen het federaal parlement op om een dergelijk democratisch debat mogelijk te maken. Hierbij moeten specialisten, maar ook het maatschappelijk middenveld en de gemeenschappen die door surveillancetechnologieën worden getroffen, betrokken worden om de vele inherente gevaren van deze systemen bloot te leggen. Enkel zo kan men garanderen dat technologie wordt ingezet in dienst van mensen en hun rechten, eerder dan tegen hen.
Lees hier onze nota over gezichtsherkenningstechnologie en de bijhorende gevaren.
Reacties worden gemodereerd. Onaanvaardbare inhoud wordt niet gepubliceerd.