Wanneer je gezicht een open boek is dat de politie (niet) kan lezen

Lotte
De Graeve

 

Wat/wet na Zaventem?

Live facial recognition (LFR) is de technologie die op basis van bewegende camerabeelden onze gezichten kan identificeren. Ze wordt ontwikkeld door private bedrijven en verkocht aan particulieren en publieke overheden. Na een interventie van het Controleorgaan op de Politionele Informatie (COC) op de luchthaven van Zaventem, waar de technologie na de aanslagen van 2016 werd ingezet om over de veiligheid te waken mag de politie LFR niet gebruiken wegens een gebrek aan een juridische rechtsgrond hiervoor.

Zowel op nationaal als op Europees niveau zijn er momenteel wetsvoorstellen voor een rechtsgrond, die LFR verbiedt, dan wel toestaat. Op basis van een onderzoek van de federale politie naar de technologie wil Minister Verlinden wetgeving opstellen die het gebruik van de technologie uitbreidt “naar alle kritieke infrastructuren”.

Deze thesis bespreekt de argumenten in de discussie rond wenselijkheid van de technologie en onderzoekt de mogelijkheden om een wettelijk kader op te stellen dat mensenrechtenschendingen vermijdt.

Enkele mensenrechtelijke risico’s

Stel je voor: je loopt in je pyjama even naar de nachtwinkel voor een zakje chips om een avondlijke sneukelcraving te voldoen. Op weg daarnaartoe word je door verschillende camera’s gefilmd en je gezicht wordt geanalyseerd. Worden hierdoor jouw mensenrechten en die van andere nachtelijke voorbijgangers geschonden?

In eerste instantie lijkt het mensenrecht op privacy en gegevensbescherming in het gedrang te komen. LFR analyseert immers op elk moment de gezichten van alle voorbijgangers, zonder dat die personen per se worden verdacht van een misdrijf. Bovendien herkent LFR nog erg veel mensen verkeerd, waardoor onschuldigen verdacht worden en schuldigen niet worden opgemerkt.

Ten tweede komen door een inperking op privacy ook andere mensenrechten in het gedrang. Zo vormt de massale verwerking van persoonsgegevens met LFR mogelijk een inbreuk op het recht op een eerlijk proces. Ieders gezicht wordt immers systematisch geanalyseerd en zo wordt men steeds als verdachte beschouwd, wat ingaat tegen het vermoeden van onschuld. Omdat burgers steeds transparanter worden voor de overheid, maar diens algoritmes ontransparant blijven, wordt het voor de betrokkene moeilijk om diens onschuld te bewijzen.

Naast het recht op een eerlijk proces bestaat er ook een risico op een inbreuk op het recht op vrijheid van meningsuiting. Doordat personen schrik hebben voor negatieve consequenties gekoppeld aan een positieve match van hun gezicht met een database van de politie zijn ze waarschijnlijk geneigd minder snel op straat te komen om bijvoorbeeld te protesteren.

Een laatste risico bestaat voor het recht op non-discriminatie: niet alleen staat LFR nog niet op punt waardoor zwarte vrouwen bijvoorbeeld erg slecht worden herkend, ook het gebruik van de technologie vormt mogelijke risico’s voor discriminatie. Zo wordt LFR in Europese buurlanden voornamelijk gebruikt bij grenscontroles op luchthavens om personen die onwettig de grens oversteken te viseren.

Proportioneel gebruik van LFR?

Het blijkt een moeilijke klus te beoordelen of de inbreuk op je  mensenrechten tijdens je nachtelijke wandeling wordt gerechtvaardigd door hogere belangen, zoals maatschappelijke veiligheid. In het kader van mijn masterproef was het dan ook geenszins de bedoeling zomaar een oplossing op te dringen. Op basis van literatuuronderzoek en interviews met een erg heterogene groep experten trachtte ik een overzicht te bieden van de huidige problematieken die de creatie van een proportioneel wetgevend kader voor LFR belemmeren en formuleerde ik enkele vraagstukken die richting kunnen geven aan het ruimere debat.

Ten eerste wordt “privacy” beschermd door verschillende rechtsinstrumenten. Zo willen zowel het recht op eerbiediging van ons privéleven als het recht op de bescherming van persoonsgegevens onze privacy beschermen, maar wordt elk recht geregeld door verschillende rechtspraak, verordeningen en wetten (zoals de inmiddels befaamde “GDPR” of General Data Protection Regulation). Op deze manier ontstaat verwarring over de inhoud van “privacy”: traditioneel kent dit een individuele invulling, maar door nieuwe technologieën die massaal persoonsgegevens verzamelen, ontstaat een risico van “massa surveillance” dat een collectieve invulling van privacy lijkt te vereisen. Door deze verschillende interpretaties van privacy is erg onduidelijk hoe een inperking ervan best wordt beoordeeld. De vraag is hoe men een begrip van privacy formuleert dat alle risico’s van LFR omvat.

Ten tweede blijkt het zowel juridisch als wetenschappelijk erg moeilijk om de precieze proportionaliteit van een inbreuk te meten. Zo moet men beslissen welke misdrijven “zwaar” genoeg zijn om op te wegen tegen mensenrechteninbreuken. Hier bestaat een risico op function creep: als de technologie reeds wordt toegepast in éen situatie, wordt het al snel ook in andere situaties gebruikt, die niet noodzakelijk bij wet voorzien en proportioneel zijn. Ook blijkt het moeilijk te bewijzen dat de toepassing van LFR effectief zou leiden tot een veiligere samenleving: hoe beoordeelt men immers “veiligheid”? Dit begrip heeft verschillende invullingen en de methode om de “effectiviteit” van bewakingscamera’s te meten is erg betwist. Voor bestaande camera’s, zoals de “gewone” CCTV en ANPR (nummerplaatherkenning) bestaat geen bewijs dat ze effectief zijn om criminaliteit te voorkomen. Het lijkt bijgevolg belangrijk om een omvattende proportionaliteitstoets op te stellen die het mogelijk maakt de potentiële voor- en nadelen van LFR af te wegen.

Ten derde rijst de vraag of en hoe een proportionaliteitsbeoordeling de ontwikkeling van LFR door private bedrijven hierbij in rekening moet nemen. Momenteel valt de ontwikkelaar immers buiten het bestaande privacykader en moet deze dus juridisch niet voldoen aan privacygaranties. In de ontwikkelingsfase gebeuren echter reeds inperkingen op privacy, die gevolgen kunnen hebben voor het uiteindelijke gebruik van de technologie. Zo wordt het algoritme van LFR vaak getraind op basis van een database van gezichten van personen die daar niet van op de hoogte zijn. Een gebrek aan diversiteit in zo’n dataset heeft dan weer gevolgen voor de (on)nauwkeurigheid waarmee LFR gezichten analyseert. Het lijkt dan ook aangewezen om private ontwikkelaars die LFR ontwikkelen juridisch verantwoordelijk te houden voor inbreuken op privacy, de vraag is alleen hoe precies.

Enkel wanneer men deze vraagstukken beantwoordt, lijkt het mogelijk om een proportionaliteitsbeoordeling te maken van het gebruik van LFR. Dat lijkt nodig om te bepalen of en welk concreet gebruik van LFR wenselijk is in een democratische samenleving.

Download scriptie (392.8 KB)
Universiteit of Hogeschool
Universiteit Gent
Thesis jaar
2021
Promotor(en)
Prof. Eva Brems, Eline Kindt