18 november, 2025 | Auteur: Monica Lam | Trefwoord: engeland

Kunstmatige intelligentie actief ingezet in Engels asielbeleid

Het Verenigd Koninkrijk gaat kunstmatige intelligentie gebruiken om de leeftijd van asielzoekers te bepalen. Ook Nederland gebruikt en onderzoekt AI-technieken in het migratiebeleid. “Het moet ook een voordeel zijn voor de mensen om wie het gaat”.

Het Verenigd Koninkrijk gaat in 2026 kunstmatige intelligentie gebruiken om leeftijden van asielzoekers in te schatten. De techniek wordt toegepast op asielzoekers die aangeven minderjarig te zijn, maar waar twijfel over bestaat of dit wel zo is. Specifiek zal het gaan om de gezichtskenmerken van asielzoekers, zoals de ogen, neus, mond en jukbeenderen, die door AI beoordeeld zullen worden.

Beeld: Ron Lach, Pexels

De voormalig Britse minister voor Grensbeveiliging en Asiel Angela Eagle schreef in juli 2025 aan het Britse parlement: “Gezichtsleeftijdsschatting is waarschijnlijk de meest kosteneffectieve optie, waarbij AI-technologie – getraind op miljoenen afbeeldingen waarop de leeftijd van een persoon verifieerbaar is – in staat is om een leeftijdsschatting te maken met een bekende mate van nauwkeurigheid voor een persoon waarvan de leeftijd onbekend of omstreden is.”

Kritische rapporten

Leeftijdstesten voor minderjarige asielzoekers staan in het Verenigd Koninkrijk al een tijd onder druk. Dit als gevolg van een aantal kritische rapporten. Zo publiceerde David Bolt, de Britse hoofdinspecteur van grenzen en immigratie, een kritisch rapport over de ‘willekeurige manier’ waarop ambtenaren leeftijden van asielzoekers inschatten.

In het rapport staat dat de geestelijke gezondheid van jonge asielzoekers te lijden heeft door tekortkomingen in de huidige methode voor leeftijdsverificatie. Dit gaat vooral niet goed in Dover, de Britse kustplaats waar asielzoekers in kleine boten arriveren. Zij maken vanuit Frankrijk via het Kanaal de oversteek naar het Verenigd Koninkrijk.

Volgens Bolt zorgen de zware omstandigheden in deze ontvangstfaciliteit ervoor dat het moeilijk is om de leeftijden nauwkeurig in te schatten. Door de hoge toestroom maken ambtenaren overhaaste beslissingen, schrijft Bolt, en leeftijden die niet met zekerheid kunnen worden vastgesteld krijgen niet het voordeel van de twijfel. Ook worden er geen lessen getrokken uit latere beoordelingen.

‘Veel asielzoekers worden geconfronteerd met opdringerige en traumatiserende leeftijdstesten’

Verder schrijft Bolt in het rapport: “Veel van de zorgen over het beleid, die al langer dan tien jaar worden geuit, blijven onbeantwoord. Ik heb geluisterd naar jonge mensen die zich niet geloofd en afgewezen voelen door het ministerie van Binnenlandse Zaken. Hun hoop is de bodem ingeslagen en hun geestelijke gezondheid lijdt hieronder.”

Ook de Britse Refugee Council en universiteitsonderzoekers schreven kritische rapporten. In 2024 publiceerde het Britse Refugee Council een rapport waaruit blijkt dat in een periode van 18 maanden zeker 1300 kinderen ten onrechte als volwassenen waren aangemerkt.

Onderzoekers van de London School of Economics en de Universiteit van Bedfordshire publiceerden onlangs een rapport waarin zij oproepen om het Britse asielzoekerssysteem “met spoed te hervormen” om jonge asielzoekers beter te beschermen. “Veel asielzoekers worden geconfronteerd met opdringerige en traumatiserende leeftijdstesten, waarbij sommigen ten onrechte als volwassenen worden aangemerkt en in ongeschikte accommodaties voor volwassenen worden geplaatst”, schrijven de onderzoekers.

Risico’s van fouten in de techniek

Het Verenigd Koninkrijk wil met behulp van kunstmatige intelligentie de leeftijdsbepaling verbeteren. Maar ook deze AI-plannen krijgen de nodige kritiek. Zo vreest mensenrechtenorganisatie Human Rights Watch dat de technologie onbetrouwbaar is en jonge asielzoekers onterecht als volwassenen zal classificeren, wat hen kwetsbaar maakt voor uitzetting of detentie. Human Rights Watch wijst erop dat gezichtsstructuren sterk verschillen per etniciteit en achtergrond en dat kunstmatige intelligentie de context en nuance mist om deze verschillen te erkennen, wat de kans op fouten vergroot.

In een statement schrijft Human Rights Watch: “Het algoritme herkent patronen in het gezicht, maar herkent niet of kinderen er ouder uitzien als gevolg van trauma en geweld. Een algoritme kan niet plaatsen hoe ondervoeding, dehydratatie, slaaptekort en blootstelling aan zout water tijdens een gevaarlijke zee-overtocht het gezicht van een kind kan veranderen.”

Hoe gaat de techniek er uit zien? Het Verenigd Koninkrijk wil de techniek ‘Facial Age Estimation’ (FAE) toepassen. Deze techniek gebruikt de Britse overheid al om te controleren of personen op ‘adult websites’ minderjarig zijn. FAE analyseert gezichtskenmerken op basis van foto’s waarvan de leeftijd van een persoon al bekend is. De techniek identificeert een patroon op deze foto om te voorspellen hoe oud iemand is.

Tot 17 oktober 2025 konden bedrijven zich aanmelden via een aanbesteding. De techniek zal vervolgens getest worden via een pilot in asielzoekerscentra in Kent en Manchester. Volgens informatie uit de online aanbesteding zal het contract gelden vanaf 2 februari 2026.

Democratische controle

Roel Dobbe, docent en onderzoeker Data en Algoritmes bij Technische Bestuurskunde aan de TU Delft, houdt zich onder andere bezig met de integratie van AI en aansturingstechnieken. Volgens Dobbe biedt het systeem dat in Engeland gebruikt zal worden geen wetenschappelijke basis. “Het gaat om patroonherkenning, waar een score uitkomt tussen de 0 en 1. Vervolgens moet je een grens trekken tussen 0 en 1. Dus: wat als de score 65 procent is, is dit dan wel of geen minderjarige asielzoeker?”

Beeld: Roel Dobbe, TU Delft

Dobbe pleit voor complete transparantie bij zulke technieken. “Laat de Britse overheid verantwoorden wat de wetenschappelijke basis is om de afbeeldingen te trainen. Die data, waarmee het getest is, moet publiekelijk beschikbaar zijn. De analyses ervan moeten door allerlei partijen die er verstand van hebben bekeken en getoetst worden. Je wilt democratische controle, transparantie en begrip vanuit de maatschappij. Anders verlies je de legitimiteit van besluitvorming en ligt rechtenschending op de loer.”

Net zoals Human Rights Watch, waarschuwt Dobbe voor de risico’s: “Zodra je aspecten, zoals of iemand goed gevoed is of iemand in armoede heeft geleefd, overlaat aan patronen van gezichtsherkenning, dan verlies je de wetenschappelijke basis. Op die manier kunnen fouten erin sluipen, omdat de systemen niet goed interpreteerbaar zijn.”

“Het idee heerst bij overheden dat de technologie al meteen werkt”

Dobbe: “Het idee heerst bij overheden dat de technologie al meteen werkt. Dat door politieke druk zo snel mogelijk een oplossing kan komen. Je kan wel willen om binnen zo’n korte tijd een oplossing te implementeren, maar dat is onrealistisch. Je slaat daarmee de wetenschappelijke en bredere maatschappelijke toetsing van dit soort oplossingen over. Kan het wat je wilt, technisch gezien? En wat zijn de maatschappelijke, ethische en politieke consequenties? Die overhaaste beslissingen zagen we initieel ook in Nederland bij de corona-app. Je moet de tijd nemen voor toetsing en transparantie.”

AI in de Nederlandse asielprocedure

Ook in de Nederlandse asiel- en migratieketen worden AI-technieken gebruikt en onderzocht, blijkt uit een rondvraag onder de Immigratie- en Naturalisatiedienst (IND), het Centraal Orgaan opvang Asielzoekers (COA), de Dienst Terugkeer en Vertrek (DTenV) en het ministerie van Asiel en Migratie.

Het COA gebruikt GeoMatch bij statushouders. Dit is een tool om statushouders aan een gemeente te koppelen. Hierbij wordt gekeken welke arbeidsmarktregio’s het meest geschikt zijn voor statushouders om werk te vinden. Het COA baseert zich hierbij op data van het CBS: historische gegevens over in welke gemeenten statushouders zijn geplaatst en hun prestaties op de arbeidsmarkt worden gecombineerd met gegevens die het COA heeft over de statushouder, zoals herkomst, werkervaring en opleiding.

Uiteindelijk bepaalt niet het algoritme, maar een COA-medewerker waar een statushouder wordt geplaatst. Het algoritme geeft advies over de drie meest geschikte regio’s voor de statushouder. Een COA-medewerker kijkt vervolgens naar het advies, maar houdt ook rekening met waar een statushouder een sociaal netwerk heeft en waar zij zelf graag willen wonen. Als de COA-medewerker iets anders kiest dan het algoritme adviseert, dan noteert de medewerker dit met als doel om het algoritme te verbeteren.

Het algoritme wordt door het COA momenteel getest als pilot op negen COA-locaties.

Het algoritme wordt door het COA momenteel getest als pilot op negen COA-locaties. Het is ontwikkeld door de Immigration Policy Lab (IPL), waar wetenschappers van Stanford University en ETH Zurich bij betrokken waren. Het COA geeft aan dat zij het algoritme maandelijks controleren op de kwaliteit en snelheid van de adviezen, maar ook of er geen ‘onbedoelde effecten’ zijn, zoals vooroordelen of discriminatie. Voor deze controle gebruikt het COA gegevens over etniciteit en religie. Het COA benadrukt dat deze gegevens niet gebruikt worden voor de ontwikkeling van het algoritme.

TU Delft-onderzoeker Dobbe geeft ook hier aan dat democratische controle en transparantie belangrijk is. “Het moet ook een voordeel zijn voor de mensen om wie het gaat, maar dan moeten de belangen helder zijn en de technologie qua ontwikkeling en gebruik voldoen aan rechtsstatelijke normen zoals beginselen van behoorlijk bestuur. AI-systemen staan nog in de kinderschoenen. Je hebt een interdisciplinair team nodig die zulke technieken integraal kan toetsen, waarbij ook belangenhartigers van asielzoekers aan tafel zitten en een betekenisvolle rol spelen.”

CELIA-project

De IND maakt op dit moment geen gebruik van AI-toepassingen. Wel onderzoekt het in Europees verband of AI gebruikt kan worden bij taalanalyses van asielzoekers. Dit moet analyseren welke taal of dialect een asielzoeker spreekt om te achterhalen uit welk land de persoon afkomstig is. Dit Europese onderzoek heet het ‘CELIA-project’ (Common European Language Indication and Analysis).

“Automatische taalindicatie als onderdeel van het asielbeslisproces wordt bestempeld als een hoog risico toepassing”

Tot en met 2027 worden verschillende methodes onderzocht. “Of, en zo ja hoe en wanneer, automatische dialectherkenning zal worden ingezet in asielzaken zal pas worden bepaald als er voldoende inzicht is in de betrouwbaarheid en inzetbaarheid van zo’n tool. Automatische taalindicatie als onderdeel van het asielbeslisproces wordt bestempeld als een hoog risico toepassing van AI volgens de AI Verordening, en zal dus aan alle bijbehorende eisen moeten voldoen, waaronder op het gebied van transparantie, kwaliteit van data, menselijke supervisie, ingebouwde kwaliteitswaarborgen en ethisch en verantwoord gebruik”, aldus een IND-woordvoerder.

Ook het ministerie van Asiel en Migratie onderzoekt momenteel of zij AI kunnen toepassen. Onder andere om ambtenaren te ondersteunen in hun werk, zoals bij de beantwoording van Kamervragen via “slim zoeken naar relevante literatuur en transscripties van overleggen ten behoeve van het opstellen van het formele verslag van dat overleg”, schrijft een woordvoerder.

De DTenV geeft in een reactie aan geen gebruik te maken van AI en onderzoekt dit op dit moment ook niet.

Doneren

Door deze investering zorg ik ervoor dat de maker de volgende journalistieke productie realiseert.







Draag bij aan onafhankelijke makers

Onafhankelijke journalistiek begint bij makers die de tijd nemen om te luisteren, onderzoeken en verhalen menselijk te maken. Bij Small Stream Media staan die makers centraal: dichtbij, betrokken en vrij van commerciële druk. Met jouw bijdrage kunnen zij blijven publiceren, verbanden leggen en nieuwe stemmen laten horen. Je helpt eerlijke verhalen boven water te krijgen die anders onzichtbaar blijven. Draag bij aan onafhankelijke makers en bouw mee aan een platform waar kwaliteit, vertrouwen en impact voorop staan voor iedereen die betrokken is.