Kabinet: AI moet gelijke kansen bevorderen, geen ongelijkheid versterken
Kunstmatige intelligentie (AI) biedt kansen om de samenleving eerlijker te maken, maar er schuilen ook risico’s in. AI kan ongelijkheid versterken als we niet opletten. Dat benadrukt het kabinet in een reactie op Kamervragen van GroenLinks-PvdA, die vroegen naar de risico’s en mogelijkheden van AI vanuit een emancipatieperspectief.
Redactie PONT | Governance 10 juli 2025
Staatssecretarissen van Binnenlandse Zaken en van Onderwijs, Cultuur en Wetenschap leggen in hun antwoord uit hoe de overheid discriminatie via AI wil tegengaan. De inzet: AI gebruiken om juist gelijke kansen te bevorderen, niet om bestaande ongelijkheid te reproduceren.
AI: kans én risico voor emancipatie
AI kan krachtige tools bieden om bijvoorbeeld bias in sollicitatieprocedures of het onderwijs tegen te gaan. Maar dat vereist zorgvuldigheid. Want als AI getraind wordt op eenzijdige data – bijvoorbeeld waarin vooral mannen vertegenwoordigd zijn – ontstaan risico’s op (onbewuste) discriminatie. Zo wees OCW-onderzoek al op risico’s van AI voor de positie van lhbtqia+-personen.
Beleidsaanpak: bias voorkomen vanaf het ontwerp
Het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) heeft verschillende instrumenten ontwikkeld om genderbias en discriminatie in AI-systemen te voorkomen. Deze zijn bedoeld om zowel publieke als private organisaties te ondersteunen bij de verantwoorde ontwikkeling en toepassing van AI, met expliciete aandacht voor vooringenomenheid en discriminerende effecten.
De Handreiking non-discriminatie by design helpt organisaties om AI-systemen en algoritmen al in de ontwerpfase te toetsen op bias en discriminatie. Het principe van
non-discriminatie by design betekent dat risico’s niet pas achteraf worden aangepakt, maar vanaf het begin actief worden voorkomen.
De Impact Assessment Mensenrechten en Algoritmen (IAMA) is specifiek gericht op overheidsorganisaties en ondersteunt bij het inschatten van risico’s voor mensenrechten, waaronder discriminatie, bij de inzet van AI.
Het Algoritmekader voor de overheid biedt een overzicht van kaders, maatregelen en praktische hulpmiddelen om AI op een zorgvuldige, transparante en eerlijke manier in te zetten. Zowel de handreiking als het IAMA maken hiervan onderdeel uit.
Samen vormen deze instrumenten de kern van het overheidsbeleid voor een verantwoorde en inclusieve inzet van AI.
Ook op Europees niveau worden stappen gezet. De nieuwe AI-verordening verplicht aanbieders van zogeheten hoog-risico AI-systemen om datasets te toetsen op vooringenomenheid. Toezichthouders zoals de Autoriteit Persoonsgegevens en het College voor de Rechten van de Mens houden toezicht en kunnen ingrijpen bij signalen van discriminatie. Het College krijgt bovendien aanvullende bevoegdheden als aangewezen grondrechtenautoriteit onder deze verordening.
Kennis, bewustwording en praktijkervaring
De overheid investeert in kennisdeling en capaciteitsopbouw. Denk aan:
Cursussen als 'AI en ethiek' en ‘Non-discriminatie in algoritmes en data’,
Expertbijeenkomsten en werkgroepen met maatschappelijke organisaties en wetenschappers,
En praktische tools zoals het discriminatieprotocol voor AI.
Binnen de overheid is een community of practice Digitale ethiek actief, waarin ervaringen worden gedeeld en nieuwe inzichten ontstaan.
Nederlandse rol in Europa en de Nationale AI-fabriek
Nederland werkt nauw samen met andere EU-landen om ongelijkheid in AI-systemen tegen te gaan. Zo deelt ons land ervaringen met het IAMA en levert het input aan de Europese AI Board.
Binnen de geplande Nationale AI-fabriek wordt gewerkt aan transparante en eerlijke AI-toepassingen. Hier ontwikkelen experts AI-systemen die voldoen aan wetgeving en ethische standaarden – onder meer op het gebied van uitlegbaarheid en non-discriminatie.
De AI-fabriek krijgt ook een kenniscentrum waar experts uit techniek, recht en ethiek samenwerken. De overheid helpt daarbij door betrouwbare, representatieve en rechtenvrije data beschikbaar te stellen via platforms zoals data.overheid.nl en Statline.
AI en emancipatie horen bij elkaar
De aanpak van genderbias in AI maakt onderdeel uit van het bredere emancipatiebeleid van het kabinet. Daarin staan veiligheid en volwaardige deelname aan de samenleving voorop. Want of het nu gaat om onderwijs, werk of online veiligheid: AI mag geen extra obstakels opwerpen, maar moet juist bijdragen aan gelijke kansen voor iedereen.
Lees hier de hele Kamerbrief