'Niet de tool, maar de koers': AI vraagt om fundamentele keuzes
Tijdens het afgelopen Risk & Compliance Jaarcongres was de rol van artificiële intelligentie (AI) in de compliance-sector een gespreksonderwerp dat veelvuldig terugkwam. Jolanda ter Maten, expert in digitale innovatie en auteur van het boek ‘From Buzz to Bizz: Your strategic guide in a complex world of emerging technologies’, sprak met ons over hoe de discussie rond AI zich verdiept. Niet langer draait het alleen om tools, maar steeds meer om fundamentele vragen over ethiek, organisatiecultuur en strategie.
Redactie PONT | Governance 19 juni 2025
Waar organisaties bij nieuwe technologieën vaak als eerste naar de nieuwste AI-tools kijken, ziet Ter Maten een verschuiving. De focus ligt niet meer uitsluitend op het ‘wat’, maar op het ‘waarom’ en ‘hoe’. AI wordt steeds vaker gezien als een kompas: het kan richting geven, maar de mens blijft verantwoordelijk voor de koers en eindbestemming.
Volgens Ter Maten is het essentieel dat organisaties niet starten met de vraag
welke tool ze willen inzetten, maar met de vraag
waarom ze AI überhaupt willen gebruiken. Welke problemen proberen ze op te lossen? Deze omkering in denken is volgens haar cruciaal voor succesvolle en ethisch verantwoorde toepassing van AI.
Van optimalisatie naar transformatie
Veel organisaties proberen AI toe te passen op bestaande processen, in de hoop dat deze efficiënter worden. Maar dat is volgens Ter Maten een gemiste kans. Technologieën als AI, cloud en blockchain bieden de mogelijkheid om processen fundamenteel opnieuw in te richten. Dat vereist loskomen van oude aannames en structuren, en vraagt om reflectie op het onderliggende doel van processen. “Je kunt bestaande processen niet simpelweg besprenkelen met AI, het vraagt om fundamenteel andere keuzes en het loslaten van oude denkkaders.”
De urgentie van AI ligt dan ook niet in de voordelen die het direct oplevert, maar in de risico’s van achterblijven. Wie te laat beweegt, loopt het risico irrelevant te worden, zoals eerder gebeurde met bedrijven die digitale transities niet op tijd doormaakten.
Governance als fundament
Een succesvolle inzet van AI vraagt om meer dan technologische kennis. Governance is de sleutel – het raamwerk van afspraken over datagebruik, verantwoordelijkheden en samenwerking. Ter Maten benadrukt dat AI niet alleen processen verandert, maar ook de onderliggende rollen en structuren binnen organisaties. Dat vraagt om herziening van wie toegang heeft tot welke data, welke partijen betrokken zijn en hoe verantwoording wordt afgelegd.
Daarbij komt dat AI ook nieuwe soorten data kan genereren, namelijk data die vooraf niet in beeld waren, maar wél beleidsmatige implicaties hebben. Zonder duidelijke governance ontstaan risico’s voor compliance, privacy en ethiek. AI is dan ook geen ICT-project, maar een strategisch organisatievraagstuk.
Bias en privacy: blinde vlekken in het AI-landschap
Een van de grootste risico’s bij het toepassen van AI in compliance is bias in de onderliggende data. Als een AI-systeem wordt getraind op bestaande gegevens waarin vooroordelen zitten – bewust of onbewust – kunnen deze worden gereproduceerd en zelfs versterkt. Dit kan leiden tot uitkomsten die discriminerend zijn of niet in lijn met wet- en regelgeving.
Ter Maten haalt een bekend voorbeeld uit de medische sector aan: een AI-model kon op basis van netvliesbeelden niet alleen diabetes voorspellen – iets wat artsen ook al konden – maar daarnaast ook het geslacht van een patiënt afleiden, iets wat menselijke onderzoekers niet uit die beelden kunnen halen. Dit illustreert hoe AI patronen en correlaties kan herkennen die voor mensen onzichtbaar zijn. Soms leidt dit tot ongewenste uitkomsten of
false positives, maar het kan ook juist nieuwe inzichten en wetenschappelijke doorbraken opleveren.
Juist omdat AI anders ‘kijkt’ dan mensen, is het belangrijk om kritisch te blijven op de uitkomsten: zijn ze relevant, wenselijk en juridisch toelaatbaar? AI die wordt getraind op bestaande, mogelijk bevooroordeelde data, kan onbedoeld discriminatie in stand houden. Bovendien kunnen AI-systemen op basis van onschuldige of niet-identificeerbare gegevens tóch personen herleiden, doordat het verbanden legt tussen datasets. Daarmee komt ook de AVG-compliance in het geding.
Ze stelt: “De techniek is al ver, maar wij als mensen zijn nog niet zover. We blijven de zwakste schakel.” De samenwerking tussen compliance officers en AI-officers wordt daarmee cruciaal. Juridische kennis en technologische kennis moeten hand in hand gaan.
AI-geletterdheid: meer dan een cursus prompt engineering
AI-geletterdheid – het vermogen om AI te begrijpen zonder zelf heel technisch onderlegd te zijn – is essentieel voor organisaties die met AI willen werken. Dat betekent snappen hoe AI met data omgaat, waar bias kan ontstaan, en wat de implicaties zijn voor besluitvorming.
Volgens Ter Maten zoeken organisaties niet meer alleen naar snelle oplossingen of basiscursussen in prompt engineering. Ze willen weten hoe AI echt werkt, wat de risico’s zijn en hoe ze als organisatie wendbaar kunnen blijven. Daarbij is ook aandacht nodig voor diversiteit in perspectieven, om blinde vlekken in data en modellen te voorkomen.
Een bijzondere zorg die Ter Maten noemt, is het zogeheten “
Chinese whisper effect”: AI-systemen die met elkaar communiceren zonder menselijke tussenkomst kunnen onbedoeld informatie vervormen. Menselijke controle en monitoring blijven dus noodzakelijk, ook als AI steeds autonomer wordt.
Van wetgeving naar werkelijkheid
Hoewel wetgeving zoals de NIS2-richtlijn en de EU AI Act richtinggevend zijn, loopt beleid vaak achter op de snelle ontwikkelingen in AI. Toch ziet Ter Maten in de AI Act aanknopingspunten voor organisaties om praktisch aan de slag te gaan. Een eerste stap is het vergroten van AI-geletterdheid, iets wat de EU inmiddels verplicht stelt.
Binnen overheden en publieke instellingen groeit de behoefte aan concrete handvatten voor het vormgeven van AI-beleid. Ter Maten merkt dit dagelijks in haar werk met uiteenlopende organisaties, van gemeenten en onderwijsinstellingen tot private partijen zoals KPN, BDO en verzekeraars. Ze begeleidt sessies voor onder meer de gemeenteraad van Blaricum, detacheringbureaus als Flexwise, compliance officers, juristen en overheidsinstanties zoals Defensie en de Belastingdienst.
De vraag waarmee deelnemers instappen is vaak praktisch: “Hoe maak ik een goede prompt in ChatGPT?” Maar gaandeweg verschuift het gesprek naar fundamentelere thema’s. Hoe gaan we als gemeente of instelling om met data? Wat betekent het als we beleid door AI laten analyseren en de burger dat straks ook doet?
Ook bij partijen als de Raad van State en de VNG is er interesse om deze vragen verder te verkennen. Ter Maten spreekt met hen over hoe AI-beleid niet abstract of juridisch moet blijven, maar juist praktisch en begrijpelijk moet zijn. “Geen dikke rapporten vol vage governance-taal, maar praktische inzichten die direct toepasbaar zijn in de dagelijkse beleidspraktijk.”