Vergunningstrajecten, subsidies, toezichtdossiers en zorgindicaties produceren meer data dan een gemiddeld beleids- of uitvoeringsteam kan overzien. AI kan dossiers prioriteren, scenario’s doorrekenen en inconsistenties signaleren, zodat besluiten beter onderbouwd worden. Toch blijven rechtmatigheid, motiveringsplicht en democratische verantwoording onverminderd gelden. Zonder een expliciete rolverdeling tussen mens en AI vervagen verantwoordelijkheden en kan bias onopgemerkt in besluiten sluipen.
Rechtspraak (SyRI, Toeslagen), de EU AI Act en guidance van de Autoriteit Persoonsgegevens laten zien dat de overheid alleen augmented intelligence mag toepassen wanneer menselijke beheersing aantoonbaar is. AI adviseert dus; de bevoegde medewerker of bestuurder neemt het besluit en kan dat motiveren. Deze whitepaper biedt een concreet raamwerk om AI-beslissingsondersteuning te ontwerpen, inclusief governance, transparantie, controleprocessen en accountability richting bestuur, toezichthouders en burgers.
De kern van AI-beslissingsondersteuning in de Nederlandse overheid is dat algoritmen de analyse versnellen en patronen zichtbaar maken, terwijl de formele bevoegdheid en eindverantwoordelijkheid altijd bij de menselijke besluitvormer blijven. Dat vraagt om een expliciet ontwerp van het besluitvormingsproces: AI levert een voorstel, scenario of risicoscore, waarna een medewerker of bestuurder met mandaat bewust beslist of dit advies wordt gevolgd, genuanceerd of juist afgewezen, en dit vervolgens motiveert. In de praktijk betekent dit dat AI vooral wordt ingezet om grote aantallen dossiers te prioriteren, inconsistenties en ontbrekende informatie te signaleren en beleids- of budgetscenario’s door te rekenen, terwijl gevoelige of complexe zaken standaard door een mens worden beoordeeld en vastgelegde drempels voorkomen dat AI autonoom juridisch bindende besluiten neemt. Tegelijkertijd moet uitlegbaarheid vanaf de start worden meegenomen: ieder advies moet kunnen worden teruggevoerd naar begrijpelijke factoren, zodat juristen, bezwaar- en beroepsinstanties, interne audit, toezichthouders en politiek bestuur kunnen nagaan waarom in een concreet dossier of een beleidsbesluit een bepaalde richting is gekozen. Door AI-analyses te combineren met een helder menselijk beslismoment, risicogebaseerde automatisering en robuuste logging ontstaat een betrouwbaar raamwerk voor augmented intelligence dat aansluit op eisen uit de AVG, de EU AI Act, de Nederlandse Baseline voor Veilige Cloud en de verwachtingen van burgers rond transparante overheid.
Wie AI voor beslissingsondersteuning inzet zonder een uitgewerkte beslislog, creëert direct risico’s rond rechtmatigheid, bezwaar en politieke verantwoording. Maak daarom van de beslislog een verplichte, geautomatiseerde stap in ieder proces waarin AI-adviezen een rol spelen. In het dossier of het zaak- of casemanagementsysteem wordt vastgelegd welke gegevens de AI heeft verwerkt, welke versie van het model of de promptconfiguratie is gebruikt, welke uitkomst of risicoscore is gegenereerd en welke menselijke functionaris het advies heeft beoordeeld. Die functionaris noteert beknopt op basis van welke juridische kaders, beleidsregels en aanvullende informatie de uiteindelijke beslissing tot stand is gekomen en waarom eventueel van het AI-advies is afgeweken. Door deze beslislog te koppelen aan centrale governance-instrumenten, zoals Purview voor dataclassificatie en logging, een Evidence Library voor auditbewijslast en rapportages aan het bestuur, wordt het eenvoudig om achteraf aan te tonen dat de mens daadwerkelijk in de lus bleef, dat bias- en proportionaliteitsafwegingen zijn gemaakt en dat besluiten consistent worden gemotiveerd. Dit maakt bezwaarafhandeling en toezicht niet alleen veiliger, maar vaak ook sneller en efficiënter.
Mens-AI besluitvormingsmodellen
Wie AI-beslissingsondersteuning in de Nederlandse publieke sector inzet, moet allereerst helder zijn over het besluitvormingsmodel: wat doet de AI, wat doet de mens en waar wordt de grens getrokken. In een klassiek augmented-intelligence-model levert de AI geen bindend besluit, maar een advies in de vorm van een risicoscore, een prioritering of een uitgewerkt scenario. Denk aan een vergunningenproces waarin duizenden aanvragen per jaar binnenkomen. Het model kan op basis van historische data en beleidsregels inschatten welke dossiers waarschijnlijk rechttoe-rechtaan zijn en welke meer aandacht vragen. Een jurist of behandelend ambtenaar ziet in één oogopslag welke aanvragen eerst bekeken moeten worden, maar beoordeelt nog steeds zelf of de aanvraag voldoet aan de wet- en regelgeving en motiveert de uiteindelijke beslissing richting de aanvrager. Hetzelfde principe geldt voor subsidies, toezicht- en handhavingsdossiers of zorgindicaties, waar AI kan helpen om te bepalen waar schaarse menskracht het meeste effect sorteert.
Een tweede belangrijk model is risicogebaseerde automatisering. Hierbij wordt het proces opgesplitst in categorieën, bijvoorbeeld op basis van financieel belang, impact op grondrechten of maatschappelijke gevoeligheid. De Nederlandse Baseline voor Veilige Cloud, de AVG, de EU AI Act en de BIO vragen dat juist de hoog-risico beslissingen onder menselijk toezicht blijven. Dat betekent dat een gemeente of uitvoeringsorganisatie drempelwaarden vastlegt waarbij AI nooit zelfstandig mag beslissen, zoals bij besluiten die diep ingrijpen in inkomenszekerheid, zorg of jeugdbescherming. Routinezaken met een laag risico kunnen na AI-analyse wel grotendeels geautomatiseerd worden afgehandeld, maar ook daar worden steekproeven en kwaliteitscontroles ingericht om alsnog menselijke controle te houden over het totaalbeeld. Vaak wordt een hybride model gebruikt, waarin AI eerst een voorstel doet en het systeem afhankelijk van drempelwaarden automatisch bepaalt of direct kan worden beschikt of dat een mens het dossier nog moet beoordelen.
AI kan daarnaast een krachtige rol spelen in kwaliteitscontrole achteraf. Een toezichthouder of interne kwaliteitsafdeling kan een model gebruiken om grote aantallen reeds genomen besluiten te vergelijken met het geldende beleid en eerdere casussen. Het systeem markeert dan bijvoorbeeld opvallende afwijkingen in afwijzingspercentages tussen regio’s of doelgroepen, zodat een kwaliteitsmedewerker gericht kan onderzoeken of hier sprake is van legitiem maatwerk, een data- of procesfout, of mogelijk een systematische bias. Organisaties kunnen periodiek een steekproef van dossiers laten doorrekenen door een onafhankelijk model of een ander algoritme, om te controleren of de uitvoeringspraktijk niet ongemerkt is afgedreven van de beleidsintenties. Daarmee wordt AI niet alleen een hulpmiddel bij het primaire proces, maar ook een instrument om de eigen uitvoeringspraktijk scherp te houden en te laten aansluiten op principes als non-discriminatie, proportionaliteit en subsidiariteit.
Tot slot ondersteunt AI de co-creatie van beleids- en budgetscenario’s. In plaats van handmatig enkele scenario’s in spreadsheets te doorrekenen, kan een beleidsafdeling samen met financieel specialisten en juristen een AI-model gebruiken om varianten door te rekenen: wat gebeurt er met wachttijden, budgetten en risico’s als drempels worden aangepast, nieuwe doelgroepen in aanmerking komen of extra voorwaarden worden gesteld? De AI helpt patronen en onderlinge afhankelijkheden te herkennen, bijvoorbeeld tussen preventieve maatregelen en latere zorg- of handhavingkosten, en maakt zichtbaar welke scenario’s vanuit maatschappelijk perspectief het meest kansrijk zijn. De uiteindelijke keuze voor een scenario blijft echter altijd bij het bestuur, dat rekening houdt met politieke prioriteiten, maatschappelijk draagvlak en juridische grenzen. Door deze verschillende besluitvormingsmodellen expliciet te beschrijven en te borgen in procesontwerpen, functionele ontwerpen, werkinstructies en opleidingsprogramma’s, wordt duidelijk dat AI niet de nieuwe beslisser is, maar een krachtige assistent binnen een mensgericht besluitvormingskader dat past bij de Nederlandse rechtsstaat.
Verantwoordelijkheid, logging en toezicht
Zodra AI een rol gaat spelen in besluitvorming, verschuift de vraag niet langer óf een besluit rechtmatig is, maar óók hoe kan worden aangetoond dat het proces rechtmatig en controleerbaar is ingericht. Daarvoor is een helder governance-raamwerk nodig waarin rollen, verantwoordelijkheden, logging en toezicht nauwkeurig zijn vastgelegd. Een eerste stap is het benoemen van een product owner voor het AI-systeem, die verantwoordelijk is voor functionaliteit, lifecycle en aansluiting op de behoefte van de organisatie. Daarnaast wordt een data steward aangewezen die de datakwaliteit bewaakt, inclusief selectie, opschoning en hergebruik van gegevens in lijn met de AVG en de Nederlandse Baseline voor Veilige Cloud. De mandaatdrager die het formele besluit tekent – bijvoorbeeld een afdelingshoofd of college van B&W – blijft eindverantwoordelijk voor de uitkomst, en moet er dus op kunnen vertrouwen dat de inrichting van het systeem en de procesketen voldoen aan de wettelijke eisen. Deze rolverdeling wordt vastgelegd in RACI-matrices, mandaatregelingen en procesbeschrijvingen, zodat bij audits of parlementaire vragen direct duidelijk is wie waarover gaat.
Een tweede pijler is de beslislog. In veel organisaties bestaat al een vorm van dossierdocumentatie, maar AI vraagt om een explicietere en technisch rijkere logging. In het zaak- of casemanagementsysteem, of in een datalaag zoals Microsoft Dataverse, wordt per dossier vastgelegd welke versie van het model of de promptconfiguratie is gebruikt, welke invoergegevens zijn meegenomen, welke score of aanbeveling het systeem heeft gegeven en welke medewerker met welk mandaat dit advies heeft beoordeeld. Deze informatie wordt vervolgens gekoppeld aan Microsoft Purview, zodat er een integraal audit trail ontstaat waarin zowel datastromen als beslismomenten zichtbaar zijn. Bij bezwaar- en beroepszaken kan een jurist terugzien welke factoren in het advies een rol speelden en waarom de mens uiteindelijk tot een bepaalde beslissing is gekomen. Daarmee wordt de motiveringsplicht concreet ingevuld en kan ook de rechter beter toetsen of de inzet van AI proportioneel en zorgvuldig was.
Menselijk toezicht blijft hierbij de derde pijler. In processen met AI wordt daarom gewerkt met human approval-stappen, bijvoorbeeld in Power Automate of in maatwerkapplicaties die gebruikmaken van Azure OpenAI. Boven vooraf gedefinieerde drempelwaarden, zoals hoge bedragen of gevoelige interventies, blokkeert het systeem automatisch verdere verwerking totdat een bevoegde medewerker het advies heeft beoordeeld en expliciet akkoord geeft. Dit principe sluit aan bij de EU AI Act, waarin hoog-risico systemen alleen zijn toegestaan wanneer een mens effectief in staat is de werking te begrijpen en in te grijpen. Tegelijkertijd moet dit toezicht ook op organisatieniveau worden geborgd via een governanceboard of AI-raad die periodiek kijkt naar modelupdates, wijzigingsvoorstellen, uitzonderingen en incidenten.
Voor structureel toezicht is ten slotte een ritme van rapportages nodig. Maandelijkse of kwartaalrapportages aan CIO, Chief Data Officer, Functionaris Gegevensbescherming, CISO en bestuur geven inzicht in volumes, foutpercentages, biasmetingen, bezwaar- en beroepstrends en eventuele incidenten. Deze rapportages worden gevoed door de eerder genoemde logging en door monitoring op platformniveau, bijvoorbeeld met Microsoft Sentinel voor technische beveiliging en met dashboarding in Power BI voor functionele statistieken. Zo kan tijdig worden bijgestuurd wanneer bijvoorbeeld blijkt dat een model steeds strenger wordt voor een bepaalde doelgroep of dat de complexiteit van de uitlegbaarheid toeneemt. Door verantwoordelijkheid, logging en toezicht integraal te organiseren, ontstaat een governance-structuur waarin AI de besluitvorming versterkt zonder dat de organisatie de grip op rechtmatigheid en legitimiteit verliest.
Bias, uitlegbaarheid en burgerrechten
AI-beslissingsondersteuning raakt direct aan kernprincipes van de rechtsstaat: gelijke behandeling, transparantie en effectieve rechtsbescherming. Daarom volstaat het niet om een model technisch te laten presteren; er moet ook aantoonbaar worden gewerkt aan fairness, uitlegbaarheid en de borging van burgerrechten. Fairness begint bij de data. Historische besluitvorming bevat vaak bestaande patronen en mogelijk ook oude vooroordelen. Wanneer die data zonder reflectie worden gebruikt als trainingsmateriaal, bestaat het risico dat bestaande ongelijkheden worden versterkt. Nederlandse overheidsorganisaties die AI inzetten, voeren daarom vooraf een datainventarisatie uit waarin wordt gekeken welke bronnen worden gebruikt, welke groepen mogelijk onder- of oververtegenwoordigd zijn en welke variabelen een risico vormen voor indirecte discriminatie. Vervolgens worden fairness-tests ingericht, bijvoorbeeld op equal opportunity of disparate impact, zodat meetbaar wordt of uitkomsten structureel nadelig zijn voor bepaalde groepen. De resultaten worden vastgelegd in een modelkaart waarin herkomst, versies, trainingsmomenten en kwaliteitscontroles worden beschreven, zodat auditors en toezichthouders een compleet beeld hebben.
Uitlegbaarheid is de tweede pijler. Burgers, advocaten, rechters en toezichthouders moeten kunnen begrijpen waarom een bepaalde aanbeveling is gedaan, zeker wanneer deze bijdraagt aan een besluit dat ingrijpt in inkomen, zorg, huisvesting of bestuursrechtelijke sancties. Dat betekent dat AI-systemen niet alleen een cijfer of label mogen teruggeven, maar ook een uitleg met de belangrijkste factoren die tot deze uitkomst hebben geleid. In de praktijk kan dit worden gerealiseerd door gebruik te maken van Responsible AI-dashboards, SHAP-visualisaties of soortgelijke technieken die laten zien welke kenmerken het meeste gewicht hadden in de beoordeling. Deze uitleg wordt onderdeel van het dossier en kan worden geraadpleegd bij bezwaar en beroep. Belangrijk is dat de uitleg in begrijpelijke taal wordt samengevat, zodat de eindgebruiker die geen data scientist is, alsnog kan controleren of de uitkomst plausibel en juridisch te rechtvaardigen is.
De bescherming van burgerrechten vormt de derde pijler. De AVG geeft betrokkenen onder meer recht op inzage, correctie, verwijdering en beperking van verwerking. In een AI-context betekent dit dat organisaties moeten kunnen reproduceren welke gegevens in een model zijn gebruikt, welke versie actief was op het beslismoment en welke output is gegenereerd. DSAR-processen (Data Subject Access Requests) en Woo-verzoeken worden daarom aangepast zodat ook prompts, modelversies en relevante logbestanden kunnen worden betrokken bij de beantwoording. In beschikkingen en toelichtingen wordt transparant gemaakt dat AI als beslissingsondersteuning is ingezet, welke rol het systeem speelde en hoe bezwaar kan worden gemaakt. Dit sluit aan bij de eisen uit de EU AI Act rond transparantie, human oversight en documentatie.
Omdat geen enkel systeem foutloos is, is een vierde element onmisbaar: een incidentresponsproces specifiek voor AI. Wanneer blijkt dat een model structureel verkeerde adviezen heeft gegeven, bijvoorbeeld door een fout in een datakoppeling of een ongewenste bias, moet de organisatie snel kunnen ingrijpen. In de praktijk betekent dit dat het model tijdelijk wordt gepauzeerd, dat alle geraakt dossiers worden geïdentificeerd en herbeoordeeld en dat stakeholders, waaronder bestuur, toezichthouders en mogelijk de Autoriteit Persoonsgegevens, tijdig worden geïnformeerd. Lessons learned worden vastgelegd zodat toekomstige modellen beter worden ontworpen en getest. Door fairness, uitlegbaarheid en burgerrechten op deze manier te verankeren, kan AI-beslissingsondersteuning bijdragen aan een rechtvaardiger en transparanter bestuur in plaats van deze waarden te ondermijnen.
AI-beslissingsondersteuning levert waarde zolang de mens aantoonbaar verantwoordelijk blijft. Combineer daarom heldere rolverdeling, verplichte beslislog, biasmetingen en transparante communicatie met een governanceboard dat continu toezicht houdt. Maak AI-adviezen onderdeel van het normale kwaliteitsmanagement, voer steekproeven en audits uit en borg dat uitzonderingen direct zichtbaar zijn. Zo ontstaat augmented intelligence die besluitvorming versterkt zonder legitimiteit te verliezen.