Responsible AI Practices Voor Azure In De Nederlandse Overheid

💼 Management Samenvatting

Responsible AI Practices zorgen ervoor dat AI-oplossingen in Azure niet alleen technisch goed functioneren, maar ook ethisch verantwoord, transparant en juridisch houdbaar zijn binnen de Nederlandse overheid.

Aanbeveling
VERANKER RESPONSIBLE AI PRACTICES STRUCTUREEL IN AZURE-GOVERNANCE
Risico zonder
High
Risk Score
8/10
Implementatie
200u (tech: 120u)
Van toepassing op:
Azure
Azure Machine Learning
Cognitive Services
Power Platform

Overheidsorganisaties gebruiken steeds vaker AI voor signalering, beslisondersteuning en automatische besluitvorming. Zonder duidelijke spelregels voor verantwoord gebruik kunnen deze systemen leiden tot discriminatie, gebrek aan uitlegbaarheid, onduidelijke verantwoordelijkheden en juridische risico's onder de AVG, de EU AI Act en nationale kaders zoals de BIO. Burgers en toezichthouders verwachten dat de overheid niet experimenteert met AI op een manier die rechten en vrijheden aantast, maar aantoonbaar in control is over ontwerp, ontwikkeling en inzet.

PowerShell Modules Vereist
Primary API: Azure API
Connection: Connect-AzAccount
Required Modules: Az.Accounts, Az.Resources, Az.PolicyInsights

Implementatie

Dit artikel beschrijft een praktisch raamwerk voor Responsible AI Practices in Azure, toegesneden op Nederlandse publieke organisaties. U leert hoe u principes als rechtvaardigheid, transparantie, menselijke controle en veiligheid vertaalt naar concrete processen, rollen en technische configuraties. We behandelen onder andere het inrichten van governance-structuren, het vastleggen van verantwoordingsdocumentatie, het toepassen van Azure-services op een verantwoorde manier en het gebruik van PowerShell-scripts om naleving van Responsible AI-afspraken periodiek te toetsen.

Principes, maatschappelijke context en juridische kaders voor Responsible AI

Responsible AI begint bij een heldere set principes die richting geven aan alle keuzes rond ontwerp, ontwikkeling en gebruik van AI in de organisatie. Voor Nederlandse overheidsorganisaties sluiten deze principes aan bij waarden als gelijkheid, transparantie, rechtszekerheid en proportionaliteit. In de praktijk betekent dit dat AI-systemen burgers niet structureel mogen benadelen, dat beslissingen begrijpelijk en uitlegbaar moeten zijn, en dat burgers in staat moeten worden gesteld om besluiten te betwisten of toe te lichten. Deze principes zijn geen abstracte slogans, maar vormen het referentiekader waarlangs u concrete ontwerpkeuzes beoordeelt, bijvoorbeeld welke data worden gebruikt, hoe modellen worden getraind, welke controles worden ingebouwd en hoe output in processen wordt ingezet. Door deze principes expliciet te maken in beleid, architectuurkaders en projectstartarchitecturen, voorkomt u dat Responsible AI afhankelijk wordt van individuele initiatiefnemers en losse projecten.

De maatschappelijke context in Nederland maakt Responsible AI extra belangrijk. Overheidsbesluiten gaan vaak over gevoelige thema's als uitkeringen, belastingen, zorg, veiligheid en toezicht. Wanneer burgers het gevoel krijgen dat anonieme algoritmen zonder menselijke tussenkomst over hun leven beslissen, kan dit leiden tot wantrouwen, bezwaarprocedures en maatschappelijke onrust. Recente incidenten rond gegevensverwerking en geautomatiseerde risicomodellen hebben laten zien hoe kwetsbaar vertrouwen is wanneer transparantie en verantwoording ontbreken. Responsible AI Practices helpen om dit vertrouwen stap voor stap te herstellen door duidelijk te maken waar AI wordt ingezet, welke waarborgen gelden, hoe risico's worden onderkend en beheerst, en hoe burgers en toezichthouders kunnen controleren of de overheid zorgvuldig met hun gegevens en belangen omgaat.

Juridische kaders vormen de harde ondergrens waar Responsible AI minimaal aan moet voldoen. De AVG stelt eisen aan doelbinding, dataminimalisatie, transparantie, rechten van betrokkenen en het voorkomen van discriminerende uitkomsten bij geautomatiseerde besluitvorming. De EU AI Act introduceert daarbovenop een risicogebaseerd regime waarin bepaalde AI-systemen als hoog-risico worden aangemerkt, onder meer wanneer zij worden gebruikt voor toegang tot publieke diensten, kredietwaardigheidsbeoordelingen of toetsing van integriteit. Voor deze systemen zijn uitgebreide verplichtingen van kracht, zoals risicobeheer, data governance, technische documentatie, logging, menselijk toezicht en post-market monitoring. Daarnaast blijven ook sectorale kaders en de BIO gelden, die eisen stellen aan informatiebeveiliging, logging, audittrail en continuïteit. Responsible AI Practices moeten daarom expliciet verwijzen naar deze kaders en beschrijven hoe compliance aantoonbaar wordt geborgd in de Azure-omgeving.

Belangrijk is dat Responsible AI niet wordt gezien als een extra laag papierwerk aan het einde van een project, maar als een manier van werken die vanaf het eerste idee wordt meegenomen. In de fase van verkenning wordt bepaald of een voorgenomen AI-toepassing past bij de maatschappelijke opdracht van de organisatie en of de verwachte baten opwegen tegen de risico's. Tijdens ontwerp en ontwikkeling wordt continu getoetst of keuzes rond data, modellen en architectuur in lijn zijn met de eigen Responsible AI-principes en met juridische kaders. In de exploitatie ligt de nadruk op monitoring, bijsturen, het organiseren van menselijke toetsing en het zorgvuldig omgaan met klachten en signalen uit de praktijk. Deze levenscyclusbenadering sluit aan bij bestaande governance rond informatiebeveiliging en privacy en maakt het mogelijk om Responsible AI structureel te verankeren in bestaande besturingsprocessen.

Voor Azure-specifieke implementaties betekent dit dat Responsible AI wordt vertaald naar concrete keuzes in de manier waarop u diensten inzet. Denk aan het bewust scheiden van ontwikkel- en productieomgevingen, het afdwingen van logging en versiebeheer voor modellen, het beperken van toegang tot gevoelige datasets en het documenteren van alle belangrijke configuratiekeuzes in centrale repositories. Daarnaast worden AI-projecten expliciet opgenomen in het portfoliomanagement, zodat bestuurders een actueel overzicht houden van alle AI-toepassingen in de organisatie, de bijbehorende risicocategorieën en de stand van zaken rond Responsible AI-maatregelen. Door deze samenhang te creëren, ontstaat een stevig fundament waar individuele teams en projecten op kunnen bouwen.

Governance, rollen en processen voor Responsible AI in Azure

Een volwassen invulling van Responsible AI vereist heldere governance en duidelijke verantwoordelijkheden. In veel organisaties zijn al structuren aanwezig voor informatiebeveiliging, privacy en gegevensmanagement, zoals een CISO, FG, data-eigenaren en architectuurboards. Responsible AI bouwt voort op deze structuren, maar introduceert daarnaast aanvullende rollen en overlegvormen die specifiek gericht zijn op AI. Denk aan een AI-governanceboard waarin vertegenwoordigers van business, juridische zaken, privacy, security, data science en architectuur gezamenlijk besluiten nemen over de inzet van AI, inclusief go/no-go-beslissingen op basis van risicoanalyses. Dit orgaan bewaakt dat AI-projecten in lijn zijn met de organisatiedoelen, dat risico's expliciet worden geadresseerd en dat maatschappelijke en ethische overwegingen serieus worden meegewogen naast technische haalbaarheid.

Binnen projecten is het essentieel om rollen rond verantwoord gebruik expliciet te beleggen. De product owner of proceseigenaar blijft uiteindelijk verantwoordelijk voor de uitkomsten die het AI-systeem in de praktijk genereert en moet kunnen uitleggen hoe beslissingen tot stand komen. Data scientists en ontwikkelaars zijn verantwoordelijk voor de technische kwaliteit van modellen, voor transparante documentatie van aannames en voor het uitvoeren van fairness- en bias-analyses. Juridische en privacy-experts toetsen of de voorgestelde werkwijze in lijn is met wetgeving en interne kaders, en bepalen wanneer aanvullende instrumenten zoals een DPIA of een specifieke AI-risicoanalyse nodig zijn. Door deze rollen in een RACI-matrix vast te leggen en per projectteam concreet te benoemen, wordt voorkomen dat kritische taken onbewust blijven liggen.

Processen spelen een centrale rol in het operationaliseren van Responsible AI Practices. In de projectstartfase worden AI-initiatieven gescreend op risicoklasse, verwachte impact op burgers en noodzaak voor aanvullende waarborgen. In de ontwerpfase worden beslisdocumenten en architectuurschetsen aangevuld met expliciete Responsible AI-paragrafen, waarin bijvoorbeeld wordt beschreven hoe uitlegbaarheid wordt geborgd, hoe menselijke tussenkomst is georganiseerd en hoe klachten van burgers worden afgehandeld. Tijdens ontwikkeling worden checklists gebruikt om te controleren of benodigde analyses, tests en documentatie zijn uitgevoerd, bijvoorbeeld rond trainingsdata, bias, robuustheid en security. In de overgang naar productie worden acceptatiecriteria aangescherpt met Responsible AI-eisen, zoals het beschikbaar zijn van uitlegmateriaal voor medewerkers en burgers en het inrichten van logging en monitoring voor toezicht op onbedoelde effecten.

Azure kan deze governance- en procesafspraken technisch ondersteunen. Door gebruik te maken van management groups, policy-initiatieven en blueprints kan worden afgedwongen dat AI-resources alleen in specifieke, gecontroleerde subscriptions worden ingezet en dat basismaatregelen zoals versleuteling, logging en toegangsbeheer altijd zijn geconfigureerd. Tags kunnen worden gebruikt om AI-systemen met een hoog risicoprofiel te markeren, bijvoorbeeld met ResponsibleAI=HighRisk of AIClassification=DecisionSupport. PowerShell-scripts en Azure Policy kunnen vervolgens periodiek controleren of deze resources voldoen aan afgesproken Responsible AI-criteria, zoals het hebben van gekoppelde logbronnen, het gebruik van beheerde identiteiten in plaats van secreten, of het uitsluiten van bepaalde datalocaties. Door deze controles te integreren in CI/CD-pijplijnen en periodieke compliance-rapportages, ontstaat een continue feedbacklus tussen governance-afspraken en feitelijk gedrag in de Azure-omgeving.

Tot slot moet governance rond Responsible AI ook de menselijke kant adresseren. Medewerkers die met AI-uitkomsten werken, zoals klantcontactmedewerkers, inspecteurs of beleidsmedewerkers, moeten weten hoe zij AI-adviezen moeten interpreteren, wanneer zij mogen afwijken en hoe zij zorgen dat beslissingen altijd herleidbaar en uitlegbaar blijven. Opleidingen, werkinstructies en ondersteuningstools spelen hierbij een cruciale rol. Daarnaast is het verstandig om externe perspectieven te betrekken, bijvoorbeeld via adviesraden, burgerpanels of samenwerking met kennisinstituten. Door regelmatig met deze partijen in gesprek te gaan over de inzet van AI, de gehanteerde waarborgen en ervaringen in de praktijk, kan de organisatie leren en haar Responsible AI Practices continu verbeteren.

Praktische implementatie van Responsible AI Practices in Azure

Responsible AI wordt concreet in de manier waarop u Azure-diensten configureert, integreert en beheert. Een eerste stap is het expliciet onderscheiden van experimentele, test- en productieomgevingen, waarbij duidelijke regels gelden voor welke data in welke omgeving mogen worden gebruikt. Productiedata met persoons- of gevoeligheidskenmerken horen niet thuis in persoonlijke experimenten of vrije sandboxes; in plaats daarvan worden gecontroleerde ontwikkelomgevingen ingericht met geanonimiseerde of gesynthetiseerde datasets. Azure Machine Learning, Azure OpenAI, Cognitive Services en Power Platform worden zodanig geconfigureerd dat toegang tot gevoelige resources via role-based access control en beheerde identiteiten verloopt, met logging van alle beheer- en gebruiksacties in een centrale Log Analytics-werkruimte. Hiermee ontstaat een technische basis waarop u toezicht en auditbaarheid kunt opbouwen.

Voor elk AI-project in Azure is het aan te raden een vaste set artefacten bij te houden, zoals modelkaarten, datasheets en risicoregisters. In deze documenten wordt onder meer vastgelegd welke data zijn gebruikt, welke preprocessing-stappen zijn uitgevoerd, welke beoordelingsmaatstaven zijn gekozen en welke scenario's zijn uitgesloten. Door deze artefacten standaard op te slaan in een centrale repository, bijvoorbeeld in een Git- of SharePoint-omgeving gekoppeld aan het project, blijft informatie niet versnipperd over individuele laptops of tijdelijke mappen. In Azure DevOps of GitHub kan worden afgedwongen dat een pull request voor een nieuwe modelversie pas wordt geaccepteerd wanneer de bijbehorende Responsible AI-documentatie is bijgewerkt. Zo wordt documentatie geen administratieve nasleep, maar een integraal onderdeel van de ontwikkelworkflow.

Bestaande Azure-diensten bieden verschillende functies die direct bijdragen aan Responsible AI Practices. Denk aan het instellen van contentfilters, logging en abuse-detection voor AI-chatdiensten, het configureren van private endpoints en network isolation voor gevoelige AI-workloads, en het gebruik van Key Vault voor het beheer van secrets en certificaten. Azure Policy kan worden ingezet om beperkingen af te dwingen, zoals het verbieden van bepaalde regios voor AI-resources, het verplicht stellen van customer-managed keys voor specifieke workloads of het blokkeren van publieke endpoints voor hoog-risico toepassingen. Door deze beleidsregels te combineren in policy-initiatieven die specifiek zijn gelabeld als Responsible AI, wordt het eenvoudig om per subscription of omgeving te rapporteren in hoeverre AI-workloads voldoen aan de afgesproken beveiligings- en verantwoordingsniveaus.

PowerShell en Azure CLI spelen een belangrijke rol bij het operationaliseren van Responsible AI Practices. Met scripts kunt u bijvoorbeeld periodiek inventariseren welke AI-resources aanwezig zijn, welke tags en beleidsregels daarop van toepassing zijn en of logging en diagnostische instellingen correct zijn geconfigureerd. Resultaten kunnen worden weggeschreven naar een centrale opslaglocatie of rechtstreeks worden opgenomen in dashboards en rapportages. Het script dat bij dit artikel hoort, controleert bijvoorbeeld of AI-gerelateerde resources een ResponsibleAI-tag hebben, of beleidsinitiatieven voor Responsible AI zijn toegewezen aan relevante management groups of subscriptions en of er ten minste één gekoppelde Log Analytics-werkruimte is voor centrale monitoring. Deze technische checks vormen geen vervanging voor menselijke beoordeling, maar geven snel inzicht in de mate waarin Responsible AI-afspraken in de praktijk worden nageleefd.

Tot slot is het verstandig om Responsible AI ook in de bredere cloud- en architectuurstandaarden te verankeren. In referentiearchitecturen en bouwblokken wordt vastgelegd welke Azure-componenten worden aanbevolen voor AI-workloads, welke configuraties als veilig en verantwoord worden beschouwd en welke patronen moeten worden vermeden. Bijvoorbeeld: het hergebruiken van AI-modellen buiten de oorspronkelijk bedoelde context zonder aanvullende beoordeling, of het rechtstreeks voeden van beslissingssystemen met AI-output zonder menselijke tussenkomst in hoog-risico scenario's. Door deze richtlijnen te combineren met concrete voorbeeldimplementaties, zoals Bicep-templates of Terraform-modules die Responsible AI-vereisten meenemen, verlaagt u de drempel voor teams om vanaf de start verantwoord te ontwerpen.

Monitoring, compliance en continue verbetering van Responsible AI

Gebruik PowerShell-script responsible-ai-practices.ps1 (functie Invoke-ResponsibleAiComplianceCheck) – Voert een geautomatiseerde controle uit op Azure-subscriptions om te inventariseren welke AI-resources aanwezig zijn, of ResponsibleAI-tags worden gebruikt en of basismaatregelen voor logging en policy-toewijzing aanwezig zijn..

Responsible AI vraagt om doorlopende monitoring en periodieke herijking. AI-systemen veranderen in de tijd, doordat modellen worden hertraind, parameters worden aangepast of nieuwe gegevensbronnen worden toegevoegd. Ook de context waarin systemen worden gebruikt evolueert: beleid wijzigt, maatschappelijke opvattingen verschuiven en wetgeving wordt aangescherpt. Daarom is het niet voldoende om Responsible AI slechts eenmalig bij implementatie af te vinken; er moet een structurele cyclus ontstaan van meten, beoordelen, bijsturen en leren. Dit begint met het inrichten van heldere indicatoren en meetpunten, bijvoorbeeld rond gebruiksvolumes, foutpercentages, gesignaleerde biases, klachten van burgers en uitkomsten van interne en externe audits. Door deze informatie periodiek te verzamelen en te analyseren, ontstaat een beeld van hoe AI-systemen zich gedragen en waar gerichte verbeteracties nodig zijn.

Compliance met juridische kaders zoals de AVG en de EU AI Act vraagt om aantoonbaarheid. Organisaties moeten kunnen laten zien welke AI-systemen zij gebruiken, welke risicoanalyses zijn uitgevoerd, welke technische en organisatorische maatregelen zijn getroffen en hoe wordt omgegaan met incidenten en signalen. In Azure betekent dit onder andere dat logging van relevante gebeurtenissen zorgvuldig is ingericht, dat documentatie vindbaar en actueel is en dat wijzigingen traceerbaar zijn via versiebeheer en changeprocessen. Door AI-projecten expliciet te verbinden met bestaande compliance-instrumenten, zoals het verwerkingsregister, DPIA-dossiers, BIO-audits en jaarplannen van CISO en FG, wordt voorkomen dat Responsible AI een losstaande exercitie wordt. In plaats daarvan wordt het geïntegreerd in de reguliere compliancecyclus van de organisatie.

Technische monitoring in Azure ondersteunt deze compliance-inspanningen. Door gebruik te maken van Log Analytics, Azure Monitor en eventueel een SIEM-oplossing kunnen organisaties dashboards inrichten die inzicht geven in AI-gerelateerde activiteiten. Denk aan welke resources in welke regio's draaien, hoe vaak bepaalde AI-services worden aangeroepen, welke foutmeldingen optreden en of beleidsregels correct worden afgedwongen. PowerShell-scripts en Azure Policy-beoordelingen kunnen periodiek worden gedraaid om te controleren of Responsible AI-configuraties nog in lijn zijn met de afgesproken standaarden. Resultaten worden gedeeld met verantwoordelijke proceseigenaren en governanceboards, zodat zij geïnformeerde beslissingen kunnen nemen over doorontwikkeling, remediatie of het eventueel uitfaseren van systemen die niet meer aan de eisen voldoen.

Continue verbetering is de laatste, maar misschien wel belangrijkste pijler van Responsible AI Practices. Incidenten, klachten, auditbevindingen en nieuwe inzichten uit wetenschap en praktijk worden gebruikt om beleid, richtlijnen en technische standaarden aan te scherpen. Dit betekent dat Responsible AI-documentatie geen statisch naslagwerk is, maar een levend geheel van afspraken dat regelmatig wordt bijgewerkt. Governanceorganen bespreken niet alleen incidenten en afwijkingen, maar kijken ook vooruit naar opkomende technologieën en veranderende maatschappelijke verwachtingen. Trainingen voor medewerkers worden aangepast op basis van ervaringen uit de praktijk, en ontwikkelteams delen best practices en lessons learned via communities of practice of kennisplatforms. Op die manier groeit de organisatie stapsgewijs naar een volwassen niveau van Responsible AI, waarbij technologie, organisatie en maatschappij met elkaar in balans blijven.

Compliance & Frameworks

Automation

Gebruik het onderstaande PowerShell script om deze security control te monitoren en te implementeren. Het script bevat functies voor zowel monitoring (-Monitoring) als remediation (-Remediation).

PowerShell
<# ================================================================================ AZURE POWERSHELL SCRIPT - Nederlandse Baseline voor Veilige Cloud ================================================================================ .SYNOPSIS Controle op Responsible AI Practices voor AI-resources in Azure .DESCRIPTION Dit script ondersteunt organisaties bij het uitvoeren van een basale compliancecontrole op Responsible AI Practices in Azure. Het inventariseert AI-gerelateerde resources, controleert of afgesproken ResponsibleAI-tags worden gebruikt en of er minimaal één relevante policy- of initiatief- toewijzing actief is op het niveau van de subscription of management group. Het script wijzigt zelf geen resources. De output kan worden gebruikt als input voor governance-rapportages, architectuurreviews of verdiepende risicoanalyses. .NOTES Filename: responsible-ai-practices.ps1 Author: Nederlandse Baseline voor Veilige Cloud Version: 1.0 Gerelateerde JSON: content/azure/ai/responsible-ai-practices.json .EXAMPLE .\responsible-ai-practices.ps1 Toont een korte samenvatting van de Responsible AI-status per subscription. .EXAMPLE .\responsible-ai-practices.ps1 -SubscriptionId "00000000-0000-0000-0000-000000000000" Voert de controle uit voor één specifieke subscription. .EXAMPLE .\responsible-ai-practices.ps1 -Detailed Geeft een tabel met gedetailleerde informatie per AI-resource die is gevonden. #> #Requires -Version 5.1 #Requires -Modules Az.Accounts, Az.Resources, Az.PolicyInsights [CmdletBinding()] param( [Parameter(HelpMessage = "Optioneel: specifieke subscription-ID om te controleren.")] [string]$SubscriptionId, [Parameter(HelpMessage = "Toon gedetailleerde informatie per resource.")] [switch]$Detailed ) $ErrorActionPreference = 'Stop' $ResponsibleAiTagName = 'ResponsibleAI' $ResponsibleAiTagValues = @('HighRisk', 'Standard') $PolicyKeyword = 'Responsible AI' function Connect-RequiredServices { <# .SYNOPSIS Maakt verbinding met Azure indien nog geen context aanwezig is. #> if (-not (Get-AzContext -ErrorAction SilentlyContinue)) { Write-Host "Verbinding maken met Azure..." -ForegroundColor Yellow Connect-AzAccount -ErrorAction Stop | Out-Null Write-Host "Verbonden met Azure." -ForegroundColor Green } } function Get-TargetSubscriptions { <# .SYNOPSIS Bepaalt welke subscriptions worden meegenomen in de controle. #> [CmdletBinding()] param() if ($SubscriptionId) { $sub = Get-AzSubscription -SubscriptionId $SubscriptionId -ErrorAction Stop return ,$sub } return Get-AzSubscription -ErrorAction Stop } function Get-AiResourcesForSubscription { <# .SYNOPSIS Haalt AI-gerelateerde resources op binnen een subscription. .DESCRIPTION Selecteert generieke resourcetypen die vaak worden gebruikt voor AI- workloads, zoals Machine Learning werkruimten, Cognitive Services- accounts en webapps die AI-endpoints hosten. #> [CmdletBinding()] param( [Parameter(Mandatory)] [string]$SubscriptionId ) Set-AzContext -SubscriptionId $SubscriptionId -ErrorAction Stop | Out-Null $aiTypes = @( 'Microsoft.MachineLearningServices/workspaces', 'Microsoft.CognitiveServices/accounts', 'Microsoft.Web/sites', 'Microsoft.Web/sites/slots' ) $resources = @() foreach ($type in $aiTypes) { $res = Get-AzResource -ResourceType $type -ErrorAction SilentlyContinue if ($res) { $resources += $res } } return $resources } function Get-ResponsibleAiPolicyAssignments { <# .SYNOPSIS Zoekt naar policy- of initiatieftoewijzingen met een Responsible AI-focus. .DESCRIPTION Filtert op weergavenaam waarin een herkenbaar trefwoord voorkomt, zodat organisaties eigen naamgevingsconventies kunnen gebruiken. #> [CmdletBinding()] param( [Parameter(Mandatory)] [string]$Scope ) try { $assignments = Get-AzPolicyAssignment -Scope $Scope -ErrorAction SilentlyContinue } catch { $assignments = @() } if (-not $assignments) { return @() } return $assignments | Where-Object { $_.DisplayName -like "*$PolicyKeyword*" } } function Invoke-ResponsibleAiComplianceCheck { <# .SYNOPSIS Hoofdfunctie die Responsible AI-compliance per subscription samenvat. .OUTPUTS PSCustomObject met per subscription aantallen resources, tags en policies. #> [CmdletBinding()] param() Connect-RequiredServices $subscriptions = Get-TargetSubscriptions $results = @() $allResources = @() foreach ($sub in $subscriptions) { Write-Verbose "Controleren van subscription $($sub.Name) ($($sub.Id))..." $aiResources = Get-AiResourcesForSubscription -SubscriptionId $sub.Id $allResources += $aiResources $tagged = @() $untagged = @() foreach ($res in $aiResources) { $tags = $res.Tags $hasTag = $false $tagValue = $null if ($tags -and $tags.ContainsKey($ResponsibleAiTagName)) { $hasTag = $true $tagValue = $tags[$ResponsibleAiTagName] } $obj = [PSCustomObject]@{ SubscriptionId = $sub.Id SubscriptionName = $sub.Name Name = $res.Name ResourceGroup = $res.ResourceGroupName Type = $res.ResourceType HasResponsibleAiTag = $hasTag ResponsibleAiTagValue = $tagValue } if ($hasTag) { $tagged += $obj } else { $untagged += $obj } } $scope = "/subscriptions/$($sub.Id)" $policyAssignments = Get-ResponsibleAiPolicyAssignments -Scope $scope $results += [PSCustomObject]@{ SubscriptionId = $sub.Id SubscriptionName = $sub.Name TotalAiResources = $aiResources.Count TaggedResources = $tagged.Count UntaggedResources = $untagged.Count ResponsibleAiPoliciesFound = $policyAssignments.Count } if ($Detailed -and $aiResources.Count -gt 0) { Write-Host "`n[DETAILS] AI-resources in subscription $($sub.Name):" -ForegroundColor Cyan ($tagged + $untagged) | Select-Object SubscriptionName, Name, ResourceGroup, Type, HasResponsibleAiTag, ResponsibleAiTagValue | Format-Table -AutoSize if ($policyAssignments.Count -gt 0) { Write-Host "`n[DETAILS] Responsible AI-gerelateerde policy-assignments:" -ForegroundColor Cyan $policyAssignments | Select-Object DisplayName, PolicyAssignmentId, Scope | Format-Table -AutoSize } } } return $results } try { $summary = Invoke-ResponsibleAiComplianceCheck if (-not $summary -or $summary.Count -eq 0) { Write-Host "Geen subscriptions of AI-resources gevonden voor Responsible AI-controle." -ForegroundColor Yellow return } Write-Host "" -ForegroundColor White Write-Host "===================================================" -ForegroundColor Green Write-Host "Responsible AI Practices - Governanceoverzicht" -ForegroundColor Green Write-Host "===================================================" -ForegroundColor Green $summary | Select-Object SubscriptionName, TotalAiResources, TaggedResources, UntaggedResources, ResponsibleAiPoliciesFound | Format-Table -AutoSize $totalAi = ($summary | Measure-Object -Property TotalAiResources -Sum).Sum $totalTag = ($summary | Measure-Object -Property TaggedResources -Sum).Sum Write-Host "" -ForegroundColor White Write-Host ("Totaal AI-resources gevonden: {0}" -f $totalAi) -ForegroundColor White Write-Host ("Waarvan voorzien van ResponsibleAI-tag: {0}" -f $totalTag) -ForegroundColor White if ($totalAi -gt 0 -and $totalTag -lt $totalAi) { Write-Host "Let op: niet alle AI-resources zijn voorzien van een ResponsibleAI-tag. Overweeg classificatie en tagging uit te breiden." -ForegroundColor Yellow } if (($summary | Where-Object { $_.ResponsibleAiPoliciesFound -gt 0 }).Count -eq 0) { Write-Host "Er zijn geen policy-assignments gevonden met het trefwoord '$PolicyKeyword'. Controleer of Responsible AI-policysets zijn uitgerold." -ForegroundColor Yellow } } catch { Write-Error $_ exit 1 }

Risico zonder implementatie

Risico zonder implementatie
High: Zonder structureel ingevulde Responsible AI Practices blijft de inzet van AI in Azure kwetsbaar voor discriminerende effecten, gebrek aan uitlegbaarheid en onvoldoende naleving van de EU AI Act en AVG. Dit kan leiden tot boetes, politieke en maatschappelijke druk, juridische procedures en blijvende schade aan het vertrouwen in de digitale overheid.

Management Samenvatting

Richt een organisatiebreed raamwerk in voor Responsible AI Practices dat principes, governance, processen en technische configuraties in Azure met elkaar verbindt. Gebruik policy, tagging, logging en PowerShell-gestuurde controles om naleving te bewaken, en zorg dat bestuurders en proceseigenaren actief sturen op verantwoord gebruik en continue verbetering.