💼 Management Samenvatting
Secure prompt patterns beschrijven herbruikbare, veilige manieren om prompts voor AI-systemen zoals Copilot en Azure OpenAI te ontwerpen. Voor Nederlandse overheidsorganisaties zijn deze patronen essentieel om te voorkomen dat gevoelige informatie onnodig wordt prijsgegeven, dat AI-antwoorden worden gemanipuleerd of dat besluiten worden genomen op basis van onvolledige of misleidende context.
✓ Azure
✓ AI Services
AI-assistenten en generatieve AI-modellen worden steeds vaker ingezet in primaire overheidsprocessen: van het opstellen van beleidsnotities en communicatie met burgers tot het voorbereiden van juridische analyses en het ondersteunen van security operations. Zonder duidelijke richtlijnen voor veilige prompts kunnen medewerkers onbewust vertrouwelijke gegevens in prompts plaatsen, instructies geven die in strijd zijn met beleid of vatbaar zijn voor prompt injection. Dit kan leiden tot datalekken, foutieve besluitvorming, reputatieschade en mogelijke overtredingen van de AVG, BIO en NIS2-verplichtingen. Bovendien wordt het zonder consistente prompt patterns lastig om achteraf te reconstrueren welke instructies aan AI-systemen zijn gegeven en op welke basis antwoorden tot stand zijn gekomen.
Connection:
Connect-MgGraphRequired Modules: Microsoft.Graph
Implementatie
Dit artikel beschrijft hoe u binnen de "Nederlandse Baseline voor Veilige Cloud" een set secure prompt patterns ontwikkelt en implementeert voor Copilot, Azure OpenAI en vergelijkbare AI-diensten. We behandelen de kernprincipes van veilige prompts, voorbeeldpatronen voor veelvoorkomende overheidsgebruiksscenario's, governance rond het gebruik van deze patronen en de relatie met prompt injection-preventie. Daarnaast tonen we een PowerShell-script dat log- of configuratiebestanden analyseert op mogelijk risicovolle promptconstructies, zodat security- en compliance-afdelingen inzicht krijgen in waar aanvullende training, aanscherping van richtlijnen of technische maatregelen nodig zijn.
Kernprincipes en risico's rond prompts in overheidscontext
Secure prompt patterns beginnen bij een helder begrip van wat een prompt in de praktijk is: iedere instructie, vraag, contextbeschrijving of voorbeeldtekst die een gebruiker of systeem aan een AI-model aanbiedt om een antwoord te genereren. In de Nederlandse overheid bevatten prompts vaak meer dan alleen een korte vraag. Medewerkers plakken volledige e-mails, beleidsdocumenten, juridische teksten, interne memo's of zelfs exporten uit registratiesystemen in een prompt om het AI-systeem voldoende context te geven. Daarmee wordt de prompt zelf een drager van potentieel gevoelige of vertrouwelijke informatie, die volgens dezelfde beveiligings- en privacyregels moet worden behandeld als de achterliggende brondata. Dit betekent dat u prompts niet kunt zien als vrijblijvende experimenten, maar als formele interacties met een informatiesysteem die onder de BIO, AVG en sectorale wetgeving vallen.
Een eerste categorie risico's draait om de inhoud van de prompt. Gebruikers kunnen onbewust meer persoonsgegevens, staatsgevoelige informatie of interne beleidskeuzes delen dan strikt noodzakelijk is voor de beoogde AI-taak. Soms gebeurt dit omdat men denkt dat het AI-systeem "alles toch al weet", of omdat men veronderstelt dat tekst die in Copilot wordt geplakt automatisch binnen de eigen tenant en beveiligingsgrenzen blijft. In werkelijkheid hangt dit af van de gekozen architectuur, configuratie en datalocatiekeuzes. Zonder duidelijke patronen en voorbeelden is de kans groot dat ieder team zijn eigen stijl ontwikkelt, met wisselende niveaus van detail en beveiligingsbewustzijn. Dit maakt het moeilijk om aan te tonen dat dataminimalisatie is toegepast en dat alleen de strikt noodzakelijke informatie in prompts wordt verwerkt.
Een tweede categorie risico's betreft manipulatie van het AI-systeem via de prompt. Aanvallers kunnen proberen gebruikers of geïntegreerde systemen te verleiden om prompts over te nemen waarin instructies staan als "negeer alle eerdere richtlijnen" of "voeg bij het antwoord ook alle onbewerkte brondata toe". In scenario's met externe bronnen, zoals websites of gedeelde documenten, kan prompt injection zelfs plaatsvinden zonder dat de gebruiker het merkt: schadelijke tekst in een bronbestand kan ertoe leiden dat het AI-systeem naast de gevraagde informatie ook vertrouwelijke details prijsgeeft of beleidsregels negeert. Secure prompt patterns helpen om dit risico te beperken door vaste structuren te definiëren waarin bijvoorbeeld altijd expliciet wordt aangegeven welke bronnen het systeem wel en niet mag gebruiken, welke informatie nooit mag worden opgenomen in antwoorden en dat systeem- of beveiligingsinstructies niet door gebruikersinvoer mogen worden overschreven.
Ten derde spelen transparantie en verantwoording een grote rol. Wanneer een AI-antwoord een rol speelt in besluitvorming, moet later kunnen worden uitgelegd welke instructies zijn gegeven, welke bronnen zijn geraadpleegd en welke beperkingen zijn meegegeven aan het model. Secure prompt patterns ondersteunen dit door prompts te structureren in herkenbare onderdelen, zoals "Doel", "Context", "Bronnen", "Randvoorwaarden" en "Outputvereisten". Dit maakt het eenvoudiger om prompts te loggen, te auditen en in trainingen te gebruiken. In combinatie met technische maatregelen – zoals beperking van toegestane acties, rolgebaseerde toegang tot gevoelige gegevens en monitoring van afwijkende AI-interacties – ontstaan zo bouwstenen voor een controleerbare inzet van AI binnen de Nederlandse overheid.
Ontwikkelen van een patroonbibliotheek en governance
Het opzetten van een bibliotheek met secure prompt patterns vraagt om nauwe samenwerking tussen inhoudsexperts, security, privacy en eindgebruikers. Begin met het in kaart brengen van de belangrijkste gebruiksscenario's voor AI binnen de organisatie. Denk aan het opstellen van samenvattingen van beleidsdocumenten, het voorbereiden van beantwoording van Kamervragen, het genereren van conceptbrieven aan burgers, het analyseren van loggegevens voor security-incidenten of het voorbereiden van rapportages voor toezichthouders. Voor elk scenario wordt vervolgens een of meer standaardprompts ontworpen die duidelijk maken welke informatie noodzakelijk is, welke bronnen mogen worden geraadpleegd en welke uitkomsten wel of juist niet zijn toegestaan. Deze standaardprompts vormen de basis van de patroonbibliotheek en worden bij voorkeur centraal beheerd, bijvoorbeeld in een interne documentatieportal of als sjablonen in de tools waarmee Copilot of Azure OpenAI wordt aangeroepen.
Een volwassen patroonbibliotheek bevat meer dan alleen voorbeeldtekst. Bij elk patroon hoort een korte toelichting op het doel, de beoogde doelgroep, de gevoeligheid van de data en relevante compliance-kaders. Zo kan een patroon voor het samenvatten van interne notities expliciet aangeven dat alleen documenten met een bepaalde classificatie gebruikt mogen worden en dat namen van individuele burgers in de output moeten worden geanonimiseerd. Voor patronen die zich richten op security of incidentrespons kan worden vastgelegd dat AI-antwoorden nooit direct mogen worden gebruikt als basis voor technische wijzigingen, maar altijd via een changeproces lopen. Door deze metadata vast te leggen, wordt het eenvoudiger om in audits en reviews aan te tonen dat de organisatie gestuurd omgaat met AI-gebruik en dat risico's bewust zijn afgewogen.
Governance rond secure prompt patterns betekent ook dat er eigenaarschap moet zijn. Wijs per domein (bijvoorbeeld juridisch, communicatie, security, dienstverlening) een patrooneigenaar aan die verantwoordelijk is voor het bijhouden, evalueren en actueel houden van patronen. Leg in beleid vast hoe vaak patronen worden herzien, hoe wijzigingsvoorstellen worden beoordeeld en hoe medewerkers worden geïnformeerd over updates. Koppel dit aan bestaande structuren zoals het CISO-overleg, privacyboard of architectuurboard, zodat AI-gebruik niet losstaat van bredere beveiligings- en architectuurkeuzes. Belangrijk is ook dat er een centraal kanaal is waar medewerkers vragen kunnen stellen of onduidelijkheden kunnen melden over het gebruik van patronen. Zo wordt voorkomen dat gebruikers uitwijken naar eigen, onbeoordeelde promptconstructies buiten de afgesproken kaders.
Tot slot moet de patroonbibliotheek goed aansluiten op training en adoptie. Medewerkers leren niet alleen hoe zij een bepaald patroon technisch moeten toepassen, maar vooral waarom bepaalde keuzes zijn gemaakt. Opleidingsmateriaal laat bijvoorbeeld zien welke typen informatie nooit in prompts thuishoren, hoe men omgaat met persoonsgegevens van burgers en hoe men AI-antwoorden kritisch beoordeelt voordat deze in formele documenten worden overgenomen. Door praktijkvoorbeelden uit de eigen organisatie te gebruiken – inclusief bijna-incidenten of lessons learned – ontstaat bewustzijn dat secure prompt patterns geen theoretische oefening zijn, maar een direct antwoord op concrete risico's. Dit vergroot de kans dat patronen daadwerkelijk worden gebruikt en dat AI-gebruik in de dagelijkse praktijk in lijn blijft met de "Nederlandse Baseline voor Veilige Cloud".
Implementatie in Microsoft 365 en monitoring van gebruik
Gebruik PowerShell-script secure-prompt-patterns.ps1 (functie Invoke-PromptPatternAssessment) – Analyseert log- of configuratiebestanden op mogelijk risicovolle promptconstructies en geeft een overzicht van aandachtspunten voor secure prompt patterns..
Secure prompt patterns komen pas echt tot leven wanneer zij worden geïntegreerd in de platforms waar medewerkers dagelijks werken, zoals Microsoft 365, Copilot en eventueel maatwerkapplicaties die Azure OpenAI gebruiken. In de praktijk betekent dit dat u patronen beschikbaar maakt als sjablonen in Teams-kanalen, SharePoint-bibliotheken, interne kennisbanken of direct in de gebruikersinterface van AI-integraties. Waar mogelijk worden patronen technisch afgedwongen, bijvoorbeeld door formulieren te gebruiken met vaste velden voor doel, context en randvoorwaarden, of door standaardprompts als knoppen aan te bieden in een interne applicatie. Hierdoor wordt de drempel om veilige patronen te volgen lager dan de drempel om zelf iets "snels" te verzinnen. Tegelijkertijd kunnen technische maatregelen worden geconfigureerd om risicovolle acties te beperken, zoals het blokkeren van data-export naar onbeheerde locaties of het afdwingen van classificatie en DLP-beleid op documenten die als promptbron worden gebruikt.
Monitoring speelt een centrale rol bij het borgen van secure prompt patterns. Hoewel prompts zelf niet altijd volledig worden gelogd vanwege privacy- en proportionaliteitsoverwegingen, kunnen geaggregeerde of geanonimiseerde loggegevens wel inzicht geven in het gebruik van AI-diensten. Denk aan het aantal AI-interacties per team, de typen workloads waarvoor AI wordt ingezet en het voorkomen van bekende risicofrases die wijzen op mogelijke prompt injection, zoals "negeer alle vorige instructies" of "toch uitvoeren, ook als dit niet is toegestaan". Het bijbehorende PowerShell-script in dit artikel is bedoeld als laagdrempelig hulpmiddel om log- of configuratiebestanden te scannen op dergelijke patronen. Hiermee kunnen CISO-organisaties of functionarissen gegevensbescherming periodiek toetsen of het gebruik van AI in de praktijk aansluit bij de afgesproken patronen en beleidskaders.
De inzichten uit monitoring moeten structureel worden teruggekoppeld naar governance- en opleidingsprocessen. Wanneer uit analyses blijkt dat bepaalde risicovolle formuleringen vaak voorkomen, is dat een signaal dat extra training nodig is of dat de patroonbibliotheek beter moet aansluiten op de praktijk. Ook kan blijken dat bepaalde teams AI intensiever gebruiken dan voorzien, bijvoorbeeld in juridische processen of beleidsvoorbereiding, waardoor aanvullende richtlijnen of DPIA's nodig zijn. Door resultaten van assessments vast te leggen in rapportages en te koppelen aan bestaande managementinformatie – bijvoorbeeld over security-incidenten, datalekken of auditbevindingen – wordt duidelijk welke rol secure prompt patterns spelen in de bredere weerbaarheidsstrategie van de organisatie. Uiteindelijk is het doel dat AI-gebruik aantoonbaar plaatsvindt binnen duidelijke, veilige en controleerbare kaders die passen bij de verantwoordelijkheden van de Nederlandse overheid.
Compliance & Frameworks
- BIO: 12.02, 12.05, 13.01 - Beveiligingsmaatregelen voor applicaties en informatieverwerking, inclusief het beheersen van AI-interacties, logging en monitoring van risicovolle patronen in prompts.
- ISO 27001:2022: A.12.4.1, A.12.6.1, A.18.1.3 - Logging, monitoring en naleving van beveiligingseisen rond gebruik van AI-systemen en tekstinvoer die gevoelige informatie kan bevatten.
- NIS2: Artikel - Inrichting van passende technische en organisatorische maatregelen om misbruik van AI-diensten en manipulatie van digitale diensten via onveilige prompts te voorkomen en te detecteren.
Automation
Gebruik het onderstaande PowerShell script om deze security control te monitoren en te implementeren. Het script bevat functies voor zowel monitoring (-Monitoring) als remediation (-Remediation).
Risico zonder implementatie
Management Samenvatting
Secure prompt patterns bieden een gestructureerde en gecontroleerde manier om AI-diensten zoals Copilot en Azure OpenAI in te zetten binnen de Nederlandse overheid. Door consistente patronen, duidelijke governance en monitoring van risicovolle promptconstructies wordt het mogelijk om AI veilig, transparant en aantoonbaar in lijn met wet- en regelgeving te gebruiken.
- Implementatietijd: 80 uur
- FTE required: 0.5 FTE