Artificial Intelligence (AI)

GenAI in besluitvorming: wat je moet archiveren (en waarom) ?

Collega's in overleg

“Heb je het al aan Copilot gevraagd?” Het is een zin die de laatste jaren steeds vaker klinkt op de werkvloer. Met de opkomst van generatieve AI-tools zoals ChatGPT en Microsoft Copilot zijn er tal van toepassingen ontstaan waardoor het professionele leven makkelijker wordt. In dit artikel spreken we over generatieve AI-tools die nieuwe content kunnen genereren. De term GenAI en AI zullen uitwisselbaar gebruikt worden voor generatieve AI-tools zoals ChatGPT, Microsoft Copilot en vlam-chat. Ook binnen de overheid wordt volop gebruik gemaakt van dit soort tools, bijvoorbeeld voor het opstellen van nota’s of het overnemen van routinematig werk.[1] Uit recent onderzoek blijkt dat bij onderzochte gemeenten maar liefst 55% van de gemeenteambtenaren gebruikmaakt van AI.[2] 

Het gebruik van GenAI door ambtenaren brengt een nieuw vraagstuk met zich mee: hoe gaan we om met alles wat we in en uit GenAI krijgen (AI in- en output) als het gebruikt wordt voor zakelijke toepassingen binnen de overheid? Voor WhatsApp en e-mailberichten bestaan al archiveringsrichtlijnen. Dit kwam tot stand door de discussies rond de verwijderde sms’jes van de premier. [3] Voor AI ontbreekt die duidelijkheid nog. Wat doe je bijvoorbeeld met een chatgesprek met Copilot waarin AI-suggesties geeft voor jouw werk?
In een artikel in het vaktijdschrift Binnenlands Bestuur geeft Advocaat Cornelis Sluis, gespecialiseerd in Open Overheid, een helder antwoord: “berichten uitgewisseld met AI zijn net zo archiefwaardig als mails, appjes, brieven of nota’s.”[4]

Deze uitspraak roept nieuwe vragen op. Is alle in- en output van AI archiefwaardig? Als men nog dieper gaat,   hoe transparant is het antwoord van AI eigenlijk? En wat is de rol van AI-bewustzijn van overheidsmedewerkers? Het GenAI-team van BECIS | DIOR zocht deze vragen uit. In gesprekken met senior-adviseurs van BECIS | DIOR en met Sander Fischer van SSC-ICTerdiepen we dit vraagstuk. We kijken naar de juridische en praktische kanten van het archiveren van AI in- en output binnen de overheid.  

Wat archiveer ik?

“De overheidsorganen zijn verplicht de onder hen berustende archiefbescheiden in goede, geordende en toegankelijke staat te brengen en te bewaren, alsmede zorg te dragen voor de vernietiging van de daarvoor in aanmerking komende archiefbescheiden” (Archiefwet 1995 artikel 3).

Artikel 3 van de Archiefwet 1995 beschrijft de juridische grondslag voor het bewaren van overheidsinformatie. Overheidsorganen zijn verplicht om informatie duurzaam toegankelijk te maken. Denny Schouten, senior-adviseur bij BECIS | DIOR vat het samen als: “Alle documenten, ongeacht de vorm, opgemaakt ten behoeve van de taak van het overheidsorgaan” dienen gearchiveerd te worden. De inhoud is dus leidend, niet de vorm. Hierdoor geldt de Archiefwet niet alleen voor traditionele documenten, maar ook voor moderne communicatievormen zoals e-mail, chatberichten én AI-output.

Denny Schouten gaf ook aan dat de noodzaak ligt bij het archiveren van het complete beeld: “Als je de zaak kunt reconstrueren en begrijpt waar het over gaat, heb je een goed dossier.” En wie bepaalt dat? Denny: “Alleen de ambtenaar weet wanneer een dossier compleet is. Dat kunnen informatiespecialisten niet zeggen.”

Maar betekent dat dat we ook de prompts en antwoorden voor een willekeurige samenvatting moeten archiveren? Denny: “Nee, niet als het gebruikt wordt als naslagwerk of als samenvattingstool. Maar als het over besluitvorming gaat, moet je eigenlijk de prompt, het antwoord plus de bronnen archiveren.” Denny geeft daarnaast ook aan dat het vakgebied informatiebeheer meer moet nadenken over het archiveren van AI-prompts, ook moeten er oplossingen komen alle overheden.

GenAI bij besluiten

AI-gebruik archiveren is dus vooral belangrijk als het gaat om besluitvormingsprocessen. Het gaat dan om het correct opslaan van AI-prompts, AI-output en de gebruikte bronnen. Maar wat zijn dan die bronnen waar de AI-output zich op baseert? Volgens Sophie Weerts, onderzoeker en universitair hoofddocent in publieksrecht en digitale ontwikkelingen, zijn er drie typen AI-systemen binnen het publieke domein te onderscheiden:

  • intern ontwikkelde tools
  • extern ontwikkelde maar voor intern gebruik aangepaste tools
  • publiek beschikbare, privé ontwikkelde tools.[5]

Deze laatste categorie zijn meestal zogeheten black-box tools: AI-applicaties waarvan men niet weet hoe een antwoord van een prompt tot stand komt.  Voorbeelden hiervan zijn ChatGPT en Copilot.

Het inzetten van dergelijke systemen brengt uiteenlopende risico’s met zich mee. Er moeten serieuze veiligheidsoverwegingen gemaakt worden met betrekking tot het gebruik van de data die je invoert. Daarnaast zijn er kwesties rondom plagiaat die verband houden met de herkomst van gegevens.

Daarbij worden GenAI modellen getraind op grote hoeveelheden informatie. Dat brengt allerlei uitdagingen met zich mee: je weet niet op welke informatie het model is getraind en de workflow van het model (waar haalt de GenAI zijn informatie vandaan en wanneer) is niet bekend of traceerbaar, noch begrijpelijk. Dit brengt risico’s voor ambtenaren met zich mee, zoals het nemen van besluiten op basis van oncontroleerbare of mogelijk foutieve informatie.

 

AI-beleid en begrijpbare AI

De Europese Unie heeft recentelijk de Europese AI Act geïntroduceerd. Deze zogenoemde AI-act richt zich in Artikel 12 specifiek op de traceerbaarheid van tools en modellen. Het stelt dat systemen met een hoog risico automatisch hun workflow moeten vastleggen, oftewel logs bijhouden. In deze logs moet worden vastgelegd wanneer het systeem gebruikt is, welke referentiedatabase is gebruikt, wat de invoergegevens waren en wie er als natuurlijk persoon betrokken was bij de verificatie van de resultaten.[6]

Hier komt het concept Explainable AI (XAI) om de hoek kijken. XAI houdt in dat je kunt uitleggen hoe en waarom een AI-systeem tot een bepaald antwoord of besluit is gekomen.[7] , Net als de Archiefwet, vraagt XAI om het vastleggen van de in- en output van AI en de gebruikte bronnen. Maar XAI gaat nog een stap verder. Het vraagt ook om het vastleggen van de door AI genomen stappen om tot een resultaat te komen. Alleen zo kan echt volledig achteraf worden gereconstrueerd hoe een besluit tot stand kwam. XAI kan dus een volledig beeld geven voor verantwoording achteraf, en precies aangeven wat er gearchiveerd moet worden.

Ideaal of realiteit

XAI is echter op dit moment nog een ideaalbeeld, en niet van toepassing op de veelgebruikte en populairste tools als ChatGPT en Copilot. Maar wat kunnen we dan wel doen? Jeffrey Mangal, senior-adviseur bij BECIS | DIOR, benadrukt het belang van transparantie en verantwoording bij het gebruik van AI binnen de overheid. Ambtenaren moeten uitleg kunnen geven over gemaakte keuzes en waar dat op gebaseerd is. Jeffrey verschuift de focus van de input, output en interne stappen van AI naar de blik op de AI-output. Volgens hem is het

minstens zo belangrijk om inzichtelijk te maken welke menselijke afwegingen zijn gemaakt op basis van de AI-output.

 “Prima als je sparrend met AI wat scenario’s ophaalt, maar dan willen we eigenlijk ook weten hoe je daarna met die scenario’s het gesprek hebt gevoerd,” aldus Mangal. Hij benadrukt dat kritisch denkvermogen en kwaliteitsborging essentieel zijn: “We moeten goed kunnen onderbouwen hoe beleidsproducten op punten [door het gebruik van AI] tot stand zijn gekomen. Laten we zorgen dat we dus ook zo goed mogelijk vastleggen wat we hebben gedaan, desnoods om daar goede lessen uit te trekken.” Verantwoord AI-gebruik, vraagt om bewuste keuzes in hoe we gebruik maken van AI-output en hoe besluitvormingsprocessen moeten worden vastgelegd. 

Zijn er alternatieven voor Black Box GenAI-tools?

Wanneer je zelf een AI-model ontwikkelt, bepaal jij hoe het model wordt opgebouwd, welke data je gebruikt voor de training en welke algoritmes ingezet worden. Dit zorgt ervoor dat de tool transparant is en de resultaten gemakkelijk te herleiden zijn. Dat is precies wat er nodig is voor goede archivering. Maar deze aanpak is complexer en kostbaarder dan de aanschaf van een bestaande tool als Copilot. Daarom kiezen overheidsonderdelen momenteel voor de toegankelijke, snelle oplossing die een bestaande tool biedt in plaats van zelf een tool ontwikkelen.

Binnen het Rijk is er een lopend initiatief voor de opzet van een breder gedragen soevereine AI-oplossing. We spraken Sander Fischer, kwartiermaker van het AI competence Center bij SSC-ICT. Hij ziet bij de Rijksoverheid dat veel ambtenaren Gen AI-tools uitproberen. Enerzijds was er vraag naar een veilig alternatief voor commerciële, internationaal beheerde AI-platformen, anderzijds is er de behoefte om interne documenten op een veilige en betrouwbare manier te kunnen doorzoeken en bevragen. Bovendien moet een dergelijke oplossing opgeschaald en breed gedragen kunnen worden binnen de overheid. Het resultaat: vlam, met vlam-chat en vlam-api als aangeboden oplossingen.

Toch geeft Fischer aan dat archivering in de AI-tool zelf niet de oplossing is. “Technisch gezien is het ongetwijfeld mogelijk, maar de noodzaak is er nu niet. De output van vlam komt namelijk terecht in het normale proces waar de archiveringsregels voor gelden.” Gebruikers moeten hun gesprekken exporteren en toevoegen aan het archiefsysteem van hun organisatie. Hierdoor worden zowel de definitieve documenten als het AI-gebruik, dat tot het document geleid heeft, gezamenlijk bewaard. Dit sluit aan bij de wettelijke eis dat archiefbescheiden geordend worden beheerd. Wel vereist dit een goede coördinatie waar in de toekomst vorm aan gegeven moet worden.

Hoe nu verder?

Een AI-model volgens XAI-principes zou een geschikte oplossing kunnen zijn voor het verantwoord inzetten van AI binnen overheidsprocessen. Want transparantie bevordert het voldoen aan verantwoordingsverplichtingen. In de praktijk blijkt dit vaak lastig te realiseren: toegang tot de trainingsdata van het AI-model ontbreekt vaak, of de beschikbare informatie is soms te technisch van aard om door alle gebruikers te begrijpen. Een eigen tool met een zelfontwikkeld model zou uitkomst kunnen bieden.

Toch benadrukt Sander Fischer hier: “Wij bieden de tool aan, maar jij bent de gebruiker en jij hebt verantwoordelijkheid voor jouw interactie met de tool. En dat moet binnen een departement ingericht worden en moet in de AI-geletterdheid terugkomen.” AI-geletterdheid refereert aan de vaardigheden die ambtenaren moeten hebben om verantwoord met AI om te kunnen gaan. Ook Jeffrey Mangal benadrukt kritisch denkvermogen als een onmisbare vaardigheid bij het werken met GenAI. Uiteindelijk bepaalt de gebruiker waarvoor de AI-output gebruikt wordt, en alleen de ambtenaar zelf weet dit het beste.

Voor een verantwoorde toepassing van GenAI binnen de overheid is het essentieel dat ambtenaren zich bewust zijn van hun rol en verantwoordelijkheid in het archiveren van AI-prompts en -output, zodra deze bijdragen aan besluitvorming. Goede AI-geletterdheid, bewustzijn rondom het vastleggen van alle relevante AI-interacties en een kritisch denkvermogen vormen hiervoor de basis. Alleen zo kan de overheid transparant en verantwoord omgaan met de inzet van AI in haar besluitvormingsprocessen.

 

Dit artikel is tot stand gekomen met behulp van Copilot.

Expertise

Adviseren

Wij bieden advies, uitvoering en training op het snijvlak van informatiemanagement, digitale samenwerking en organisatieontwikkeling.

Neem contact op

Bezuidenhoutseweg 27-29 38
2594 AC Den Haag

070 8200 628

Kennis & Inzicht

Wij delen kennis en ervaringen uit de praktijk: van diepgaande inzichten tot concrete tips voor duurzaam informatiemanagement.

Neem contact op

Bezuidenhoutseweg 27-29 38
2594 AC Den Haag

070 8200 628

Over ons

Over ons

De kracht van BECIS | DIOR zit in onze mensen. Samen brengen we kennis, ervaring en een nuchtere blik om organisaties verder te helpen.

Neem contact op

Bezuidenhoutseweg 27-29
2594 AC Den Haag

070 8200 628

Werken bij

Werken bij

Ontwikkel je bij BECIS | DIOR en werk mee aan betrouw-bare informatieoplossingen voor publieke organisaties met maatschappelijke impact.

Neem contact op

Bezuidenhoutseweg 27-29
2594 AC Den Haag

070 8200 628