Toezicht op de inzet van Conversational AI

Afgelopen week is in het vakblad fondsenwerving het artikel “Van matige chatbot naar goede hulp: de stap naar conversational AI 2.0“ door Jan Verstegen gepubliceerd. Als aanvulling daarop gaat onderstaande artikel in op de rol van toezichthouders bij de inzet van conversational AI.

Conversational AI in goede doelen: kansen en randvoorwaarden

Kunstmatige intelligentie (AI) omvat een breed spectrum van technologieën—van traditionele patroonherkenning tot geavanceerde generatieve modellen zoals Large Language Models (LLM’s) (NCTV). Conversational AI, zoals beschreven in het artikel “Van matige chatbot naar goede hulp: de stap naar Conversational AI 2.0”, is één toepassing binnen dat brede veld en maakt gebruik van LLM’s om gebruikers – zoals donateurs – niet alleen te informeren, maar actief te laten handelen (bijvoorbeeld aanpassen van periodieke giften) (fondsenwerving.nl). Maar AI reikt verder dan chatbots: het omvat beeld-, spraak-, besluitondersteunende systemen, automatisering van backoffice-processen, predictive analytics, enzovoorts.

Volgens het artikel levert een geavanceerde, goed geïntegreerde chatbot waardevolle service voor donateurs, bespaart daarmee uren en verhoogt tegelijkertijd de klanttevredenheid—mits deze onderdeel uitmaakt van de totale visie op klantcontact en naadloos kan samenwerken met personeel en interne systemen (fondsenwerving.nl).

De rol van intern toezicht: stimuleren én controleren

a. Strategische plaatsing op de bestuurlijke agenda

AI — inclusief specifieke toepassingen als conversational AI — verdient een vaste plek op de agenda van bestuur of Raad van Toezicht. Zo voorkomt u dat het onderwerp incidenteel blijft en onvoldoende aandacht krijgt in beleidsvorming(itgd.nl). AI-toepassingen komen vaak “bottom-up” de organisatie binnen, bijvoorbeeld via de ICT-afdeling of marketing die experimenteert met chatbots of data-analyse. Zonder structurele agendering in bestuur of Raad van Toezicht blijft de inzet versnipperd, zonder helder kader voor risico’s of kansen.

b. Managementverantwoordelijkheid en mandaat

Duidelijkheid over wie binnen de organisatie verantwoordelijk is voor de ontwikkeling, implementatie en monitoring van AI-toepassingen is cruciaal. Dit geldt voor zowel interne governance als voor het afstemmen van beleid met externe stakeholders(itgd.nl, Npuls). Zonder duidelijke eigenaarschap bestaat het risico dat AI-projecten door externe leveranciers of losse afdelingen worden gedreven, zonder dat er centrale controle is.
Een van de manieren van organiseren hiervan is:

  • Proceseigenaar is van AI-toepassingen binnen het management

  • Helder mandaat en escalatiepad is: wie mag besluiten nemen over gebruik, opschaling of juist stopzetten?

  • Een RACI-matrix voor AI-projecten, zodat rollen en verantwoordelijkheden scherp zijn.

c. Bewustwording, risicobeoordeling en naleving

Toezichthouders moeten erop toezien dat er binnen de organisatie voldoende bewustzijn is over risico’s rond AI zoals:

  • Bias, discriminatie of onjuiste output (hallucinaties van LLM’s).

  • Beveiliging/privacy bij bijvoorbeeld het delen van intern data met externe AI-systemen.

  • Overreliance: te sterk vertrouwen op “ondersteunende” AI, terwijl de menselijke controle verminderd raakt (Autoriteit Persoonsgegevens).

d. Governance-structuur, compliance en toetsingsprocedures

Er moeten systemen zijn voor periodische updates over AI-inzet, compliance met wettelijke kaders (zoals de AI-verordening), en risicobeperking. Denk aan:

e. Transparantie & externe controle

Goed toezicht betekent niet alleen interne controle, maar ook externe verantwoording en auditmogelijkheden. Bijvoorbeeld onafhankelijke audits van algoritmes of systemen, waarbij externe deskundigen betrokken worden (arXiv). Is het bij (potentiele) donateurs en relaties zichtbaar dat men met een AI-systeem praat of een AI-analyse ontvangt? En is er een mechanisme voor externe audit is, bijvoorbeeld via onafhankelijke deskundigen of deelname aan een algoritmeregister.

f. Good governance met een AI lifecycle

Zoals prof. dr. Cokky Hilhorst benadrukte tijdens het symposium “AI en goede doelen”: het gaat niet alleen om het gebruik van AI, maar om goed bestuur gedurende de volledige levenscyclus van AI- en datagebruik—van ontwerp, implementatie tot evaluatie (itgd.nl). Denk hierbij aan het “hourglass model” dat benadrukt dat governance op verschillende niveaus (organisatie, systemen) nodig is om ethische principes in de praktijk te brengen(arXiv).

Vragen voor toezichthouders

Hieronder verschillende vragen die u als toezichthouder kan stellen om beeld te krijgen bij de inzet van AI voor Conversational AI.

Strategie en beleid

  • Welke concrete doelen dient de inzet van deze AI-toepassing in relatie tot onze missie, en hoe verhoudt dit zich tot alternatieve manieren om hetzelfde doel te bereiken?

  • Welke andere AI-toepassingen zijn in beeld (of worden uitgesloten) binnen de organisatie, en hoe past conversational AI in die bredere strategie?

  • Welke groepen (donateurs, vrijwilligers, medewerkers) profiteren van deze toepassing, en wie kan er mogelijk nadeel van ondervinden?

Governance en verantwoordelijkheid

  • Wie binnen de organisatie is eindverantwoordelijk voor de ontwikkeling, monitoring en bijsturing van AI-toepassingen?

  • Welke interne controles en externe audits worden toegepast om de betrouwbaarheid, transparantie en ethische inzet van AI te waarborgen?

Risico’s en compliance

  • Hoe worden privacy, databescherming en naleving van de AI-verordening en AVG concreet geborgd in de werking van de chatbot?

  • Welke risicoanalyse (bijvoorbeeld bias, foutieve antwoorden, overreliance) is uitgevoerd, en welke maatregelen zijn genomen om deze te mitigeren?

  • Wat is het plan als de AI fouten maakt of onjuiste informatie geeft — hoe worden correcties, klachten en herstelprocessen ingericht?

Organisatie en draagvlak

  • Hoe worden medewerkers en vrijwilligers meegenomen en ondersteund in de samenwerking met AI-systemen, zodat kennis, vertrouwen en toezicht behouden blijven?

  • Op welke wijze wordt periodiek geëvalueerd of de toepassing nog steeds aansluit bij onze waarden, reputatie en maatschappelijke verantwoordelijkheid?

Conclusie

De conversie naar Conversational AI 2.0 in de non-profitsector biedt reële kansen — meer efficiëntie, betere service, donorbetrokkenheid — maar ook reële risico's. Intern toezicht speelt een sleutelrol in het realiseren van verantwoorde AI-innovatie: door te stimuleren, monitoren en evalueren, in samenhang met wettelijke vereisten en ethische normen.

Nynke Runia, augustus 2025

Vorige
Vorige

ITGD Nieuwsbrief September 2025

Volgende
Volgende

Toezicht door de ledenraad