overheid en ai: veilig blijven of uit de comfortzone stappen?.
tl;dr
terughoudendheid rond ai in de overheid komt vaker voor: uit angst voor fouten, privacyproblemen en afhankelijkheid van leveranciers. onderzoek laat tegelijk zien dat gebruik snel groeit. de vraag is daarom niet of je beweegt, maar hoe je verantwoord beweegt.
- twijfel over betrouwbaarheid en dataveiligheid is breed herkenbaar in de overheid
- niet bewegen verlaagt risico op korte termijn, maar vergroot operationele en strategische risico's op middellange termijn
- verantwoord experimenteren met heldere kaders werkt beter dan alles blokkeren
- met een klein governance-basispakket kun je veilig uit de comfortzone stappen
afgelopen week sprak ik leidinggevenden uit de it-hoek van een ministerie. hun belangrijkste reden om ai terughoudend te benaderen: “we vertrouwen het nog niet volledig” en “dataveiligheid moet eerst waterdicht.”
dat klinkt verstandig. en eerlijk gezegd: het is ook begrijpelijk.
maar de vraag is of volledige terughoudendheid nog de veiligste route is.
komt dit vaker voor in de overheid?
ja. deze spanning zie je breder.
de overheidsbrede monitor van tno (2025) laat een sterke groei zien van generatieve ai-toepassingen bij overheidsorganisaties (van 8 naar 81 in een jaar), maar ook een ongelijk beeld: gemeenten lopen relatief voorop, terwijl bij ministeries in die monitor maar een beperkt aantal toepassingen is gevonden.
daarnaast benadrukt de rijksoverheid zelf in de overheidsbrede handreiking voor generatieve ai dat verantwoorde inzet expliciete technologische, organisatorische, ethische en juridische randvoorwaarden vraagt. met andere woorden: de rem zit niet alleen op “willen”, maar vooral op “hoe dan veilig?“.
waarom die terughoudendheid logisch is
voor overheden is de lat terecht hoger dan in veel commerciële contexten.
- fouten raken direct burgers en grondrechten
- datalekken zijn niet alleen reputatieschade, maar ook bestuurlijke schade
- leveranciersafhankelijkheid raakt digitale soevereiniteit
- toezicht en politieke verantwoording zijn zwaarder
de algemene rekenkamer liet eerder al zien dat verantwoorde inzet mogelijk is, maar in de praktijk niet vanzelf gaat: bij 6 van 9 onderzochte algoritmes waren er risico’s, van gebrekkige controle tot bias en informatiebeveiliging.
de kern: de zorgen zijn niet overdreven, ze zijn bestuurlijk rationeel.
maar stilstand heeft ook gevolgen
hier wringt het. “nog even wachten” voelt veilig, maar kent een prijs.
1) schaduwgebruik groeit als formele adoptie stokt, gebruiken teams vaak toch publieke tools buiten governance om.
2) kennisachterstand wordt structureel zonder gecontroleerde praktijkervaring wordt elke volgende stap duurder en trager.
3) beleid en uitvoering raken uit sync regels worden ingehaald door de realiteit als organisaties niet leren in de praktijk.
4) afhankelijkheid neemt juist toe wie te laat start, heeft minder onderhandelingsmacht op architectuur, data en leveranciersvoorwaarden.
5) publieke waarde blijft liggen denk aan kortere doorlooptijden, betere dienstverlening en lagere administratieve druk voor professionals.
dus: uit de comfortzone? ja, maar gecontroleerd
de oplossing is niet “vol gas op ai”. de oplossing is ook niet “alles blokkeren.”
de oplossing is: veilig versnellen.
een praktisch model voor overheidsorganisaties
1. kies een laag-risico startdomein
begin intern: samenvatten van beleidsdocumenten, kennisontsluiting, werkvoorbereiding. niet direct met geautomatiseerde besluitvorming richting burgers.
2. hanteer een ‘geen gevoelige data in publieke modellen’-regel
maak dit technisch afdwingbaar waar mogelijk, niet alleen beleidsmatig op papier.
3. voer een vaste risico-check uit per use case
combinatie van avg-check (persoonsgegevens, doelbinding, dpia waar nodig), ai-act risicoclassificatie en bio-beveiligingsbeoordeling.
4. ontwerp menselijke tussenkomst vooraf
definieer waar een medewerker moet kunnen corrigeren, overrulen en uitleggen.
5. log en evalueer vanaf dag 1
houd outputkwaliteit, incidenten, afwijkingen en correcties structureel bij. zonder meetdata geen verantwoord opschalen.
6. train op ai-geletterdheid als basisvoorziening
ai-geletterdheid is geen nice-to-have; het is een operationele randvoorwaarde.
bestuurlijke vraag voor 2026
de echte vraag is niet: “vertrouwen we ai volledig?”
de betere vraag is:
op welke afgebakende processen kunnen we aantoonbaar veilig ervaring opbouwen, zodat we controle houden op tempo, risico en publieke waarde?
wie die vraag goed beantwoordt, hoeft niet blind voorop te lopen. maar loopt ook niet vast in afwachten.
en precies dat is in deze fase waarschijnlijk de meest verantwoorde route.
wil je dit vertalen naar een concrete aanpak voor jouw organisatie? lees ook: ai gebruiken zonder avg-stress: zo voldoe je aan de eu ai act.
dtl consultancy • taco van der poel & bart kuiper • ai voor business, overheid en non-profit