Er is iets paradoxaals aan de hand bij de Nederlandse overheid.
Aan de ene kant loopt de publieke sector voorop als het gaat om het inzetten van AI. Gemeenten gebruiken algoritmes om uitkeringsaanvragen te beoordelen. Uitvoeringsorganisaties zetten AI in voor fraudedetectie. Systemen bepalen mede wie in aanmerking komt voor toeslagen, subsidies en publieke dienstverlening. Dat gebeurt al jaren. Soms transparant, soms niet.
Aan de andere kant loopt diezelfde publieke sector ver achter als het gaat om AI-compliance. Medewerkers zijn niet getraind. Beleid ontbreekt of is verouderd. En de wet die dit allemaal gaat handhaven, staat voor de deur.
2 augustus 2026. Dat is de datum waarop de zwaarste eisen van de EU AI Act van kracht worden. En voor de overheid zijn die eisen zwaarder dan voor vrijwel elke andere sector.
Waarom de overheid extra hard geraakt wordt
De EU AI Act werkt met risicoklassen. Hoe groter de impact van een AI-systeem op de rechten en het leven van mensen, hoe zwaarder de eisen. En overheidsorganisaties zitten structureel in de hoogste risicoklasse.
Dat is geen toeval. Het is logica. Als een AI-systeem bij een commercieel bedrijf een fout maakt, is de schade beperkt tot dat bedrijf en zijn klanten. Als een AI-systeem bij een gemeente of uitvoeringsorganisatie een fout maakt, raakt dat burgers die nergens anders naartoe kunnen. Mensen die afhankelijk zijn van toeslagen, uitkeringen of publieke dienstverlening. Mensen zonder alternatief.
De wet erkent dat. En hangt er zware verplichtingen aan.
Wat valt er concreet onder hoog-risico AI bij de overheid? Algoritmes voor uitkeringscontrole en fraudedetectie. Systemen die bepalen of iemand in aanmerking komt voor toeslagen of subsidies. AI die aanvragen prioriteert of selecteert. Systemen voor werving en selectie van personeel. Tools die burgers categoriseren op basis van risicoprofiel.
Vrijwel elke middelgrote gemeente in Nederland heeft minstens één van deze systemen in gebruik. Vaak meer.
Wat de wet van overheidsorganisaties eist vanaf augustus 2026
Voor hoog-risico AI-systemen gelden vanaf 2 augustus 2026 eisen die verder gaan dan voor commerciële organisaties. Overheden krijgen een extra verplichting die de wet expliciet aan publieke autoriteiten oplegt.
Die verplichting heet de grondrechteneffectbeoordeling. Vóór het eerste gebruik van een hoog-risico AI-systeem moet een overheidsorganisatie formeel beoordelen wat de impact van dat systeem is op de grondrechten van burgers. Niet achteraf. Niet als het misgaat. Vooraf. Gedocumenteerd. Controleerbaar.
Daarnaast moeten hoog-risico AI-systemen worden geregistreerd in een EU-database. Menselijk toezicht moet aantoonbaar geborgd zijn, wat betekent dat er altijd een mens in de besluitvormingsketen zit die het systeem kan corrigeren of oversturen. En medewerkers die met die systemen werken, moeten aantoonbaar AI-geletterd zijn.
Dat laatste is Artikel 4, dat al van kracht is sinds februari 2025. Maar voor veel overheidsorganisaties is ook dat nog niet geregeld.
Het toeslagenschandaal als les die nog niet geleerd is
Nederland heeft een recente en pijnlijke herinnering aan wat er gebeurt als overheidsalgoritmes zonder voldoende toezicht worden ingezet.
Het toeslagenschandaal. Duizenden gezinnen getroffen door een systeem dat foutieve beslissingen nam, zonder dat medewerkers begrepen hoe het werkte, zonder dat burgers uitleg konden krijgen, en zonder dat er voldoende menselijk toezicht was om de fouten tijdig te corrigeren.
De EU AI Act is voor een deel een directe reactie op dat soort situaties. De grondrechteneffectbeoordeling bestaat precies om te voorkomen dat overheidsalgoritmes burgers schaden zonder dat iemand het ziet of begrijpt. Menselijk toezicht is verplicht gesteld precies omdat automatische besluitvorming zonder menselijke correctiemogelijkheid fundamentele rechten schendt.
De les van het toeslagenschandaal is dat technologie zonder begrip gevaarlijk is. AI-geletterdheid is het antwoord op die les. Niet als formaliteit, maar als wezenlijke bescherming van burgers.
Wat gemeenten en uitvoeringsorganisaties nu concreet moeten doen
De agenda is helder. De tijd is krap. Dit zijn de stappen die elke overheidsorganisatie nu moet zetten.
Inventariseer alle AI-systemen
Welke AI-systemen worden gebruikt? Door wie, waarvoor, en met welke impact op burgers? Dit overzicht ontbreekt bij de meeste overheidsorganisaties. Niet omdat men het niet wil, maar omdat AI de afgelopen jaren stukje bij beetje is ingeslopen. Een algoritme hier, een beslismodel daar, een geautomatiseerde toets ergens anders. Samen vormt dat een AI-landschap dat niemand volledig in kaart heeft.
Begin hier. Zonder overzicht is niets anders mogelijk.
Classificeer per systeem
Niet elk AI-systeem is hoog-risico. Een chatbot op de gemeentewebsite is iets anders dan een fraudedetectiesysteem. De EU AI Act biedt daarvoor een beslishulp, ontwikkeld door de Digitale Overheid, die stap voor stap bepaalt in welke risicoklasse een systeem valt. Gebruik die tool. Documenteer de uitkomst. Herhaal dit voor elk systeem.
Voer grondrechteneffectbeoordelingen uit voor hoog-risico systemen
Voor elk systeem dat als hoog-risico wordt geclassificeerd, moet een grondrechteneffectbeoordeling worden uitgevoerd vóór eerste gebruik. Voor systemen die al in gebruik zijn, moet die beoordeling alsnog worden gedaan. Dit vraagt juridische kennis, beleidsmatige inzet en documentatie. Het is geen klein klusje. Maar het is een wettelijke verplichting.
Train medewerkers
Dit is het onderdeel waar AIGA direct kan helpen. Artikel 4 verplicht overheidsorganisaties om medewerkers die met AI werken aantoonbaar AI-geletterd te maken. Dat geldt voor de ambtenaar die een beslissing neemt op basis van AI-output, voor de beleidsmaker die een AI-systeem inkoopt en voor het management dat eindverantwoordelijk is.
AI-geletterdheid in de publieke sector gaat over meer dan tools leren gebruiken. Het gaat over begrijpen wanneer een AI-systeem kan falen, hoe je output kritisch beoordeelt, wat de rechten van burgers zijn bij geautomatiseerde besluitvorming, en hoe je als medewerker menselijk toezicht in de praktijk invult. Precies dat leert de AIGA-training. Bekijk het aanbod op aigeletterdheid.academy.
Registreer hoog-risico systemen in de EU-database
Vanaf augustus 2026 moeten hoog-risico AI-systemen worden geregistreerd in de Europese database die de Commissie beheert. Dat is een administratieve verplichting, maar een die openbaar is. Burgers, journalisten en toezichthouders kunnen straks zien welke systemen een gemeente inzet en of die compliant zijn. Transparantie is niet meer optioneel.
De politieke dimensie
Er is ook een politieke kant aan dit verhaal die zelden wordt benoemd.
Gemeenteraden en provinciale staten hebben een controlerende taak. Die taak kunnen ze alleen waarmaken als ze begrijpen wat er in hun organisatie met AI gebeurt. Een raadslid dat niet weet wat een hoog-risico AI-systeem is, kan geen vragen stellen over de inzet ervan. Een wethouder die niet begrijpt wat een grondrechteneffectbeoordeling inhoudt, kan geen verantwoording afleggen over de keuzes die zijn gemaakt.
AI-geletterdheid is in de publieke sector dus niet alleen een operationele noodzaak. Het is een democratische noodzaak. Volksvertegenwoordigers die AI niet begrijpen, kunnen AI niet controleren. En een overheid die niet gecontroleerd kan worden, verliest het vertrouwen van de burgers die ze dient.
Het moment om te handelen is nu
Augustus 2026 is geen abstracte datum. Het is over enkele maanden. En de overheid heeft historisch laten zien dat grote compliance-trajecten meer tijd kosten dan verwacht. De AVG heeft dat bewezen. De Baseline Informatiebeveiliging Overheid heeft dat bewezen. De AI Act gaat dat opnieuw bewijzen.
Overheidsorganisaties die nu beginnen, kunnen het proces ordentelijk doorlopen. Inventarisatie, classificatie, beoordeling, training, registratie. Stap voor stap, met voldoende tijd voor elk onderdeel.
Organisaties die wachten tot het kwartaal voor de deadline, doen dat in een sprint. Met alle fouten van dien.
De AI Readiness Scan van AIGA geeft in tien minuten inzicht in het huidige niveau van AI-gebruik en AI-kennis binnen een organisatie. Een nuttig startpunt voor elke gemeente, uitvoeringsorganisatie of publieke instelling die het gesprek intern wil openen.
Doe de scan op aigeletterdheid.academy.

Ferry Hoes
Ferry Hoes is veelgevraagd spreker en trainer op het gebied van AI-geletterdheid. Hij staat meermaals per maand op het podium voor organisaties zoals a.s.r., VodafoneZiggo en verschillende ministeries. In 2020 won hij de Anti-Discriminatie AI-Hackathon van de Nederlandse overheid.