
Verschil tussen minimal, limited en high-risk AI
Sinds de komst van de EU AI Act moeten organisaties hun AI-systemen indelen in risiconiveaus. Dat klinkt eenvoudig, maar in de praktijk blijkt het lastig: wanneer is iets minimal risk, en wanneer high-risk? Het verschil bepaalt namelijk welke verplichtingen je hebt. Van simpele meldingen tot uitgebreide audits — alles hangt af van de risk classification. In dit artikel leg ik uit hoe het zit, in gewone taal en met voorbeelden die je meteen kunt toepassen in jouw organisatie.
→ Lees ook onze complete gids over de EU AI Act.
Waarom werkt de EU met risiconiveaus?
De EU AI Act werkt met een risk-based approach. Niet elk AI-systeem is even gevaarlijk. Een chatbot die alleen vragen over openingstijden beantwoordt, is niet te vergelijken met een AI die bepaalt of iemand een lening krijgt. Daarom zegt de wet: hoe hoger het risico, hoe strenger de regels. Dat moet innovatie mogelijk houden, zonder mensenrechten en veiligheid uit het oog te verliezen.
1. Minimal risk AI
Minimal risk betekent: vrijwel geen gevaar voor rechten of veiligheid. Voorbeelden zijn spamfilters, AI in videogames of autocorrect op je telefoon. Voor deze categorie gelden geen verplichtingen. Deze systemen mogen vrij worden ontwikkeld en gebruikt. Maar let op: als je AI inzet op persoonsgegevens, blijft de GDPR wél gelden.
2. Limited risk AI
Hier begint het al serieuzer te worden. Limited risk AI gaat vaak over systemen die mensen kunnen beïnvloeden, maar niet direct grote beslissingen nemen. Voorbeelden zijn chatbots op websites, AI die productaanbevelingen doet, of AI die tekst genereert, zoals ChatGPT voor content.
De verplichtingen hier zijn beperkt. Je moet bijvoorbeeld gebruikers informeren dat ze met AI communiceren (transparantieplicht). Denk aan een simpele disclaimer zoals: “Dit antwoord is gegenereerd door kunstmatige intelligentie.”
→ Lees ook: Wat is AI-geletterdheid?
3. High-risk AI
Dit is de meest kritische categorie. High-risk AI is technologie die impact kan hebben op gezondheid, mensenrechten, kansen op werk of krediet, of toegang tot belangrijke diensten zoals onderwijs of zorg.
Voorbeelden:
-
AI die kandidaten selecteert voor sollicitaties
-
AI die kredietwaardigheid berekent
-
Diagnosetools in ziekenhuizen
-
AI in kritieke infrastructuur zoals energie of vervoer
→ Lees meer: Wat zijn high-risk AI-systemen volgens de EU AI Act?
Verplichtingen bij high-risk AI
Zodra je systeem onder high-risk valt, moet je veel regelen:
-
Risk assessments uitvoeren: Hoe groot is het risico? Hoe ga je ermee om?
-
Uitgebreide documentatie bijhouden: Denk aan trainingsdata, algoritmes en beslisregels
-
Audits kunnen doorstaan: Autoriteiten kunnen je dwingen je systeem uit te leggen
-
Menselijke controle garanderen: Beslissingen mogen niet volledig autonoom zijn bij kritieke processen
Prohibited AI
Naast minimal, limited en high-risk is er nog een vierde categorie: verboden AI. Hier gaat het om toepassingen die de EU zó riskant vindt dat ze volledig verboden worden, zoals sociale scoring, AI die mensen manipuleert of gezichtsherkenning in publieke ruimtes (met uitzonderingen).
→ Lees meer: Welke AI-systemen zijn verboden onder de AI Act?
Hoe bepaal je jouw risico?
Veel organisaties vragen zich af: waar val ik onder? Een snelle aanpak:
-
Bekijk je processen: Waar gebruik je AI?
-
Check of er impact is op mensenrechten, gezondheid of belangrijke levenskeuzes → Zo ja, high-risk
-
Is het alleen een chatbot of contentgenerator? → Meestal limited risk
-
Gebruik je AI puur voor interne, simpele taken? → Minimal risk
Let op: de EU AI Act blijft in beweging. Het is slim om je team nu al voor te bereiden, vooral op het gebied van AI-geletterdheid. Want wetten volgen begint bij mensen die begrijpen wat AI doet.
→ Bekijk onze AI-geletterdheid training voor teams.
Conclusie
De EU AI Act maakt geen onderscheid om het moeilijk te maken. Het doel is helder: veilige en eerlijke AI. Het verschil tussen minimal, limited en high-risk is bepalend voor jouw verplichtingen.
→ Wil je alles weten over de EU AI Act? Lees onze complete gids over de EU AI Act.
Over de auteur
Ferry Hoes werkt sinds 2017 op het snijvlak van AI en menselijk gedrag. Als winnaar van de Dutch AI Hackathon en oprichter van het Brand Humanizing Institute helpt hij organisaties AI strategisch in te zetten zónder de mens uit het oog te verliezen. Hij is een veelgevraagd spreker over de impact van AI op bedrijven, werk en samenleving.
Over de auteur
Ferry Hoes werkt sinds 2017 op het snijvlak van AI en menselijk gedrag. Als winnaar van de Dutch AI Hackathon en oprichter van het Brand Humanizing Institute helpt hij organisaties AI strategisch in te zetten zónder de mens uit het oog te verliezen. Hij is een veelgevraagd spreker over de impact van AI op bedrijven, werk en samenleving.
Klaar om AI-Geletterd te worden?
Laat je gegevens achter en we nemen direct contact met je op.
Samen zorgen we dat jouw organisatie voldoet aan de wet – én AI slim inzet voor blijvend voordeel.
Waarom bij ons?
✔️ Je voldoet aan de wettelijke verplichting van de AI Act
✔️ De training is inclusief certificering
✔️ Je voorkomt risico’s zoals datalekken, bias en reputatieschade
✔️ Je versterkt strategisch denken over AI binnen je organisatie
✔️ Training door een AI-Expert en professioneel spreker
Klaar om AI-Geletterd te worden?
Laat je gegevens achter en we nemen direct contact met je op.
Samen zorgen we dat jouw organisatie voldoet aan de wet – én AI slim inzet voor blijvend voordeel.
Waarom bij ons?
✔️ Je voldoet aan de wettelijke verplichting van de AI Act
✔️ De training is inclusief certificering
✔️ Je voorkomt risico’s zoals datalekken, bias en reputatieschade
✔️ Je versterkt strategisch denken over AI binnen je organisatie
✔️ Training door een AI-Expert en professioneel spreker