De meeste mensen die dagelijks AI gebruiken, begrijpen niet hoe het werkt.
Dat is geen kritiek. Het hoeft ook niet. Je hoeft niet te weten hoe een verbrandingsmotor werkt om auto te rijden.
Maar er zijn dingen over AI die je wel moet weten. Niet technisch. Praktisch. Dingen die direct invloed hebben op hoe je het gebruikt, of je de output kunt vertrouwen, en welke risico's je loopt zonder het te beseffen.
Dit zijn er vijf. En ze zijn bijna niemand verteld.
1. AI liegt. Zelfverzekerd. Zonder te weten dat het liegt.
Dit is het meest onbegrepen ding over AI. En het is het gevaarlijkste.
Als jij iets niet weet, weet je dat je het niet weet. Je zegt "ik weet het niet" of je zoekt het op. AI doet dat niet. AI produceert altijd een antwoord. Altijd zelfverzekerd. Altijd in perfect gevormde zinnen die klinken alsof ze kloppen.
Dat heet hallucineren. En het is geen bug die straks wordt opgelost. Het is een fundamentele eigenschap van hoe taalmodellen werken. Ze voorspellen woord voor woord wat de meest logische volgende zin is. Soms klopt die zin. Soms niet. Het systeem weet zelf niet welk van de twee het geval is.
Een advocatenkantoor in New York diende in 2023 een rechtszaak in met zes precedenten die ChatGPT had aangeleverd. Alle zes bestonden niet. De AI had ze verzonnen, inclusief zaaksnummers, rechters en uitspraken. De rechter was niet onder de indruk. De advocaten werden beboet.
Dit is geen uitzonderlijk verhaal. Het is een waarschuwing die geldt voor elke organisatie die AI-output gebruikt zonder systematische controle. De AI klinkt zeker. Dat betekent niets. Niets in de output van een AI is per definitie waar. Alles moet worden gecontroleerd door iemand die weet wat hij controleert.
Dat is niet de fout van de AI. Het is de verantwoordelijkheid van de gebruiker. En die verantwoordelijkheid begint met weten dat het probleem bestaat.
2. Jouw gratis AI-account is geen dienst. Het is een datadeal.
Als je niet betaalt voor een product, ben jij het product. Dat principe geldt ook voor gratis AI-tools.
De standaardinstelling van de gratis versie van ChatGPT is dat OpenAI ingevoerde gesprekken mag gebruiken om het model te verbeteren. Dat klinkt abstract. Maar het is concreet: alles wat jij of een medewerker invoert in een gratis AI-account, inclusief klantdata, interne strategieën, personeelsinformatie, financiële cijfers, kan worden opgeslagen en gebruikt door de aanbieder.
Dat is geen kleine lettertjes-truc. Dat staat gewoon in de gebruiksvoorwaarden. Die niemand leest.
De gevolgen zijn direct. Onder de AVG is het doorsturen van persoonsgegevens naar een externe partij zonder verwerkersovereenkomst een datalek. Niet misschien. Zeker. Een gratis account heeft geen verwerkersovereenkomst. Een zakelijk abonnement wel.
Op dit moment gebruiken naar schatting miljoenen medewerkers in Nederland gratis AI-accounts voor werkgerelateerde taken. Een significant deel van hen voert data in die nooit buiten de organisatie had mogen komen. De organisaties weten het niet. De medewerkers weten het niet. De data is al weg.
Dit is geen theorie. Dit is de werkelijkheid van 2026.
3. AI heeft geen mening. Maar het klinkt alsof het er een heeft.
Als je AI vraagt wat de beste aanpak is voor een probleem, krijg je een antwoord dat klinkt als een weloverwogen mening. Zelfverzekerd. Onderbouwd. Overtuigend.
Het is geen mening. Het is een statistische voorspelling van welke tekst het meest logisch volgt op jouw vraag, gebaseerd op alles wat het model heeft geleerd. Het model heeft geen waarden, geen perspectief, geen belang bij het antwoord. Het produceert wat taalkundig het meest past.
Dat heeft een praktisch gevolg dat de meeste mensen niet zien: AI is extreem gevoelig voor hoe je de vraag stelt. Vraag je "waarom is aanpak A beter dan aanpak B", dan krijg je argumenten voor A. Vraag je "waarom is aanpak B beter dan aanpak A", dan krijg je argumenten voor B. Beide antwoorden klinken even overtuigend. Beide zijn even fout, want de vraag bepaalde het antwoord, niet de werkelijkheid.
Dit heet confirmation bias by design. En het is gevaarlijk in elke situatie waarbij AI wordt ingezet om beslissingen te ondersteunen. De manager die AI vraagt om zijn eigen voorstel te beoordelen, krijgt een positieve beoordeling. Niet omdat het voorstel goed is. Maar omdat de vraagstelling dat stuurde.
Wie dit niet weet, neemt beslissingen op basis van een spiegel die alleen teruggeeft wat hij wil zien.
4. AI discrimineert. En niemand ziet het.
Dit is het ongemakkelijkste feit op deze lijst.
AI-modellen worden getraind op menselijke data. Menselijke data bevat menselijke bias. Dat betekent dat AI-modellen die bias reproduceren, vaak zelfs versterken. Niet omdat de makers dat willen. Maar omdat de data het instrueert.
Een AI-systeem dat is getraind op historische aanstellingsdata, leert van die data dat mannen vaker worden aangenomen voor technische functies dan vrouwen. Het systeem trekt daar geen conclusie uit. Het reproduceert het patroon gewoon in zijn output.
Amazon bouwde een AI-systeem voor CV-screening en ontdekte jaren later dat het systematisch vrouwelijke kandidaten lager scoorde. Niet omdat het systeem geprogrammeerd was om dat te doen. Maar omdat de trainingsdata, aanstellingsbeslissingen uit het verleden, die voorkeur had.
De EU AI Act noemt het gebruik van AI in recruitment en personeelsbeoordeling expliciet als hoog-risico. Dat is geen toeval. Het is een erkenning van dit probleem. Organisaties die AI gebruiken voor HR-beslissingen zonder dit te begrijpen, lopen juridisch risico en veroorzaken schade die ze zelf niet zien.
En het stopt niet bij HR. Kredietbeoordeling. Klantprioritering. Fraudedetectie. Overal waar AI patronen uit het verleden gebruikt om beslissingen over de toekomst te nemen, kan historische ongelijkheid worden gereproduceerd als objectieve output.
Objectief ziet het er uit. Objectief is het niet.
5. Het model heeft alles gelezen. Maar het begrijpt niets.
Dit is het meest filosofische feit op de lijst maar ook het meest praktisch relevante.
Grote taalmodellen zijn getraind op een onvoorstelbare hoeveelheid tekst. Boeken, artikelen, websites, code, gesprekken. Meer dan een mens in duizend levens zou kunnen lezen. En toch begrijpt het model niets van wat het heeft gelezen. Niet in de zin waarop mensen begrijpen.
Het model heeft geen ervaring. Geen lichaam. Geen emoties. Geen gezond verstand dat is opgebouwd door in de wereld te bewegen. Het heeft patronen in taal. Heel veel patronen. Maar patronen zijn niet hetzelfde als begrip.
Wat dat in de praktijk betekent: AI mist context die voor mensen vanzelfsprekend is. Het begrijpt niet wat er op het spel staat. Het begrijpt niet wat de gevolgen zijn van een fout antwoord. Het begrijpt niet dat een klant boos is, dat een situatie delicaat is, dat een beslissing onomkeerbaar is.
Mensen die dat niet weten, behandelen AI als een collega die goed nadenkt. Het is geen collega. Het is een systeem dat taalpatronen reproduceert zonder de werkelijkheid te begrijpen die die taal beschrijft.
Dat verschil is klein als je AI gebruikt om een e-mail te schrijven. Het is enorm als je AI gebruikt om een diagnose te ondersteunen, een juridische afweging te maken of een beslissing over een mens te nemen.
Wat je met deze kennis doet
Dit zijn geen argumenten om AI niet te gebruiken. AI is nuttig. Enorm nuttig. Maar nuttig en risicoloos zijn twee verschillende dingen.
De vijf feiten hierboven zijn precies de reden waarom AI-geletterdheid bestaat als concept. En waarom de EU AI Act het als wettelijke verplichting heeft opgenomen. Medewerkers die AI gebruiken zonder deze basiskennis, lopen risico's die ze zelf niet zien. Organisaties die dat toelaten, dragen de verantwoordelijkheid voor de gevolgen.
Aantoonbare AI-geletterdheid betekent dat medewerkers deze dingen weten. Dat ze weten wanneer ze output moeten controleren. Dat ze weten welke data er nooit in mag. Dat ze begrijpen dat AI geen mening heeft en dat hun vraagstelling het antwoord stuurt. Dat ze AI-bias herkennen. En dat ze weten waar de grens ligt tussen wat AI kan en wat menselijk oordeel vereist.
Dat is wat de AIGA-training bijbrengt. Niet als abstract concept maar als direct toepasbare kennis voor de eigen werkomgeving. Gecertificeerd, gedocumenteerd en conform Artikel 4 van de EU AI Act.
Bekijk het programma op aigeletterdheid.academy. En doe eerst de AI Readiness Scan om te zien waar jouw team nu staat.

Ferry Hoes
Ferry Hoes is veelgevraagd spreker en trainer op het gebied van AI-geletterdheid. Hij staat meermaals per maand op het podium voor organisaties zoals a.s.r., VodafoneZiggo en verschillende ministeries. In 2020 won hij de Anti-Discriminatie AI-Hackathon van de Nederlandse overheid.
