
GenAI vs. Agentic AI
13/11/2025
Retrieval-Augmented Generation (RAG)
07/01/2026Hallucinaties in AI: wat ze zijn, waarom ze ontstaan en hoe je ze voorkomt
Hallucinaties in AI
AI-tools worden steeds vaker ingezet voor serieuze taken: het samenvatten van rapporten, het beantwoorden van klantvragen, het ondersteunen van beslissingen. Maar er is één bekende valkuil die je als professional moet kennen voordat je AI structureel in jouw organisatie inzet: hallucinaties. In deze blog leggen we uit wat het zijn, waarom ze ontstaan, welke vormen je tegenkomt en hoe je ze zoveel mogelijk kunt voorkomen.
Datum
09-12-2025
Categorie
Inzichten & inspiratie
Auteur
Pleun Claassen
Wat zijn hallucinaties in AI?
Een AI-hallucinatie ontstaat wanneer een taalmodel een antwoord genereert dat taalkundig correct, logisch opgebouwd en overtuigend geformuleerd is, maar dat inhoudelijk onjuist, incompleet of volledig verzonnen blijkt te zijn. Het verraderlijke aan hallucinaties is juist dat ze zelden als "fout" aanvoelen. Ze klinken plausibel, professioneel en zelfverzekerd, precies de eigenschappen die mensen geneigd zijn te vertrouwen.
Belangrijk om te begrijpen: een hallucinatie is geen programmeerfout, geen bewuste misleiding en ook geen teken dat het model "faalt". Het is een structureel gevolg van hoe Large Language Models (LLM's), de technologie achter tools als ChatGPT, zijn ontworpen en getraind. Een LLM is in de kern een systeem dat taal voorspelt, geen systeem dat feiten opzoekt of waarheid controleert.

Hoe werkt een taalmodel eigenlijk?
Een LLM is geen kennisbank en ook geen zoekmachine. Wat het wél doet, is taal voorspellen: bij elk woord berekent het systeem welk woord statistisch het meest waarschijnlijk volgt, op basis van patronen uit enorme hoeveelheden tekst waarop het is getraind. Met andere woorden: een taalmodel produceert geen feiten, maar waarschijnlijkheden.
Dat verschil is subtiel maar fundamenteel. Waar mensen redeneren vanuit begrip en ervaring, redeneert een LLM vanuit statistiek. Het model "weet" niet wat een onderhoudsprocedure inhoudt of wat de regels zijn in jouw gemeente. Het herkent alleen patronen in hoe die woorden samen voorkomen in tekst. Dat werkt verrassend goed, totdat het misgaat.
Waarom zegt AI niet gewoon "ik weet het niet"?
In tegenstelling tot mensen is een taalmodel niet van nature geneigd om onzekerheid te tonen. Tijdens training wordt het beloond voor antwoorden die goed aansluiten bij het verwachte vervolg van een tekst, niet voor het erkennen van onwetendheid. "Geen antwoord geven" is zelden het meest waarschijnlijke taalpatroon.
Daardoor zal een LLM standaard proberen iets te zeggen, ook als het eigenlijk onvoldoende informatie heeft om dat verantwoord te doen. Het model twijfelt niet, het optimaliseert op waarschijnlijkheid, niet op waarheid. Precies daarom klinken hallucinaties zo zelfverzekerd: het systeem heeft geen mechanisme om te "weten" wanneer het het mis heeft.
Wanneer ontstaan hallucinaties het vaakst?
Hallucinaties ontstaan vooral in situaties waarin het model onvoldoende houvast heeft, maar tóch geacht wordt een antwoord te geven. Vier situaties komen in de praktijk het meest voor.
- Ten eerste wanneer context ontbreekt: het model weet niet in welke specifieke situatie of domein de vraag zich afspeelt.
- Ten tweede wanneer een vraag te breed of vaag is: hoe algemener de vraag, hoe groter de ruimte voor interpretatie, en dus voor verzonnen details.
- Ten derde wanneer informatie ontbreekt in de input: het model kan geen ontbrekende kennis opzoeken en vult die zelf in met statistisch plausibele, maar feitelijk onjuiste informatie.
- En ten vierde bij complexe of specialistische onderwerpen: bij juridische, technische of medische vragen neemt de kans op subtiele fouten aanzienlijk toe.
In al deze gevallen doet het model wat het altijd doet: het probeert een coherent, vloeiend en behulpzaam antwoord te genereren. Zelfs als dat betekent dat het gaten opvult met aannames.
Welke soorten hallucinaties zijn er?
Niet alle hallucinaties zijn hetzelfde. Het helpt om de vijf meest voorkomende vormen te kennen, zodat je ze in de praktijk herkent.
Wat betekent dit concreet voor jouw organisatie?
Stel: je werkt bij een productiebedrijf en een medewerker vraagt een AI-assistent naar de kalibratieprocedure voor een specifieke machine. Het antwoord klinkt precies, professioneel en compleet. Maar als dat antwoord niet is gebaseerd op jouw interne documentatie, kan het model iets hebben gegenereerd dat plausibel klinkt voor een gemiddelde machine, maar niet klopt voor jóúw installatie. Met potentieel grote operationele gevolgen.
Hetzelfde geldt voor een gemeente die AI inzet om beleidsvragen te beantwoorden of subsidieaanvragen samen te vatten. Zodra het model werkt zonder toegang tot de juiste interne documenten, vergroot je de kans dat het antwoord "klopt" qua vorm maar niet qua inhoud. En een beleidsmedewerker die dat antwoord niet controleert, neemt een beslissing op basis van verzonnen informatie.
Hoe kun je hallucinaties in AI minimaliseren?
Hallucinaties zijn geen fout die je volledig kunt uitschakelen, maar een risico dat je actief kunt managen. Drie aanpakken maken het grootste verschil in de praktijk.
De eerste is duidelijke context geven. Hoe specifieker jij bent in je vraag, hoe minder ruimte het model heeft om gaten op te vullen. Vermijd vage, open instructies. Geef het model expliciet aan in welke context het antwoord moet passen.
De tweede aanpak is RAG (Retrieval-Augmented Generation) inzetten. Dit is een techniek waarbij het model eerst relevante informatie ophaalt uit een eigen kennisbase, zoals jouw interne documentatie, voordat het een antwoord genereert. Zo baseert het model zich niet op aannames, maar op jouw actuele, organisatiespecifieke bronnen. Lees onze blog over RAG voor meer uitleg over hoe dit werkt en waarom het AI betrouwbaarder maakt.
De derde aanpak is het sturen van het denkproces van het model. Door het model expliciet te vragen om stap voor stap te redeneren, of om aan te geven wanneer het onzeker is, vergroot je de kans dat het zelf "pauzeert" bij ontbrekende kennis in plaats van die stilzwijgend op te vullen. Dit is onderdeel van wat wordt aangeduid als prompt engineering: de manier waarop je instructies formuleert heeft directe invloed op de kwaliteit en betrouwbaarheid van het antwoord.
Wanneer zijn hallucinaties minder een risico?
Niet elke toepassing vraagt om dezelfde mate van waakzaamheid. Als je AI gebruikt voor taken met lage impact (het samenvatten van externe artikelen, het brainstormen over ideeën, het opstellen van eerste drafts die je daarna altijd zelf naleest) is het risico van hallucinaties beperkt. De foutmarge is aanvaardbaar, en de correctie is eenvoudig.
Het risico neemt toe naarmate de beslissingen die AI beïnvloedt grotere gevolgen hebben: voor medewerkers, klanten of burgers, voor veiligheid of voor compliance. Precies om die reden legt de AI Act extra eisen op aan zogenaamde hoog-risico AI-toepassingen. Lees onze blog over de AI Act voor meer achtergrond over welke verplichtingen er voor jouw organisatie gelden.
Conclusie: AI is slim, maar niet onfeilbaar
Hallucinaties zijn geen onoplosbaar probleem, maar ze zijn ook geen bijzaak. Wie AI professioneel wil inzetten, doet er goed aan ze serieus te nemen. Door duidelijke context te geven, slimme technieken als RAG in te zetten en het denkproces van het model te sturen, verschuif je AI van een creatieve tekstgenerator naar een betrouwbaarder hulpmiddel.
Bij Univia geloven we dat AI een hulpmiddel is voor mensen, geen vervanging. En een hulpmiddel werkt alleen als je begrijpt hoe je het moet gebruiken, inclusief waar het de mist in kan gaan. Juist die bewuste manier van werken maakt het verschil tussen experimenteel gebruik en professionele, verantwoorde inzet van AI.
Zin om eens te sparren over hoe je AI slim én betrouwbaar inzet binnen jouw organisatie? Je bent van harte welkom voor een kop koffie bij ons op kantoor op de High Tech Campus in Eindhoven.
Altijd als eerste het nieuws van Univia ontvangen?
Volg ons op social media, en houd onze blog pagina in de gaten voor de laatste updates! Of schrijf je nu in voor onze nieuwsbrief!








