
Generative AI vs. Agentic AI
13/11/2025Hallucinaties in AI
Hallucinaties in AI: wat ze zijn, waarom ze ontstaan en hoe je ze voorkomt
Bij Univia werken we dagelijks met AI-systemen, en dan met name met Large Language Models (LLM’s) zoals ChatGPT. Hoe krachtig deze modellen ook zijn, ze hebben één bekende valkuil: hallucinaties. Omdat we hier in de praktijk veel mee te maken hebben, delen we graag onze kennis. Vandaag duiken we diep in de wereld van AI-hallucinaties.
Wat zijn hallucinaties precies? Waarom ontstaan ze? Welke vormen zijn er? En vooral: hoe kun je hallucinaties in AI minimaliseren in professionele toepassingen?
Datum
09-12-2025
Categorie
Inzichten & inspiratie
Auteur
Pleun Claassen
Wat zijn hallucinaties in AI?
Een AI-hallucinatie ontstaat wanneer een taalmodel een antwoord genereert dat taalkundig correct, logisch opgebouwd en overtuigend geformuleerd is, maar dat inhoudelijk onjuist, incompleet of volledig verzonnen blijkt te zijn. Het verraderlijke aan hallucinaties is juist dat ze zelden als “fout” aanvoelen. Ze klinken plausibel, professioneel en zelfverzekerd, precies de eigenschappen die mensen geneigd zijn te vertrouwen.
Belangrijk om te begrijpen: een hallucinatie is geen programmeerfout, geen bewuste misleiding en ook geen teken dat het model “faalt”. Het is een structureel gevolg van hoe Large Language Models (LLM’s) zijn ontworpen en getraind.
Hoe werkt een taalmodel eigenlijk?
Een LLM is geen kennisbank en ook geen zoekmachine. In tegenstelling tot mensen:
- heeft een taalmodel geen begrip van waarheid of onwaarheid,
- beschikt het niet over een intern wereldbeeld,
- kan het informatie niet verifiëren of controleren,
- en heeft het geen intentie of bewustzijn.
Wat een taalmodel wél doet, is het voorspellen van taal. Technisch gezien berekent een LLM bij elk woord de kansverdeling van mogelijke volgende woorden, gebaseerd op patronen die het heeft geleerd uit enorme hoeveelheden tekst. Het kiest vervolgens het woord dat statistisch het meest waarschijnlijk is in die context. Met andere woorden: Een taalmodel produceert geen feiten, maar waarschijnlijkheden. Het leert hoe mensen over onderwerpen schrijven, niet of wat ze schrijven klopt!

Taalconstructie in plaats van kennis
Een cruciaal inzicht is dat een taalmodel taal reconstrueert, geen werkelijkheid. Het model “weet” niet wat kunstmatige intelligentie is, wat gezondheidszorg inhoudt of wat een diagnose betekent. Het herkent alleen patronen in hoe die woorden samen voorkomen.
Dat verschil is subtiel, maar fundamenteel. Waar mensen redeneren vanuit begrip en ervaring, redeneert een LLM vanuit statistiek. Dat werkt verrassend goed, totdat het misgaat.
Wanneer ontstaan hallucinaties?
Hallucinaties ontstaan vooral in situaties waarin het model onvoldoende houvast heeft, maar tóch geacht wordt een antwoord te geven. Bijvoorbeeld wanneer:
- Context ontbreekt: Het model weet niet in welke specifieke situatie of domein de vraag zich afspeelt.
- Een vraag te breed of vaag is: Hoe algemener de vraag, hoe groter de ruimte voor interpretatie, en dus voor verzonnen details.
- Informatie ontbreekt in de input: Het model kan geen ontbrekende kennis opzoeken en gaat deze daarom zelf “invullen”.
- Het onderwerp complex of specialistisch is: Zeker bij juridische, medische of technische onderwerpen neemt de kans op subtiele fouten toe.
In al deze gevallen doet het model wat het altijd doet: het probeert een coherent, vloeiend en behulpzaam antwoord te genereren. Zelfs als dat betekent dat het aannames moet maken of gaten moet opvullen met statistisch plausibele, maar feitelijk onjuiste informatie.
Waarom zegt AI niet gewoon "ik weet het niet"?
In tegenstelling tot mensen is een taalmodel niet van nature geneigd om onzekerheid te tonen. Tijdens training wordt het beloond voor antwoorden die goed aansluiten bij het verwachte vervolg van een tekst, niet voor het erkennen van onwetendheid. Zonder expliciete instructie is “geen antwoord geven” zelden het meest waarschijnlijke taalpatroon. Daardoor zal een LLM standaard proberen iets te zeggen, zelfs als het eigenlijk onvoldoende informatie heeft om dat verantwoord te doen. Dit verklaart waarom hallucinaties vaak zelfverzekerd klinken. Het model twijfelt niet; het optimaliseert op waarschijnlijkheid, niet op waarheid.
5 verschillende soorten hallucinaties
Onze conclusie
Samengevat geldt: hallucinaties zijn geen fout die je volledig kunt uitschakelen, maar een risico dat je actief kunt managen. Door duidelijke context te geven, expliciete instructies te gebruiken en het denkproces van het model te sturen, verschuif je AI van een creatieve tekstgenerator naar een betrouwbaarder hulpmiddel. Juist deze bewuste manier van werken maakt het verschil tussen experimenteel gebruik en professionele, verantwoorde inzet van AI.
AI is slim, maar niet onfeilbaar, gelukkig hoef je dat niet alleen uit te vogelen. Zin om eens te sparren over hoe je AI slim én betrouwbaar inzet? Je bent van harte welkom voor een kop koffie bij ons op kantoor op de High Tech Campus in Eindhoven.
Altijd als eerste het nieuws van Univia ontvangen?
Volg ons op social media, en houd onze blog pagina in de gaten voor de laatste updates! Of schrijf je nu in voor onze nieuwsbrief!






