
OpenAI lanceert GPT-5 en GPT-oss
08/08/2025
Univia Teamdag Q3 | 2025
06/10/2025Waarom is Explainable AI zo belangrijk?
Explainable AI
AI neemt steeds meer beslissingen die ertoe doen: wie een subsidie krijgt, wanneer een machine onderhoud nodig heeft, hoe een sollicitant wordt beoordeeld. Maar wat gebeurt er eigenlijk bínnen dat systeem? En wat doe je als het antwoord (niet) klopt, maar je geen idee hebt waarom? Dat is precies de vraag die Explainable AI probeert te beantwoorden.
Datum
28-08-2025
Categorie
Inzichten & Inspiratie
Auteur
Pleun Claassen
Wat is Explainable AI (XAI)?
Explainable AI (afgekort: XAI) is een verzamelnaam voor methoden en technieken waarmee AI-systemen niet alleen een uitkomst geven, maar ook inzicht bieden in hoe die uitkomst tot stand is gekomen. Met andere woorden: een AI die niet alleen zegt wát de uitkomst is, maar ook waarom.
Vergelijk het met een arts die een diagnose stelt. Je wil niet alleen horen "u heeft griep", je wil weten op basis van welke symptomen die conclusie getrokken is. Datzelfde verwachtingspatroon groeit nu ook rondom AI. Een systeem dat zegt "deze machine gaat volgende week stuk" levert pas echte waarde als het er ook bij zegt: "omdat de trillingssensor de afgelopen drie dagen afwijkende pieken vertoont én de bedrijfstemperatuur hoger is dan normaal voor dit seizoen." Explainable AI zorgt dat dit soort redenering zichtbaar en toetsbaar wordt, voor bijvoorbeeld technici, managers en beleidsmakers.
Waarom is een black box een probleem in de praktijk?
Veel AI-systemen werken als een black box: data gaat erin, een uitkomst komt eruit, en wat er daartussenin gebeurt blijft verborgen. Voor eenvoudige toepassingen is dat misschien acceptabel. Maar zodra AI meespeelt in beslissingen met gevolgen voor mensen, processen of budgetten, verandert dat.
Stel: een algoritme adviseert dat een sollicitant niet geschikt is, dat een subsidieaanvraag laag scoort, of dat een specifieke productiemachine vervangen moet worden. Als je niet weet waaróm dat oordeel is gevallen, heb je een probleem. Je kunt het niet toetsen, niet uitleggen aan betrokkenen en niet corrigeren als het fout blijkt te zijn. Onzekerheid groeit, vertrouwen daalt, en uiteindelijk blijft de tool ongebruikt in de la.
Dat is geen hypothetisch risico. Bij Univia zien we regelmatig dat goed functionerende AI-systemen toch stranden op draagvlak. Niet omdat de technologie faalt, maar omdat niemand bereid is te handelen op uitkomsten die ze niet begrijpen.
Wat levert Explainable AI concreet op?
XAI is geen luxe toevoeging: het raakt aan drie basisbehoeften van elke organisatie die AI serieus wil inzetten.
- Transparantie betekent dat je kunt zien welke factoren de doorslag gaven. Welke data was bepalend? Welke variabelen wogen zwaar? Die zichtbaarheid maakt AI begrijpelijk voor mensen zonder technische achtergrond. Een operator, een beleidsmedewerker, een leidinggevende: ze hoeven geen data scientist te zijn om de redenering te kunnen volgen.
- Vertrouwen bouw je op door uitlegbaarheid. Een medewerker die begrijpt waarom een systeem een aanbeveling doet, is eerder bereid om op die aanbeveling te handelen. Zonder dat vertrouwen blijft AI een dure demo die niemand gebruikt. Met dat vertrouwen groeit de adoptie vanzelf.
- Betere beslissingen zijn het directe gevolg van beide. Als je ziet waar AI op let, kun je ook zien wanneer het de verkeerde kant op kijkt. Misschien legt een model te veel nadruk op een irrelevante variabele, of trekt het verbanden die er inhoudelijk niet zijn. Door die blinde vlekken zichtbaar te maken, kun je ingrijpen en het model aanscherpen, voordat het invloed heeft op je operationele keuzes.

Hoe werkt Explainable AI in de maakindustrie?
In de maakindustrie is de meerwaarde van XAI direct tastbaar. Neem predictief onderhoud: een AI-model dat aangeeft dat een specifieke machine over zes dagen uitvalt is waardevol. Maar een technicus die alleen "uitval verwacht" te zien krijgt, kan niet goed handelen. Hij weet niet of hij moet meten, smeren, vervangen of nog even afwachten.
Met Explainable AI ziet diezelfde technicus het achterliggende verhaal: de trillingssensor vertoont een afwijkend patroon, de temperatuur stijgt sneller dan bij vergelijkbare machines en de laatste kalibratie is langer geleden dan gemiddeld. Dat zijn concrete aanknopingspunten. De technicus kan de redenering controleren, het probleem gericht aanpakken en dure stilstand voorkomen. XAI verandert een black-box-melding in een werkbare instructie.
Hoe werkt Explainable AI bij overheden?
Bij gemeenten en overheidsorganisaties speelt XAI op een ander niveau: dat van verantwoording aan burgers en beleidsmakers. Stel dat een gemeente AI inzet om subsidieaanvragen te rangschikken bij schaarse budgetten. Handig bij stapels dossiers, maar ook gevoelig.
Met een uitlegbaar systeem is zichtbaar welke criteria zwaar hebben meegewogen: het aantal mensen dat profiteert van de investering, de mate van duurzaamheid, de looptijd van het project. Burgers krijgen inzicht in de afweging, beleidsmakers kunnen hun keuzes onderbouwen en het proces houdt een eerlijk en controleerbaar karakter. Zonder die uitlegbaarheid wordt AI al snel een bron van wantrouwen, in plaats van een hulpmiddel voor betere dienstverlening.

Wanneer is Explainable AI minder relevant?
Niet elke toepassing vraagt om uitgebreide uitlegbaarheid. Als AI wordt ingezet voor interne, laagdrempelige taken: het automatisch sorteren van inkomende e-mails, het samenvatten van vergaderverslagen, het suggereren van routes in een logistiek systeem, dan is de behoefte aan uitleg beperkt. De impact op mensen is gering, en de drempel om een fout te corrigeren is laag.
De behoefte aan xAI groeit naarmate de beslissingen die AI beïnvloedt meer impact hebben. Hoe groter de gevolgen voor medewerkers, klanten of burgers, hoe belangrijker het wordt om inzichtelijk te maken hoe een conclusie tot stand is gekomen. Dat is ook de logica achter de AI Act: hoog-risico toepassingen zijn juist die toepassingen waarbij uitlegbaarheid en menselijke controle wettelijk verplicht worden. Lees onze blog over de AI Act voor meer achtergrond over welke eisen er voor jouw organisatie gelden.
Hoe verhoudt Explainable AI zich tot hallucinaties?
XAI en het risico op AI-hallucinaties raken elkaar op een belangrijk punt. Hallucinaties zijn situaties waarin een AI-systeem een antwoord geeft dat overtuigend klinkt maar inhoudelijk onjuist is, verzonnen bronnen, foutieve feiten, foute redeneringen. Explainable AI helpt om die fouten eerder te signaleren, omdat de redenering zichtbaar wordt. Als een systeem een vreemde of onlogische weg bewandeld heeft om tot zijn conclusie te komen, zie je dat in een xAI-omgeving direct.
Wil je meer weten over hoe hallucinaties ontstaan en hoe je ze kunt minimaliseren? Lees onze blog over AI-hallucinaties voor een volledig overzicht.
Conclusie: AI uitleggen is AI vertrouwen
Explainable AI maakt het verschil tussen een AI-systeem dat organisaties in beweging zet, en een dat in de la belandt. Het gaat niet om het mooier maken van de technologie, het gaat om de vraag of mensen durven te handelen op basis van wat AI hun vertelt.
Bij Univia geloven we dat AI een hulpmiddel is voor mensen, geen vervanging. En een hulpmiddel werkt alleen als je begrijpt hoe je het moet gebruiken. xAI is de brug tussen de intelligentie van het model en het vertrouwen van de mensen die ermee werken. Zonder die brug is het mooiste model uiteindelijk toch niet meer dan een zwarte doos.
Benieuwd hoe Explainable AI concreet waarde kan toevoegen in jouw organisatie? We praten er graag eens rustig over. Bij ons op de High Tech Campus in Eindhoven staat de koffie altijd klaar.
Altijd als eerste het nieuws van Univia ontvangen?
Volg ons op social media, en houd onze blog pagina in de gaten voor de laatste updates! Of schrijf je nu in voor onze nieuwsbrief!








