
Kosten van automatisering
16/04/2026Wat is de AI Act? En hoeveel impact heeft het nou echt?
Wat is de AI Act?
De AI Act (officieel de EU Artificial Intelligence Act) is de eerste uitgebreide Europese wet die regels stelt aan het gebruik van kunstmatige intelligentie. Op 1 augustus 2024 trad de wet in werking. Maar 'in werking treden' betekent niet 'meteen van toepassing'. De wet wordt gefaseerd ingevoerd, en de tijdlijn loopt door tot 2027. Dat betekent: de klok tikt al, maar de definitieve handhaving is voor veel organisaties nog niet direct morgen.
Datum
23-04-2026
Categorie
Actueel & events
Auteur
Pleun Claassen
Hoe werkt de AI Act?
De kern van de AI Act is een risico gebaseerde aanpak. Niet alle AI wordt gelijkgesteld. Hoe hoger het risico dat een systeem met zich meebrengt voor mensen, hun rechten of veiligheid, hoe strenger de eisen. De wet deelt AI op in vier risicocategorieën: verboden AI, hoog-risico AI, beperkt risico en minimaal risico. Welke categorie van toepassing is op jouw organisatie, hangt af van wat het systeem doet en in welke context het wordt ingezet.
Vergelijk het met de voedingswetgeving: een broodje kaas hoeft niet door dezelfde keuringsinstantie als een medicijn. Maar zodra iets mensen direct kan schaden, liggen de eisen ineens een stuk hoger. Zo werkt de AI Act ook.
Welke AI is verboden onder de AI Act?
Bepaalde toepassingen van AI zijn simpelweg niet toegestaan binnen de EU, ongeacht het doel. Het gaat hier om systemen die fundamentele rechten schenden of mensen manipuleren zonder dat ze het doorhebben. Voorbeelden zijn AI die gedrag beïnvloedt via subliminale technieken, sociale scoring door overheden (zoals in bepaalde andere landen al bestaat), en, op enkele uitzonderingen na, realtime biometrische surveillance in openbare ruimtes.
Voor de meeste organisaties in de maakindustrie, logistiek of bij overheden raakt dit deel van de wet hen niet direct. Maar het is goed om te weten waar de absolute grens ligt, zodat je niet per ongeluk in de buurt komt.
Wat valt er onder hoog-risico AI, en raak ik dat?
Dit is de categorie die voor veel organisaties wél relevant is. Hoog-risico AI omvat systemen die worden ingezet in situaties waarbij fouten grote gevolgen kunnen hebben voor mensen. Denk aan AI die meespeelt bij het beoordelen van sollicitanten, het toekennen van subsidies, het plannen van kritieke processen in infrastructuur, of het nemen van beslissingen in de gezondheidszorg. In de maakindustrie en logistiek speelt dit al concreet: AI die veiligheidscomponenten beoordeelt, systemen die autonome beslissingen nemen in gevaarlijke omgevingen, of algoritmes die direct bepalen welke werknemer welke taak krijgt. Als jouw organisatie AI gebruikt voor dit soort processen, valt dat waarschijnlijk onder de hoog-risico categorie, en gelden er strenge eisen rond transparantie, data-governance, menselijke controle en technische documentatie.
Een concreet voorbeeld uit de praktijk: een gemeente die AI inzet om subsidieaanvragen te rangschikken valt hier vermoedelijk onder. De AI maakt namelijk een aanbeveling die direct impact heeft op de kansen van burgers. Dat vraagt om uitlegbaarheid, toetsbaar beheer en logging. Lees ook onze blog over Explainable AI voor meer achtergrond over hoe je AI-beslissingen transparant en controleerbaar maakt.
Wanneer gaan de regels echt gelden?
De AI Act wordt gefaseerd van kracht. De verboden systemen zijn per februari 2025 al van toepassing. De regels voor hoog-risico AI volgen in augustus 2026, en voor bepaalde AI in specifieke sectoren loopt de implementatietermijn zelfs door tot 2027. Transparantieverplichtingen, zoals duidelijk maken dat je praat met een AI-systeem, gelden al per augustus 2025.
Dat klinkt misschien als ruim de tijd, maar in de praktijk is dat minder comfortabel dan het lijkt. Systemen documenteren, risicobeoordelingen uitvoeren, processen aanpassen en zorgen dat de juiste mensen de juiste kennis hebben: dat kost tijd. Organisaties die nu nog niets gedaan hebben, lopen het risico dat ze straks in tijdnood komen. Handhaving komt steeds dichterbij, en de Europese toezichthouders zijn inmiddels volop bezig met de voorbereiding.
Wanneer geldt de AI Act niet, of minder?
Eerlijk is eerlijk: niet elke organisatie wordt even hard geraakt. Bedrijven die AI uitsluitend gebruiken voor intern gebruik zonder publiek of persoonlijk impact, denk aan voorspellend onderhoud op machines, productieoptimalisatie of logistieke routeplanning, vallen in de categorie minimaal of beperkt risico. Daarvoor gelden nauwelijks extra verplichtingen bovenop wat al geldt vanuit bestaande wetgeving zoals de AVG.
Ook open-source AI-modellen zijn deels vrijgesteld van de strengste eisen, mits ze niet voor hoog-risico toepassingen worden ingezet. En organisaties buiten de EU zijn in principe niet direct onderworpen aan de wet, tenzij hun systemen wél binnen de EU worden ingezet. Dan geldt de wet alsnog.
Kortom: de AI Act treft niet iedereen even zwaar. Maar dat wil niet zeggen dat je niets hoeft te doen. Zelfs voor lage-risico toepassingen is het verstandig om te weten in welke categorie je valt, en waarom.
Wat moet jouw organisatie nu concreet doen?
De eerste stap is eenvoudiger dan hij klinkt: inventariseer welke AI-systemen je al gebruikt of plant in te zetten. Dat overzicht bestaat in de meeste organisaties nog niet. Noteer per systeem wat het doet, in welke context het wordt gebruikt en welke beslissingen het beïnvloedt of neemt. Daarna bepaal je per systeem de risicoclassificatie. Is het hoog-risico? Dan zijn de vervolgstappen concreet: documentatie opstellen, menselijke toezichthoudende rollen benoemen, technische risicoanalyses uitvoeren en zorgen dat de AI ook uitlegbaar is. Klinkt als veel werk, en dat is het ook. Maar organisaties die dit systematisch aanpakken, bouwen tegelijk aan betrouwbaardere en beter beheersbare AI-systemen. De AI Act dwingt in dat opzicht tot kwaliteit.
Voor overheden geldt bovendien dat er specifieke verplichtingen komen rond het gebruik van AI bij besluitvorming over burgers. Denk aan uitlegbaarheid, beroepsmogelijkheden en actieve communicatie over welke AI wordt ingezet. Dat vraagt om interne bewustwording en aanpassing van processen, geen eenmalige exercitie, maar structurele borging.
Conclusie: de AI Act is geen hype, maar een nieuw kader
De AI Act verandert niet wat AI kan. Maar het verandert wel hoe je AI verantwoord mag en moet inzetten. Voor organisaties die al bewust omgaan met hun data, systemen en processen, is het geen schok, maar eerder een formalisering van wat al goede praktijk zou moeten zijn.
De wet maakt één ding glashelder: AI is geen neutraal hulpmiddel dat je onbeperkt kunt inzetten zonder te nadenken over gevolgen. Hoe autonomer en impactvoller een systeem, hoe groter de verantwoordelijkheid. En die verantwoordelijkheid kun je als organisatie niet delegeren aan de technologie zelf.
Bij Univia helpen we organisaties dagelijks om AI veilig, transparant en schaalbaar in te zetten. We denken graag met je mee over welke systemen bij jou van toepassing zijn, wat de AI Act concreet betekent voor jouw situatie en hoe je die vertaalslag maakt van regelgeving naar praktijk. Kom gerust eens langs voor een kop koffie op de High Tech Campus in Eindhoven.
Altijd als eerste het nieuws van Univia ontvangen?
Volg ons op social media, en houd onze blog pagina in de gaten voor de laatste updates! Of schrijf je nu in voor onze nieuwsbrief!







