Table of Contents
Wat de EU AI Act over vier maanden van jou vraagt
- privacy, strategie, toepassingen
Leestijd: 3 minuten
Je hebt vier maanden: dit verwacht de EU AI Act van jouw organisatie
Stel: jouw organisatie gebruikt AI voor het screenen van sollicitaties, een chatbot voor klantenservice, of misschien een tool die kredietaanvragen beoordeelt. Prima, want dat zijn slimme toepassingen. Maar weet je ook welke juridische verplichtingen daarbij horen? Vanaf 2 augustus 2026 worden de meest vergaande regels van de EU AI Act van kracht. Geen proefperiode meer. Geen “we kijken het even aan”. Organisaties die bepaalde AI-systemen inzetten, moeten dan aantoonbaar voldoen aan eisen rondom transparantie, documentatie en menselijk toezicht.
Het goede nieuws: er is nog tijd. Maar die loopt sneller op dan je denkt.
Wat is de EU AI Act eigenlijk?
De EU AI Act is de eerste uitgebreide Europese wet die regels stelt aan de ontwikkeling en het gebruik van kunstmatige intelligentie. De kern van de wet is eigenlijk best simpel: hoe groter het risico van een AI-systeem voor mensen, hoe strenger de regels. De wet werkt met vier risiconiveaus.
- AI met onaanvaardbaar risico is verboden. Denk aan systemen die mensen psychologisch manipuleren, sociale scores bijhouden zoals in dystopische science fiction, of die biometrische data massaal inzetten voor toezicht.
- AI met hoog risico valt onder de zwaarste verplichtingen. Dit zijn systemen die betrokken zijn bij beslissingen over mensen: werving en selectie, kredietverlening, medische diagnoses, onderwijs, rechtspraak en kritieke infrastructuur. Voor deze categorie gelden strenge eisen op het gebied van transparantie, kwaliteitsbeheer en menselijk toezicht.
- AI met beperkt risico moet transparant zijn. Een chatbot die met klanten praat, moet zich identificeren als een AI-systeem en mag zich niet voordoen als mens.
- AI met minimaal risico, zoals spamfilters of muziekaanbevelingen, valt buiten de strenge verplichtingen.
Voor veel organisaties is de kernvraag: “in welke categorie valt de AI die wij gebruiken?” En dat is precies waar het nu nog misgaat bij de meeste bedrijven.
Twee veelgemaakte misverstanden
Misverstand één: de EU AI Act is voor grote techbedrijven, niet voor ons. Fout. Als jouw organisatie AI inzet bij beslissingen over mensen, ben jij gebonden aan de wet. Het maakt niet uit of je een mkb-bedrijf bent of een multinational.
Misverstand twee: wij gebruiken alleen tools van anderen, dus wij zijn niet verantwoordelijk. Ook dat klopt niet. De wet onderscheidt aanbieders (de bedrijven die AI-systemen ontwikkelen) en gebruikers, ook wel deployers genoemd. Als deployer heb je eigen verplichtingen. Je moet kunnen aantonen dat je het systeem begrijpt, bewaakt en verantwoord inzet. Het feit dat een tool van Microsoft, Google of een andere partij is, ontslaat je niet van die verantwoordelijkheid.
De ethische kern: mensen blijven beslissen
Achter alle juridische taal zit een fundamentele keuze die de EU maakt: AI ondersteunt, maar mensen beslissen. De verplichting tot menselijk toezicht bij hoog-risico systemen is geen bureaucratische formaliteit. Het is een waardeoordeel. Iedereen die geraakt wordt door een AI-beslissing, moet die beslissing kunnen begrijpen en aanvechten.
Dat raakt ook aan een breder vraagstuk. Naarmate AI meer autonomie krijgt en taken overneemt, verschuift de vraag van “wat kan AI” naar “wat mag AI”. Die ethische grens trekken is niet iets wat software voor je doet. Dat doe je zelf, als organisatie, als leidinggevende, als mens.
Vijf stappen om klaar te zijn voor 2 augustus 2026
- Breng je AI-gebruik in kaart. Weet jij welke AI-tools er binnen jouw organisatie worden gebruikt? Niet alleen de officieel goedgekeurde tools, maar ook de informele. Medewerkers die zonder medeweten van IT tools inzetten voor gevoelige taken, kunnen onbedoeld juridische risico’s creëren. (Lees meer: Shadow AI: Tussen Innovatie en Risico)
- Classificeer je AI-systemen. Ga per systeem na welk risiconiveau van toepassing is. Betrokken bij beslissingen over mensen? Dan ben je waarschijnlijk in hoog-risico territorium. De Europese Commissie heeft een classificatiegids beschikbaar, maar een externe check is zelden overbodig.
- Wijs verantwoordelijken aan. Voor hoog-risico systemen is menselijk toezicht wettelijk verplicht. Dat betekent: iemand in jouw organisatie is verantwoordelijk voor het bewaken van AI-beslissingen, en die persoon weet ook wat die taak inhoudt. Leg dit vast.
- Documenteer hoe je AI inzet. Leg vast welke systemen je gebruikt, welke data daarvoor nodig zijn, en hoe beslissingen tot stand komen. Dit is niet alleen vereist voor compliance, het dwingt je ook om bewuster na te denken over hoe AI daadwerkelijk werkt binnen jouw processen.
- Maak compliance onderdeel van je AI-strategie. Zorg dat de EU AI Act geen apart compliance-project is dat ergens in een la verdwijnt, maar dat het meezit in hoe je over AI nadenkt als organisatie. (Lees meer: AI-adoptie: Waarom Meegaan Niet Gelijk Staat aan Vooroplopen)
Geen last, maar een kans
Je kunt de EU AI Act bekijken als administratieve last. Maar er is een andere manier: als een kans om serieus na te denken over hoe jij AI inzet, en om dat vertrouwen te winnen bij klanten en medewerkers die dat steeds vaker vragen.
Organisaties die nu investeren in verantwoord AI-gebruik, bouwen aan iets wat moeilijk te kopen is: vertrouwen. In een tijd waarin AI-incidenten regelmatig het nieuws halen, is dat geen kleine bijdrage.
Vier maanden is krap. Maar het is genoeg als je nu begint!
👉 Klaar voor de volgende stap? Bij Lumans helpen we bedrijven en professionals om AI begrijpelijk en praktisch in te zetten. Plan een vrijblijvend adviesgesprek of ontdek onze diensten.