Terug naar blog
Beste praktijken17 min readMay 1, 2026

AI-verordening risicoclassificatie 2026: praktische gids voor het EU-MKB in vier klassen plus GPAI

By Anna Bergström

TL;DR

De AI-verordening (Verordening (EU) 2024/1689) deelt iedere AI-toepassing in één van vier risicoklassen in: onaanvaardbaar, hoog risico, beperkt risico of minimaal risico. Daarbovenop bestaat een apart regime voor algemene-doel AI-modellen (GPAI), zoals GPT-4o, Claude of Gemini. Voor het EU-MKB ligt het zwaartepunt niet in de vraag of de AI-verordening van toepassing is — dat is zij vrijwel altijd, of u nu aanbieder, gebruiker (deployer), importeur of distributeur bent — maar in de juiste classificatie van iedere afzonderlijke toepassing. Een verkeerde classificatie kost u veel meer dan correcte compliance: boetes lopen op tot 35 miljoen euro of 7% van de wereldwijde jaaromzet voor verboden praktijken.

Dit artikel geeft u de exacte criteria per klasse, een beslisboom in acht vragen, vijf veelvoorkomende fouten die wij in audits zien, en een per-klasse checklist met expliciete artikelverwijzingen. U leest het in zeventien minuten en u weet daarna hoe u uw eigen toepassingen vandaag nog classificeert.

Waarom verkeerde classificatie duurder is dan goede compliance

Het boeteregime van de AI-verordening is hoger dan dat van de AVG. Dat is voor veel oprichters en compliance-officers een verrassing. Onder Artikel 99 kunnen toezichthouders boetes opleggen tot 35 miljoen euro of 7% van de wereldwijde jaaromzet (afhankelijk van welk bedrag hoger is) voor de inzet van verboden praktijken uit Artikel 5. Voor non-conformiteit met de hoog-risico-verplichtingen geldt een plafond van 15 miljoen euro of 3% van de wereldwijde jaaromzet. En voor het verstrekken van onjuiste, onvolledige of misleidende informatie aan toezichthouders of aangemelde instanties: tot 7,5 miljoen euro of 1,5% van de wereldwijde jaaromzet.

Ter vergelijking: de AVG hanteert een maximum van 20 miljoen euro of 4%. De AI-verordening overstijgt dat dus aanzienlijk in de hoogste categorie. Voor een Nederlands MKB met een wereldwijde omzet van 50 miljoen euro betekent dat een potentiële boete van 3,5 miljoen euro voor één verboden praktijk. Dat is zelden te dragen.

De boete is niet de enige kostenpost. Bij een onterechte indeling als "beperkt risico" terwijl het in werkelijkheid hoog risico is, ontbreken systematisch de vereiste artefacten: geen risicobeheersysteem (Artikel 9), geen technische documentatie (Artikel 11), geen logging (Artikel 12), geen menselijk toezicht (Artikel 14). Achteraf opbouwen kost drie tot zes maanden voor een middelgroot systeem, met externe specialisten tussen 80.000 en 250.000 euro. Daarbij komt het reputatierisico: grote zakelijke afnemers stellen tegenwoordig standaard vragen over de classificatie onder de AI-verordening van hun leveranciers. Een onjuiste indeling die later wordt gecorrigeerd, lekt vroeg of laat naar uw klanten.

Goede compliance is daarom geen louter juridische kwestie — het is een commerciële beslissing. De vraag is niet of u zich compliance kunt veroorloven, maar of u zich non-compliance kunt veroorloven. In bijna alle gevallen luidt het antwoord nee.

De vier officiële risicoklassen

De AI-verordening werkt met een trapsgewijze risicobenadering: hoe groter het potentiële risico voor grondrechten, gezondheid, veiligheid of democratische processen, hoe zwaarder de verplichtingen. De vier klassen zijn niet door u zelf te kiezen — ze volgen rechtstreeks uit de tekst van de verordening, in het bijzonder Artikel 5, Artikel 6 in samenhang met Bijlage III, Artikel 50 en (impliciet) "al het overige".

Klasse 1: Onaanvaardbaar risico (Artikel 5) — sinds 2 februari 2025 verboden

Artikel 5 bevat een limitatieve opsomming van AI-praktijken die in de EU verboden zijn. Sinds 2 februari 2025 mag u deze niet meer in de handel brengen, in gebruik stellen of inzetten. De acht hoofdcategorieën van verboden praktijken:

  • Sociale scoring door overheidsinstanties of namens hen, waarbij natuurlijke personen of groepen worden geëvalueerd op basis van sociaal gedrag of bekende of voorspelde persoonlijkheidskenmerken, met nadelige of ongunstige behandeling als gevolg.
  • Biometrische identificatie op afstand in real-time in voor het publiek toegankelijke ruimten ten behoeve van rechtshandhaving, met smalle uitzonderingen voor het gericht zoeken naar slachtoffers van ontvoering, mensenhandel of seksuele uitbuiting; voorkoming van een specifieke en aanzienlijke dreiging voor het leven; en de lokalisatie van verdachten van ernstige strafbare feiten — telkens onder voorafgaande rechterlijke of administratieve toestemming.
  • AI die emotieherkenning toepast op de werkplek of in onderwijsinstellingen, met uitzondering van systemen die om medische of veiligheidsredenen worden ingezet (bijvoorbeeld vermoeidheidsdetectie bij vrachtwagenchauffeurs).
  • Ongerichte scraping van gezichtsbeelden van het internet of CCTV-beelden met het oog op het opbouwen of uitbreiden van databases voor gezichtsherkenning.
  • AI-systemen die manipulatieve of bedrieglijke technieken inzetten om het gedrag van personen wezenlijk te verstoren, met aanzienlijke schade tot gevolg.
  • AI-systemen die kwetsbaarheden van specifieke groepen uitbuiten — denk aan minderjarigen, ouderen of mensen met een beperking — met aanzienlijke schade tot gevolg.
  • Predictive policing dat uitsluitend op basis van profilering of beoordeling van persoonlijkheidskenmerken voorspelt of iemand een strafbaar feit zal plegen.
  • Biometrische categorisering van natuurlijke personen om gevoelige attributen af te leiden, zoals ras, politieke opvattingen, lidmaatschap van een vakvereniging, religieuze of filosofische overtuigingen, seksuele geaardheid of seksleven.

De verboden gelden voor alle aanbieders, gebruikers, importeurs en distributeurs. Of u het systeem zelf bouwt of bij een derde inkoopt maakt geen verschil. Een Vlaams uitzendbureau dat een externe tool inzet om kandidaten op "betrouwbaarheid" te scoren via emotieherkenning in video-interviews zit per direct in overtreding. De juiste reactie is niet "compliance optuigen" maar "stoppen en opnieuw ontwerpen".

Klasse 2: Hoog risico (Artikel 6 en Bijlage III) — zwaarste compliance-last

Hoog-risico AI-systemen mogen wél worden ingezet, maar alleen onder strikte voorwaarden. Artikel 6 onderscheidt twee routes naar de hoog-risico-categorie. Route één: AI-systemen die als veiligheidscomponent fungeren in producten die onder de EU-harmonisatiewetgeving van Bijlage II vallen — denk aan medische hulpmiddelen, machines, liften, speelgoed, persoonlijke beschermingsmiddelen. Route twee: AI-systemen die thuishoren in één van de acht categorieën van Bijlage III. Het overgrote deel van de hoog-risico-toepassingen bij het EU-MKB valt in Bijlage III. Het grootste deel van deze verplichtingen is van toepassing per 2 augustus 2026.

De acht categorieën van Bijlage III:

  • Biometrische identificatie en categorisering, voor zover niet verboden onder Artikel 5.
  • Beheer en exploitatie van kritieke infrastructuur: vervoer, water, gas, verwarming, elektriciteit, en kritieke digitale infrastructuur.
  • Onderwijs en beroepsopleiding: toelating, beoordeling van leerresultaten, evaluatie van het juiste opleidingsniveau, en toezicht op verboden gedrag tijdens examens (fraudedetectie).
  • Werkgelegenheid, beheer van werknemers en toegang tot zelfstandige arbeid: rekrutering, CV-screening, taakverdeling, prestatiemonitoring, evaluatie en bevorderingsbeslissingen.
  • Toegang tot en gebruik van essentiële particuliere en publieke diensten: toetsing van rechten op uitkeringen, kredietwaardigheidsbeoordeling, levens- en zorgverzekering risicobeoordeling, en prioritering bij hulpdienst-dispatching (politie, brandweer, ambulance).
  • Rechtshandhaving: risicobeoordeling van natuurlijke personen, leugendetectoren, beoordeling van bewijsmateriaal, profilering en analyse van strafbare feiten.
  • Migratie, asiel en grenscontrole: leugendetectoren, risicobeoordeling van personen die de EU willen binnenkomen, beoordeling van asielaanvragen, identificatie of verificatie aan grensovergangen.
  • Rechtsbedeling en democratische processen: ondersteuning van rechterlijke autoriteiten bij feiten- of rechtsanalyse, en AI-systemen die het stemgedrag of de uitkomst van verkiezingen kunnen beïnvloeden.

Een Nederlandse HR-tech-leverancier met een CV-screeningstool zit dus per definitie in hoog risico. Idem een Belgische verzekeraar die AI inzet voor levensrisico-beoordeling, of een gemeente die met AI uitkeringsaanvragen prioriteert. Een private kliniek die met AI triagesignalen ondersteunt: vrijwel zeker hoog risico via Bijlage II. De verplichtingen zijn omvangrijk: risicobeheer, datagovernance, technische documentatie, logging, transparantie, menselijk toezicht, nauwkeurigheid, robuustheid, cybersecurity, kwaliteitsmanagementsysteem, conformiteitsbeoordeling, CE-markering, EU-databaseregistratie, monitoring na het op de markt brengen en incidentmelding. De volledige checklist staat verderop.

Klasse 3: Beperkt risico (Artikel 50) — transparantieverplichtingen

Beperkt-risico-systemen vergen geen volledig conformiteitstraject, maar wel specifieke transparantieverplichtingen. Artikel 50 onderscheidt vier situaties:

  • AI-systemen die rechtstreeks contact hebben met natuurlijke personen, zoals chatbots en spraakassistenten, moeten kenbaar maken dat de gebruiker met een AI communiceert — tenzij dit voor een redelijke gebruiker uit de context duidelijk is.
  • AI-systemen die synthetische audio-, beeld-, video- of tekstinhoud genereren, moeten die output machineleesbaar markeren als "kunstmatig gegenereerd of gemanipuleerd".
  • Gebruikers van een emotieherkennings- of biometrisch categoriseringssysteem moeten de blootgestelde natuurlijke personen daarvan op de hoogte stellen.
  • Aanbieders en gebruikers van deepfake-content moeten bekendmaken dat de content kunstmatig is gegenereerd of gemanipuleerd; en bij door AI gegenereerde teksten over zaken van openbaar belang geldt eveneens een bekendmakingsplicht — tenzij door een mens zorgvuldig geredigeerd onder redactionele verantwoordelijkheid.

De transparantieverplichtingen treden in werking per 2 augustus 2026. Voor een Nederlandse e-commerce-onderneming met een AI-chatbot betekent dit: een duidelijke vermelding dat de gebruiker met een geautomatiseerd systeem chat, en een mogelijkheid om door te schakelen naar een mens. Voor een marketingbureau dat AI-gegenereerde productbeelden levert: machineleesbare watermerken plus een zichtbare vermelding.

Klasse 4: Minimaal risico — al het overige

Alle AI-toepassingen die niet onder Artikel 5, Artikel 6 of Artikel 50 vallen, behoren tot de minimaal-risico-klasse. Voorbeelden: spamfilters, AI in videogames, voorraadprognoses, marketing-segmentatie zonder beslissingsimpact op individuen, machine-learning voor voorspellend onderhoud aan industriële machines. Voor deze klasse bestaan geen dwingende verplichtingen onder de AI-verordening.

Wel moedigt Artikel 95 een vrijwillige gedragscode aan: aanbieders en gebruikers van minimaal-risico-systemen kunnen zich vrijwillig verbinden aan elementen van het hoog-risico-regime — transparantie, milieuduurzaamheid, AI-geletterdheid en non-discriminatie. De Europese Commissie houdt een register bij. Voor B2B-leveranciers is deelname een commercieel voordeel bij afnemers met streng inkoopbeleid.

Het vijfde stuk: algemene-doel AI-modellen (GPAI)

Naast de vier risicoklassen kent de AI-verordening een parallel regime voor algemene-doel AI-modellen (general-purpose AI, GPAI). Dat zijn modellen die zijn getraind op grote hoeveelheden data, generieke capaciteiten vertonen en in een breed scala aan stroomafwaartse systemen kunnen worden geïntegreerd. GPT-4o, Claude 3.5 Sonnet, Gemini, Llama 3, Mistral Large — allemaal GPAI. De Artikelen 51 tot en met 55 leggen verplichtingen op aan de aanbieders van deze modellen. Het GPAI-regime is van toepassing per 2 augustus 2025.

De verordening onderscheidt twee GPAI-niveaus. Standaard GPAI kent de volgende kernverplichtingen voor de aanbieder: technische documentatie van het model opstellen en actueel houden; informatie en documentatie verschaffen aan aanbieders verderop in de keten die het model in hun eigen systemen integreren; een beleid voeren ter naleving van het EU-auteursrecht (inclusief voor opt-outs op tekst- en datamining onder de DSM-richtlijn); en publicatie van een voldoende gedetailleerde samenvatting van de inhoud die voor de training is gebruikt, volgens een door het AI Office aangereikt sjabloon.

GPAI met systeemrisico — gedefinieerd door een trainingscompute-drempel van meer dan 10^25 FLOPs of door aanwijzing door de Commissie — kent additionele zware verplichtingen: modelevaluatie volgens gestandaardiseerde protocollen, identificatie en mitigatie van systeemrisico's op EU-niveau, melding van ernstige incidenten en bijbehorende corrigerende maatregelen aan het AI Office, en passende cybersecurity-bescherming. Tot op heden vallen de allergrootste frontiermodellen in deze categorie.

Voor het overgrote deel van de Nederlandse en Vlaamse MKB-praktijk is dit onderscheid abstract. U bouwt geen grondmodel — u gebruikt er één. In dat geval bent u gebruiker (deployer) van een GPAI, geen aanbieder. Uw verplichtingen onder Artikel 51-55 zijn beperkt: u steunt op de documentatie en gebruiksinstructies die de modelaanbieder u verstrekt. Maar uw eigen AI-systeem dat het GPAI-model integreert, moet apart op Artikel 5, Artikel 6 en Artikel 50 worden getoetst. Een chatbot die GPT-4o aanroept om sollicitanten te helpen een formulier in te vullen valt onder Artikel 50; een chatbot die op basis van GPT-4o aanbeveelt of een kandidaat moet worden uitgenodigd valt onder hoog risico (Bijlage III, punt 4). Het model is hetzelfde, de classificatie van uw toepassing verschilt drastisch op basis van het gebruik.

Beslisboom: classificeer uw AI-toepassing in acht vragen

Loop deze acht vragen op volgorde door voor iedere afzonderlijke AI-toepassing in uw organisatie. Per toepassing — niet per leverancier, niet per platform. Documenteer elk antwoord; deze documentatie is later uw bewijslast tegenover toezichthouders en grote afnemers.

Vraag 1 — Valt de toepassing onder één van de acht verboden praktijken in Artikel 5? Als ja, stoppen of opnieuw ontwerpen. Geen verdere classificatie nodig. Geen "compliance optuigen": het is verboden, punt uit.

Vraag 2 — Is uw AI-systeem een veiligheidscomponent van een product dat onder de EU-harmonisatiewetgeving van Bijlage II valt? Voorbeelden: medische hulpmiddelen, machines, liften, speelgoed, persoonlijke beschermingsmiddelen, gas-apparaten, drukapparatuur. Als ja en er is een conformiteitsbeoordeling met derdenbetrokkenheid vereist, dan is uw AI-systeem hoog risico volgens Artikel 6, lid 1. Ga door naar de hoog-risico-checklist.

Vraag 3 — Valt uw AI-systeem onder één van de acht categorieën van Bijlage III (biometrie, kritieke infrastructuur, onderwijs, werkgelegenheid, essentiële diensten, rechtshandhaving, migratie, justitie/democratie)? Lees Bijlage III woordelijk — niet uw eigen interpretatie. Als ja, in beginsel hoog risico volgens Artikel 6, lid 2. Ga door naar vraag 4.

Vraag 4 — Geldt voor uw specifieke toepassing een uitzondering onder Artikel 6, lid 3? De verordening kent een smalle uitzondering. Die geldt als het systeem geen aanzienlijk risico op schade voor gezondheid, veiligheid of grondrechten oplevert. Denk aan vier situaties: het systeem vervult slechts een beperkte procedurele taak, het verbetert een eerder voltooide menselijke activiteit, het detecteert beslispatronen zonder zelf te beslissen, of het verricht voorbereidende werkzaamheden voor menselijk handelen. Documenteer uw uitzonderingsclaim grondig. U draagt de bewijslast en moet dit registreren in de EU-database. Bij twijfel: behandel het als hoog risico.

Vraag 5 — Heeft uw AI rechtstreeks contact met natuurlijke personen (chatbot, spraakassistent), of genereert het synthetische audio-, beeld-, video- of tekstinhoud, of past het emotieherkenning of biometrische categorisering toe, of produceert het deepfakes? Als ja, beperkt risico met transparantieverplichtingen onder Artikel 50.

Vraag 6 — Bent u aanbieder van een GPAI-model (heeft u zelf een grondmodel getraind of substantieel aangepast)? Voor het overgrote deel van het MKB is het antwoord nee. Als ja: aanvullende verplichtingen onder Artikel 51-55. Als nee: ga door naar vraag 7.

Vraag 7 — Gebruikt u een GPAI-model van een derde (OpenAI, Anthropic, Google, Mistral, en zo verder)? Als ja, lees de gebruiksinstructies van de aanbieder; uw verplichtingen als gebruiker richten zich vooral op correct gebruik in uw eigen toepassing en op de classificatie van dat systeem volgens vragen 1 tot en met 5.

Vraag 8 — Geen van de bovenstaande? Dan minimaal risico. Geen dwingende verplichtingen, maar overweeg vrijwillige aansluiting bij een gedragscode onder Artikel 95 — vooral als u B2B verkoopt aan grote afnemers met inkoopvragen over AI-governance.

Werk dit voorbeeld eens door: een 50-persoons HR-tech-SaaS in Amsterdam die GPT-4o integreert voor automatische CV-voorselectie. Vraag 1: niet verboden (geen sociale scoring, geen biometrie). Vraag 2: geen veiligheidscomponent. Vraag 3: ja — Bijlage III, punt 4(a) ("rekrutering of selectie van natuurlijke personen, met name het plaatsen van gerichte vacatures, het analyseren en filteren van sollicitaties en het beoordelen van kandidaten"). Vraag 4: nauwelijks ruimte voor uitzondering — een filtering die kandidaten weegt is geen "beperkte procedurele taak". Conclusie: hoog risico. De volledige hoog-risico-checklist is van toepassing. Het feit dat het onderliggende model van OpenAI komt, doet er niet toe; uw toepassing is hoog risico, ook al bent u zelf alleen gebruiker van een GPAI.

Tweede voorbeeld: een Vlaamse meubelmaker met 30 medewerkers die AI gebruikt voor productieplanning en voorraadprognoses. Vraag 1: niet verboden. Vraag 2: geen veiligheidscomponent. Vraag 3: niet in Bijlage III. Vraag 5: geen interactie met natuurlijke personen, geen synthetische content. Conclusie: minimaal risico. Het bedrijf overweegt wel een vrijwillige gedragscode omdat een grote retailafnemer compliance-vragen stelt in tenders.

Veelvoorkomende classificatiefouten

Op basis van de assessments die wij in 2025 hebben uitgevoerd voor MKB in de Benelux, terugkerende valkuilen:

Fout 1: "Wij gebruiken alleen ChatGPT, dus wij vallen erbuiten"

De meest voorkomende vergissing. Het feit dat u een GPAI van een derde gebruikt, ontslaat u niet van de AI-verordening. Twee parallelle regimes zijn van toepassing: (1) u bent gebruiker (deployer) van een GPAI met de bijbehorende, beperkte verplichtingen voor partijen verderop in de keten; en (2) uw eigen AI-systeem dat het GPAI-model integreert, moet onafhankelijk worden geclassificeerd onder Artikel 5, Artikel 6 of Artikel 50. Het tweede regime is in de praktijk het zwaarste. Een gebruikersvriendelijke chatbot die op ChatGPT draait is "gewoon ChatGPT gebruiken" — totdat u die chatbot inzet voor sollicitatiescreening, kredietbeoordeling of medische triage.

Fout 2: "Het is alleen voor intern gebruik, dus het risiconiveau is lager"

De AI-verordening kent geen verlaging op basis van interne versus externe inzet. Een Bijlage III-toepassing is hoog risico, of u die nu intern of extern toepast. Een prestatiemonitoringssysteem dat alleen op uw eigen werknemers wordt toegepast, valt onder Bijlage III, punt 4(b) — hoog risico. Een interne kredietscoringtool waarmee uw treasury-afdeling commerciële kredieten beoordeelt, valt onder Bijlage III, punt 5(b) — hoog risico, ook al ziet geen externe partij het systeem ooit. Intern gebruik vermindert wellicht uw reputatierisico, maar niet uw juridische verplichtingen.

Fout 3: "Wij hebben het model niet getraind, dus wij zijn geen aanbieder"

Meestal correct, maar er zit een belangrijke uitzondering in Artikel 25. Wanneer u een AI-systeem van een derde substantieel wijzigt, het op een andere wijze in de markt zet onder uw eigen naam of merk, of het ingrijpend aanpast voor een ander beoogd doel dan oorspronkelijk vermeld, dan kunt u zelf in de status van aanbieder terechtkomen — met de volledige bijbehorende verplichtingen. Een Belgische softwareleverancier die een open-source taalmodel fijnafstemt voor advocatenkantoren en het onder eigen merk verkoopt, is met grote waarschijnlijkheid aanbieder onder Artikel 25. Voer voor elke substantiële aanpassing een Artikel-25-toets uit en documenteer de uitkomst.

Fout 4: Beperkt risico verwarren met minimaal risico bij klant-chatbots

Wij zien talrijke organisaties die hun publieke website-chatbot als "minimaal risico" classificeren omdat de bot "slechts vragen beantwoordt". Dat is onjuist. Iedere AI die rechtstreeks contact heeft met natuurlijke personen valt onder Artikel 50 — beperkt risico — met de transparantieverplichting dat de gebruiker weet met een AI te communiceren. De boete voor niet-naleving van Artikel 50 is weliswaar lager dan voor schendingen van het hoog-risico-regime, maar zij is reëel: tot 15 miljoen euro of 3% van de wereldwijde jaaromzet. Een eenvoudige, prominent zichtbare melding ("U chat met een geautomatiseerd systeem") plus een doorschakeloptie naar een mens lost dit op.

Fout 5: AVG Artikel 22 vergeten

De AI-verordening werkt naast de AVG, niet in plaats daarvan. AVG Artikel 22 verbiedt — behoudens uitzonderingen — een uitsluitend op geautomatiseerde verwerking gebaseerd besluit met rechtsgevolgen of een vergelijkbaar aanmerkelijk effect op de betrokkene. Dit komt bovenop de classificatie onder de AI-verordening. Een hoog-risico AI-systeem voor kredietbeoordeling onder de AI-verordening is niet automatisch AVG-conform: u moet zowel de hoog-risico-verplichtingen vervullen (risicobeheer, menselijk toezicht, technische documentatie, et cetera) als een geldige rechtsgrond onder Artikel 22 AVG hebben (uitdrukkelijke toestemming, noodzaak voor een overeenkomst, of een Unie- of lidstaatrechtelijke basis). De Autoriteit Persoonsgegevens en de Vlaamse Toezichtcommissie blijven volledig bevoegd op AVG-onderdelen, parallel aan de toezichthouders onder de AI-verordening.

Compliance-checklist per klasse

Wat moet u concreet doen, per klasse, met expliciete artikelverwijzingen?

Onaanvaardbaar risico

Stoppen, opnieuw ontwerpen of niet implementeren. Documenteer de Artikel-5-analyse en de gemaakte keuze. Als u het systeem al gebruikt: per direct buiten gebruik stellen en het besluit voorleggen aan uw raad van bestuur of directie. Bewaar de stoppingsdocumentatie minimaal tien jaar — dit kan later relevant zijn bij audits.

Hoog risico — de dertien-puntenlijst

  • Risicobeheersysteem opzetten dat de hele levenscyclus van het AI-systeem bestrijkt: identificatie, analyse, evaluatie en mitigatie van risico's voor gezondheid, veiligheid en grondrechten — Artikel 9.
  • Datagovernance inrichten: trainings-, validatie- en testdatasets moeten relevant, voldoende representatief, foutvrij voor zover mogelijk en compleet zijn, met expliciete aandacht voor mogelijke vooroordelen — Artikel 10.
  • Technische documentatie opstellen vóórdat het systeem in de markt wordt gezet, en deze actueel houden — Artikel 11. De minimale inhoud staat in Bijlage IV: algemene beschrijving, beoogde doelen, ontwerpkeuzen, prestatiemetrics, risico's, mitigaties.
  • Logging implementeren: het systeem moet automatisch gebeurtenissen registreren tijdens werking, met logs die ten minste zes maanden worden bewaard — Artikel 12.
  • Transparantie naar gebruikers (deployers): duidelijke gebruiksinstructies in de taal van de lidstaat, met informatie over capaciteiten, beperkingen, prestaties en menselijk toezicht — Artikel 13.
  • Menselijk toezicht ontwerpen in het systeem: gebruikers moeten in staat zijn de output juist te interpreteren, automatiseringsbias te onderkennen, en het systeem te kunnen onderbreken of overstijgen — Artikel 14.
  • Nauwkeurigheid, robuustheid en cybersecurity garanderen op een niveau dat passend is voor het beoogde doel; deze prestaties moeten worden verklaard in de gebruiksinstructies — Artikel 15.
  • Kwaliteitsmanagementsysteem implementeren als aanbieder, dat onder meer voorziet in risicomanagement, datagovernance, technieken voor verificatie en validatie, en een rapportagesysteem voor ernstige incidenten — Artikel 17.
  • Conformiteitsbeoordeling uitvoeren vóór de inbedrijfstelling. Voor de meeste Bijlage-III-systemen volstaat een interne controle op basis van Bijlage VI; voor biometrische systemen is een aangemelde instantie betrokken volgens Bijlage VII — Artikel 43.
  • CE-markering aanbrengen op het AI-systeem of de bijbehorende documentatie, samen met een EU-conformiteitsverklaring — Artikel 48.
  • Registratie in de EU-database voor hoog-risico AI-systemen vóór ingebruikname — Artikel 49.
  • Monitoring na het op de markt brengen opzetten: continu prestaties en risico's volgen na ingebruikname, met een gedocumenteerd plan — Artikel 72.
  • Ernstige incidenten melden bij de markttoezichtautoriteit (in Nederland naar verwachting de Autoriteit Persoonsgegevens en de Rijksinspectie Digitale Infrastructuur; in België nog aan te wijzen) zonder onnodige vertraging, in beginsel binnen 15 dagen — Artikel 73.

Als gebruiker (deployer) van een hoog-risico AI-systeem heeft u afzonderlijke verplichtingen onder Artikel 26: gebruik in overeenstemming met de instructies, menselijk toezicht door bevoegd en getraind personeel, monitoring van de werking, bewaring van logs zes maanden, informeren van werknemersvertegenwoordigers vóór gebruik op de werkvloer, en een fundamentele-rechtenimpact-assessment (FRIA) voor publieke instellingen en bepaalde private exploitanten van essentiële diensten — Artikel 27.

Beperkt risico

Eén transparantievermelding op de juiste plaats — Artikel 50. Voor een chatbot: "U chat met een geautomatiseerd systeem", zichtbaar bij eerste interactie. Voor synthetische content: machineleesbare watermerken (bijvoorbeeld via C2PA-standaarden) plus een zichtbare bekendmaking. Voor emotieherkenning of biometrische categorisering: voorafgaande informatie aan de blootgestelde personen. Voor deepfakes en door AI gegenereerde teksten over zaken van openbaar belang: bekendmaking dat de content kunstmatig is gegenereerd. Documenteer uw transparantiekeuzes en bewaar de schermafbeeldingen of teksten als bewijs.

Minimaal risico

Geen dwingende verplichtingen. Overweeg vrijwillige aansluiting bij een gedragscode onder Artikel 95: hier kunt u uw bereidheid signaleren tot AI-geletterdheid van personeel, milieuduurzaamheid, transparantie en non-discriminatie. Voor B2B-leveranciers met grote zakelijke afnemers is een gedragscode steeds vaker een commercieel vereiste in tenders.

GPAI-aanbieders

Indien u zelf een grondmodel hebt getraind of een bestaand model substantieel hebt aangepast onder eigen merk: technische modeldocumentatie opstellen volgens Bijlage XI; downstream-instructies en -informatie verschaffen volgens Bijlage XII; een EU-auteursrechtenbeleid voeren met respect voor opt-outs op tekst- en datamining; en een voldoende gedetailleerde samenvatting publiceren van de inhoud die voor de training is gebruikt, volgens een door het AI Office aangereikt sjabloon. Bij GPAI met systeemrisico komen daar aanvullende verplichtingen bij rond modelevaluatie, risicomitigatie, incidentmelding en cybersecurity.

Tijdlijn van deadlines

De AI-verordening kent een gefaseerde inwerkingtreding. De vijf belangrijkste data:

2 februari 2025 — Hoofdstuk I (algemene bepalingen) en Hoofdstuk II (verboden praktijken) zijn van toepassing. De acht categorieën van Artikel 5 zijn vanaf deze datum verboden. Vanaf deze datum is ook de eis van AI-geletterdheid voor personeel actief (Artikel 4): u moet ervoor zorgen dat medewerkers die AI-systemen bedienen of er beslissingen op baseren een passend opleidingsniveau hebben.

2 augustus 2025 — Hoofdstuk V (algemene-doel AI-modellen, Artikelen 51-55), Hoofdstuk III, afdeling 4 (aangemelde instanties), Hoofdstuk VII (governance), Hoofdstuk XII (sancties met uitzondering van GPAI-sancties) en Artikel 78 (vertrouwelijkheid) worden van toepassing. Aanbieders van GPAI-modellen die ná deze datum in de markt komen, moeten direct conform zijn; modellen die er al stonden, krijgen tot 2 augustus 2027 de tijd.

2 februari 2026 — Het AI Office publiceert richtsnoeren over de praktische uitvoering van Artikel 6 en de classificatie van hoog-risico-systemen, met praktijkvoorbeelden van zowel hoog-risico- als niet-hoog-risico-toepassingen. Lees deze richtsnoeren zodra ze verschijnen.

2 augustus 2026 — Het overgrote deel van de verordening wordt van toepassing, inclusief de hoog-risico-verplichtingen voor Bijlage-III-systemen (Artikelen 8-22, 26-27, 29-49) en de transparantieverplichtingen van Artikel 50. Dit is de praktische "go-live" voor de meerderheid van de MKB-toepassingen.

2 augustus 2027 — De hoog-risico-verplichtingen voor AI-systemen die als veiligheidscomponent fungeren onder Bijlage II EU-harmonisatiewetgeving (Artikel 6, lid 1) worden van toepassing. Aanbieders van GPAI-modellen die vóór 2 augustus 2025 in de markt waren, moeten op deze datum volledig compliant zijn.

Wat te doen dit kwartaal

Concreet 30/60/90-dagenplan voor uw organisatie:

Eerste 30 dagen — Inventariseer. Maak een lijst van iedere AI-toepassing die in uw organisatie wordt gebruikt, ontwikkeld of overwogen. Per toepassing: doel, eigenaar, betrokken data, gebruikersgroep (intern/extern), onderliggend model. Vergeet de schaduw-IT niet: ChatGPT-accounts in marketing, Copilot in development, AI-functies in bestaande SaaS-tools (HR-platforms, CRM's, helpdesk-software). Onderschat dit niet — bij een doorsnee MKB van 50 medewerkers vinden wij gemiddeld 18 tot 25 AI-toepassingen, waarvan de centrale IT-afdeling er gemiddeld 7 kent.

Dagen 31 tot 60 — Classificeer. Loop voor elke geïnventariseerde toepassing de acht-vragen-beslisboom door. Documenteer per toepassing: de classificatie (verboden / hoog / beperkt / minimaal / GPAI-aanbieder), de redenering, de relevante artikel(en) en de bewijsstukken. Identificeer onmiddellijk de toepassingen die in de verboden categorie zouden kunnen vallen — die zijn al per 2 februari 2025 niet meer toegestaan. Stop deze, of pas ze fundamenteel aan, en documenteer het besluit.

Dagen 61 tot 90 — Plan en wijs toe. Voor elke hoog-risico-toepassing: stel een verantwoordelijke aan, prioriteer de dertien-puntenlijst, schat tijd en budget in, en zet de planning af tegen de deadline van 2 augustus 2026. Voor elke beperkt-risico-toepassing: implementeer de transparantievermelding van Artikel 50 binnen 90 dagen — dit is laag-hangend fruit. Voor minimaal-risico-toepassingen: overweeg vrijwillige gedragscode-deelname als u B2B verkoopt. En benoem nu een verantwoordelijke voor het programma rond de AI-verordening in uw organisatie — dit hoeft geen voltijdse rol te zijn, maar wel iemand met expliciete bevoegdheid en bestuurniveau. Plan een driemaandelijkse review met directie/bestuur, en stel een eerste interne audit in voor begin 2026.

De AI-verordening is geen kwestie van afwachten. De boetes zijn hoog, de deadlines vastgelegd, de eerste handhaving begint nu. Een MKB dat in mei 2026 aan classificatie begint, heeft nauwelijks tijd om te plannen, te documenteren en intern te trainen vóór de ingangsdatum. Een MKB dat dat in juni 2025 doet, heeft veertien maanden om het ordentelijk te doen — realistische budgetten, geen paniek. Dat verschil bepaalt vaak of u een handhaafbare overtreding wordt of een audit-bestendige organisatie. De keuze ligt vandaag voor u.

Controleer uw compliance-gereedheid

Doorloop onze gratis AVG-, NIS2- en AI-verordening-gereedheidsbeoordeling en ontvang binnen enkele minuten persoonlijke aanbevelingen.

Gratis beoordeling starten

EU Compliance Weekly

Get the latest regulatory updates, compliance tips, and enforcement news delivered to your inbox every week.

We respect your privacy. Unsubscribe anytime.