Tilbage til bloggen
Bedste praksis17 min readMay 1, 2026

AI-forordningens risikoniveauer 2026: sådan klassificerer SMV'er deres AI-anvendelser korrekt

By Anna Bergström

Kort fortalt

AI-forordningen (Forordning (EU) 2024/1689) opererer med fire risikoniveauer for konkrete AI-anvendelser — uacceptabel, høj, begrænset og minimal — plus et parallelt regime for AI-modeller til generelle formål (GPAI). Hvilket niveau jeres anvendelse rammer, afgør, om I skal lukke systemet ned, gennemføre en fuld overensstemmelsesvurdering, blot tilføje en gennemsigtighedsmeddelelse eller fortsætte uden særlige forpligtelser. Forkert klassificering er dyrere end korrekt compliance: op til 35 mio. EUR eller 7 % af global årsomsætning for forbudte praksisser, op til 15 mio. EUR eller 3 % for højrisiko-overtrædelser, og op til 7,5 mio. EUR eller 1,5 % for vildledende oplysninger til myndigheder. De fleste SMV-fejl følger et af fem genkommende mønstre, som denne guide skelner mellem ved hjælp af konkrete eksempler fra dansk erhvervsliv. I får et beslutningstræ i otte spørgsmål, et artikelhenvist pligtkatalog pr. niveau, en oversigt over deadlines 2025–2027 og en 30/60/90-dages plan, så I kan få jeres AI-inventar, risikoindplacering og første dokumentation på plads, før de næste anvendelsesfaser bliver håndhævelige.

Hvorfor forkert klassificering koster mere end korrekt compliance

Bødearkitekturen i AI-forordningen er trappet efter overtrædelsens grovhed — og lofterne er væsentligt højere end i GDPR. Overtrædelser af forbuddet mod uacceptable praksisser efter Artikel 5 sanktioneres med op til 35 mio. EUR eller 7 % af den globale årsomsætning, alt efter hvad der er højest. Overtrædelser af højrisiko-pligterne (krav til risikostyringssystem, datastyring, teknisk dokumentation, menneskeligt tilsyn osv.) ligger på op til 15 mio. EUR eller 3 %. Urigtige, ufuldstændige eller vildledende oplysninger til kompetente myndigheder koster op til 7,5 mio. EUR eller 1,5 %. For SMV'er gælder det laveste af de to beløb — hvilket reducerer absolutte tal, men bevarer den procentvise størrelsesorden.

Praktisk effekt: En dansk SMV med 60 mio. kr. i årlig omsætning, der fejlklassificerer et AI-system som "begrænset risiko", når det reelt er højrisiko efter Bilag III, risikerer ved en højrisiko-overtrædelse op til omkring 1,8 mio. kr. — mange gange omkostningen ved en ordentlig overensstemmelsesvurdering. Ved formodede uacceptable praksisser (fx uovervejet brug af følelsesgenkendelse i jobsamtaler eller på arbejdspladsen) ligger sanktionen på 7 % af omsætningen — for samme virksomhed altså op til 4,2 mio. kr. Og det er kun de direkte bøder. Dertil kommer markedstilbagekaldelser, kontraktbøder fra B2B-kunder med klausuler om AI-overensstemmelse, omdømmetab og personlig ansvarsrisiko for direktion og bestyrelse efter selskabslovgivningen. Korrekt klassificering er den billigste forsikring på markedet.

For danske SMV'er, der sælger ind i den offentlige sektor, kommer SKI-aftaler og udbudslovgivningen oveni: en leverandør, der ikke kan dokumentere korrekt AI-klassificering, risikerer udelukkelse fra fremtidige udbud — tabet af én SKI-rammeaftale overstiger let omkostningerne ved et fuldt højrisiko-program.

De fire officielle risikoniveauer

AI-forordningen følger en risikobaseret tilgang: jo højere risiko for grundlæggende rettigheder, sikkerhed eller det indre marked, desto strengere forpligtelser. De fire niveauer er ikke valgt af leverandøren — de følger af systemets formål, anvendelseskontekst og virkemåde. Niveauerne udelukker hinanden: et system falder i præcis ét niveau, ikke flere. Den samme grundmodel kan dog klassificeres forskelligt afhængigt af, hvordan den konkret anvendes.

Niveau 1: Uacceptabel risiko (Artikel 5) — forbudt

Forbuddene i Artikel 5 har været anvendelige siden 2. februar 2025. Det betyder: hvis I i dag driver et af systemerne nedenfor i EU, overtræder I forordningen. Punktum. Der er ingen overgangsperiode tilbage, ingen "vi venter med at lukke ned, til myndigheden henvender sig". Forbuddene dækker:

  • Social scoring fra offentlige myndigheder eller på vegne af dem — vurdering af fysiske personer over tid baseret på social adfærd eller udledte personlighedstræk, der fører til skadelig eller ufordelagtig behandling i ikke-relaterede sammenhænge.
  • Biometrisk realtidsidentifikation i offentligt tilgængelige rum til retshåndhævelse — med snævre undtagelser for målrettet eftersøgning af bortførelses- og menneskehandelsofre, forebyggelse af konkrete og overhængende terrortrusler eller lokalisering af mistænkte for nærmere fastsatte alvorlige forbrydelser. Undtagelserne kræver forudgående retslig godkendelse.
  • Følelsesgenkendelse på arbejdspladsen og i uddannelsesinstitutioner — undtaget er systemer udelukkende til medicinske eller sikkerhedsmæssige formål.
  • Ikke-målrettet skrabning af ansigtsbilleder fra internettet eller cctv-optagelser med henblik på at opbygge eller udvide ansigtsgenkendelsesdatabaser.
  • AI-systemer, der manipulerer adfærd ved hjælp af subliminale teknikker uden personens bevidsthed eller udnytter sårbarheder hos specifikke grupper (alder, handicap, social eller økonomisk situation), så det medfører væsentlig skade.
  • Prædiktivt politiarbejde alene baseret på profilering eller vurdering af personlighedstræk — uden objektive, verificerbare omstændigheder direkte forbundet med en strafbar handling.
  • Biometrisk kategorisering af fysiske personer for at udlede race, politisk holdning, fagforeningsmedlemskab, religiøs eller filosofisk overbevisning, seksualliv eller seksuel orientering — undtaget er lovlig mærkning eller filtrering af lovligt erhvervede biometriske datasæt på retshåndhævelsesområdet.

For de fleste SMV'er er den reelle risiko ikke "vi laver social scoring", men at glide uforvarende ind i forbudt område: en HR-chatbot, der vurderer "engagement" ud fra ansigtsudtryk i videointerviews; et træningsprogram, der bruger følelsesgenkendelse til at "personalisere" undervisningen. Hvis et af jeres systemer rammer Artikel 5, er den eneste lovlige reaktion at lukke ned eller redesigne fundamentalt — ikke at "afbøde".

Niveau 2: Høj risiko (Artikel 6 + Bilag III) — den tungeste compliance-byrde

Højrisiko-systemer er tilladt, men underlagt det mest omfattende pligtsæt i forordningen. Hovedparten af reglerne gælder fra 2. august 2026. Et system er højrisiko, hvis det enten (a) er en sikkerhedskomponent i et produkt omfattet af EU-harmoniseringslovgivningen i Bilag II (medicinsk udstyr, maskiner, legetøj, radioudstyr, fartøjer, civile luftfartsprodukter osv.) og kræver en tredjepartsoverensstemmelsesvurdering, eller (b) er opført i Bilag III. Bilag III dækker otte kategorier:

  • Biometri — fjernidentifikation, kategorisering og følelsesgenkendelse, når det ikke er forbudt efter Artikel 5.
  • Kritisk infrastruktur — sikkerhedskomponenter til styring og drift af kritisk digital infrastruktur, vejtrafik samt forsyning af vand, gas, varme og elektricitet.
  • Uddannelse og erhvervsuddannelse — adgang og optag, fordeling på uddannelsesniveauer, vurdering af læringsresultater, niveauplacering og monitorering af forbudt adfærd ved prøver.
  • Beskæftigelse, medarbejderhåndtering og adgang til selvstændig erhvervsvirksomhed — rekruttering og udvælgelse (annoncering, screening, vurdering af ansøgere), ansættelsesbeslutninger, forfremmelse, opsigelse, opgavefordeling baseret på adfærd eller personlighed, præstationsmonitorering og evaluering.
  • Adgang til væsentlige private og offentlige tjenester — vurdering af berettigelse til offentlige ydelser, kreditværdighedsvurdering eller fastsættelse af kreditscore (med undtagelse for opdagelse af finansiel svindel), risikovurdering og prissætning i livs- og sundhedsforsikring, dispatching ved alarmcentraler.
  • Retshåndhævelse — risikovurdering af fysiske personer, polygraflignende værktøjer, vurdering af bevisers pålidelighed, profilering, prædiktiv brug uden for det forbudte område i Artikel 5.
  • Migration, asyl og grænsekontrol — polygraflignende værktøjer, risikovurdering af fysiske personer, behandling af visum-, asyl- og opholdsansøgninger, identifikation eller verifikation af personer (undtagen rejsedokumenter).
  • Retsvæsen og demokratiske processer — bistand til judicielle myndigheder ved fortolkning og anvendelse af retsregler, samt påvirkning af resultater af valg eller folkeafstemninger eller af stemmeadfærd (med undtagelse for output, fysiske personer ikke direkte eksponeres for, fx interne organisations- eller administrative værktøjer).

For danske SMV'er er de tre kategorier, vi oftest ser i drift, beskæftigelse (CV-screening, performance management), væsentlige tjenester (kreditscoring i fintech, sundhedsforsikrings-prissætning) og uddannelse (proktorering, niveauplacering i e-læring). Bemærk en undtagelse i Artikel 6(3): et system, der falder i Bilag III, kan undgå højrisiko-status, hvis det udelukkende udfører en snæver proceduremæssig opgave, forbedrer resultatet af en tidligere afsluttet menneskelig aktivitet, opdager beslutningsmønstre uden at erstatte den menneskelige vurdering eller udfører en forberedende opgave til en vurdering, der er relevant for Bilag III-formålet. Undtagelsen er reel, men snæver — og kræver dokumenteret begrundelse plus registrering i EU-databasen før ibrugtagning.

Niveau 3: Begrænset risiko (Artikel 50) — gennemsigtighedsforpligtelser

Begrænset risiko er ikke en residualkategori — det er en konkret kategori med konkrete forpligtelser, der gælder fra 2. august 2026. Artikel 50 pålægger gennemsigtighedspligter til fire systemtyper:

  • AI-systemer beregnet til direkte interaktion med fysiske personer (chatbots, stemmeassistenter, virtuelle agenter) skal udformes og udvikles, så personen informeres om, at vedkommende interagerer med et AI-system — medmindre det er åbenlyst ud fra omstændighederne for en rimeligt informeret, opmærksom og kritisk person.
  • AI-systemer, der genererer syntetisk lyd-, billed-, video- eller tekstindhold, skal mærke output i et maskinlæsbart format, så det kan opdages som kunstigt genereret eller manipuleret.
  • Anvendere af følelsesgenkendelses- eller biometriske kategoriseringssystemer skal informere de eksponerede fysiske personer om systemets drift og behandle persondata i overensstemmelse med GDPR.
  • Anvendere af AI-systemer, der genererer eller manipulerer billed-, lyd- eller videoindhold, der udgør deepfakes, skal oplyse, at indholdet er kunstigt genereret eller manipuleret. For AI-genereret tekst, der offentliggøres med henblik på at oplyse offentligheden om sager af offentlig interesse, gælder samme oplysningspligt — undtaget når indholdet har gennemgået menneskelig redigering eller redaktionel kontrol, og en fysisk eller juridisk person bærer det redaktionelle ansvar.

For mange B2B-SaaS-virksomheder er denne kategori den mest relevante — kundeservice-chatbots, AI-assistenter i produkter, AI-genereret marketing-indhold. Compliance-byrden er overkommelig: en synlig oplysning ved chat-start, en C2PA-mærkning eller tilsvarende på syntetisk indhold, en formuleret politik for AI-genereret tekst. Men forpligtelsen findes — og at glemme den udsætter jer for den 7,5 mio. EUR eller 1,5 % bødestige.

Niveau 4: Minimal risiko — alt andet

Alt, der ikke falder i et af de tre niveauer ovenfor, er minimal risiko. Spamfiltre, AI i computerspil, AI til lagerstyring uden direkte effekt på fysiske personer, generel produktanbefaling baseret på adfærdsdata. Forordningen pålægger ingen obligatoriske forpligtelser for minimal-risiko-systemer. Artikel 95 åbner for frivillig tilslutning til adfærdskodekser, der bringer udvalgte højrisiko-pligter (især om gennemsigtighed og menneskeligt tilsyn) i anvendelse — værd at overveje for organisationer, der vil signalere modenhed til kunder, men ikke et lovkrav.

Den femte søjle: AI-modeller til generelle formål (GPAI)

Ved siden af de fire risikoniveauer for konkrete anvendelser har AI-forordningen et separat regime for AI-modeller til generelle formål — Artikel 51-55. Reglerne gælder fra 2. august 2025, altså allerede nu. En GPAI-model er en AI-model trænet på en betydelig datamængde, som udviser betydelig generalitet og er i stand til kompetent at udføre en bred vifte af forskellige opgaver — fundamentmodeller som GPT-4, Claude, Gemini, Llama og deres efterfølgere.

Regimet har to niveauer. Standard GPAI-leverandører skal opretholde teknisk dokumentation om modellens udvikling, træning og evaluering; udarbejde og opdatere instruktioner til downstream-leverandører, der vil integrere modellen i egne AI-systemer; etablere en politik, der overholder EU's ophavsretsret (særligt opt-out for tekst- og data-mining); og offentliggøre en tilstrækkeligt detaljeret sammenfatning af det indhold, der er anvendt til træning. GPAI-modeller med systemisk risiko — defineret som modeller, hvis kumulerede træningsberegning overstiger 10^25 FLOPs, eller som Kommissionen udpeger ud fra andre kriterier — har yderligere pligter: avanceret modelvurdering med standardiserede protokoller, vurdering og afbødning af systemiske risici på EU-niveau, indberetning af alvorlige hændelser til AI Office og kompetente myndigheder samt passende cybersikkerhedsbeskyttelse for modellen og dens fysiske infrastruktur.

Det vigtige for SMV'er: I er sandsynligvis ikke leverandører af GPAI-modeller — I er deployers. I bruger en tredjeparts model gennem en API eller et integreret produkt. Jeres GPAI-relaterede forpligtelser handler om korrekt downstream-brug: følge leverandørens instruktioner, klassificere jeres anvendelsestilfælde efter de fire risikoniveauer ovenfor, og sikre at I ikke selv bliver "leverandør" gennem væsentlig modifikation (Artikel 25). En væsentlig modifikation kan være finjustering, der ændrer modellens formål eller risikoprofil markant — almindelig prompt engineering eller retrieval-augmented generation falder normalt ikke i kategorien, men finjustering på et stort domænespecifikt datasæt kan gøre det. Tvivlssagen kræver juridisk vurdering før produktionssætning.

Beslutningstræ: klassificér din anvendelse i 8 spørgsmål

Brug spørgsmålene nedenfor i rækkefølge. Det første "ja", der låser et niveau, afslutter klassificeringen for det pågældende anvendelsestilfælde. Dokumentér jeres svar — beslutningstræet er selv en del af jeres tekniske dokumentation.

Spørgsmål 1: Falder anvendelsen ind under nogen af forbuddene i Artikel 5? Tjek de syv kategorier listet ovenfor. Vær særligt opmærksom på følelsesgenkendelse i HR/uddannelse, biometrisk kategorisering af følsomme attributter og manipulationsteknikker. Hvis ja — uacceptabel. Stop driften eller redesign.

Spørgsmål 2: Er systemet en sikkerhedskomponent i et produkt omfattet af Bilag II-harmoniseringslovgivningen? Eksempler: AI i medicinsk udstyr (CE-mærket under MDR), AI i maskiner (Maskinforordningen), AI i legetøj. Hvis ja og produktet kræver tredjepartsoverensstemmelsesvurdering — højrisiko. Spring til Spørgsmål 6.

Spørgsmål 3: Falder anvendelsen i nogen af Bilag III's otte kategorier? Biometri, kritisk infrastruktur, uddannelse, beskæftigelse, væsentlige tjenester, retshåndhævelse, migration, retsvæsen/demokrati. Hvis nej — gå til Spørgsmål 5. Hvis ja — gå til Spørgsmål 4.

Spørgsmål 4: Falder anvendelsen i Artikel 6(3)'s undtagelse? Det vil sige: udfører den udelukkende en snæver proceduremæssig opgave, forbedrer den output af en tidligere menneskelig aktivitet, opdager den beslutningsmønstre uden at erstatte menneskelig vurdering, eller udfører den en rent forberedende opgave? Hvis ja og I kan dokumentere det robust — undtagelsen gælder, gå til Spørgsmål 5. Hvis nej eller tvivlsomt — højrisiko. Spring til Spørgsmål 6. Vigtigt: Artikel 6(3)-undtagelsen kræver registrering i EU-databasen efter Artikel 49 før ibrugtagning, også selvom systemet ender uden for højrisiko-niveauet. Springer I dette trin over, mister I undtagelsens beskyttelse.

Spørgsmål 5: Interagerer systemet direkte med fysiske personer, genererer eller manipulerer det syntetisk indhold, eller er det et følelsesgenkendelses-/biometrisk kategoriseringssystem? Hvis ja — begrænset risiko med Artikel 50-pligter. Hvis nej — minimal risiko, ingen obligatoriske pligter. Færdig.

Spørgsmål 6: Er I leverandør, deployer, importør eller distributør? Aktørrollen bestemmer, hvilke artikler der er primært relevante for jer. Leverandører bærer hovedparten (Artikel 16-22, 49). Deployers har et mere afgrænset, men reelt sæt (Artikel 26-27). Importører og distributører har verifikationspligter (Artikel 23-24).

Spørgsmål 7: Bruger I en GPAI-model som grundlag, og har I foretaget væsentlige modifikationer? Almindelig API-brug gør jer til deployer af GPAI plus klassificering af anvendelsestilfældet. Finjustering, der ændrer formål eller risikoprofil, kan kaste jer i leverandørstatus efter Artikel 25 — med fuld leverandøransvar for det modificerede system.

Spørgsmål 8: Behandler systemet personoplysninger? Hvis ja — GDPR gælder parallelt. Vurder særligt om Artikel 22 (automatiseret afgørelse med juridisk eller væsentlig effekt) gælder; AI-forordningens højrisiko-status og GDPR Artikel 22 er additive forpligtelser, ikke alternative.

Praktisk eksempel 1: HR-tech-SaaS i København

En 50-personers HR-tech-SaaS i København integrerer GPT-4o til CV-forhåndsudvælgelse for sine kunder (mellemstore virksomheder, der hver modtager 200-2.000 ansøgninger pr. stilling). Systemet rangerer ansøgere efter en sammensat score baseret på CV-tekst, sammenholdt med stillingsopslaget.

Klassificering: Spørgsmål 1 — ingen Artikel 5-forbud udløst. Spørgsmål 2 — ingen Bilag II-produkt. Spørgsmål 3 — ja, Bilag III, punkt 4(a): "AI-systemer beregnet til at blive anvendt til rekruttering eller udvælgelse af fysiske personer, navnlig til at målrette stillingsannoncer, til at analysere og filtrere ansøgninger og til at evaluere ansøgere." Spørgsmål 4 — Artikel 6(3)-undtagelse? Nej. Systemet rangerer ansøgere — det "erstatter eller påvirker en tidligere afsluttet menneskelig vurdering" og er ikke rent proceduremæssigt. Klassificering: højrisiko.

SaaS-virksomheden er leverandør (de markedsfører systemet under eget navn til kunderne). Pligterne fra 2. august 2026: risikostyringssystem (Art. 9), datastyring og bias-test (Art. 10), teknisk dokumentation (Art. 11, Bilag IV), automatisk logføring (Art. 12), brugerinstruktioner (Art. 13), menneskeligt tilsyn-design (Art. 14), nøjagtighed og robusthed (Art. 15), kvalitetsledelsessystem (Art. 17), overensstemmelsesvurdering (Art. 43, intern kontrol), CE-mærkning (Art. 48), registrering i EU-databasen (Art. 49) og post-market monitoring (Art. 72). De kunder, der bruger systemet, er deployers med Artikel 26-pligter: følge leverandørens instruktioner, sikre menneskeligt tilsyn, opbevare logs i seks måneder, informere ansøgere om brugen, og — for offentlige myndigheder eller leverandører af offentlige tjenester — gennemføre en grundlæggende rettighedsvurdering efter Artikel 27. GPAI-laget gælder også: SaaS-virksomheden skal sikre, at OpenAI's instruktioner som GPAI-leverandør følges, og må ikke foretage modifikationer af GPT-4o, der kaster dem i leverandørstatus efter Artikel 25.

Praktisk eksempel 2: Aarhus-baseret fintech med kreditscoring

En 30-personers fintech i Aarhus tilbyder forbrugslån op til 100.000 kr. og bruger en intern AI-model til at fastsætte kreditscore baseret på transaktionsdata, betalingsadfærd og ansøgningsoplysninger. Modellen er udviklet in-house på baggrund af ti års historiske data.

Klassificering: Spørgsmål 1 — ikke uacceptabel. Spørgsmål 2 — ingen Bilag II. Spørgsmål 3 — ja, Bilag III, punkt 5(b): "AI-systemer beregnet til at blive anvendt til at evaluere fysiske personers kreditværdighed eller fastsætte deres kreditscore, med undtagelse af AI-systemer anvendt til at opdage finansiel svindel." Spørgsmål 4 — Artikel 6(3)-undtagelse? Nej, kernevurdering. Klassificering: højrisiko. Fintechen er både leverandør (de har bygget modellen selv) og deployer (de bruger den selv). Begge pligtsæt gælder.

Vigtigt parallelregime: GDPR Artikel 22 (automatiserede individuelle afgørelser med juridisk eller væsentlig effekt) gælder også. Det betyder ud over AI-forordningens pligter: ret til menneskelig indgriben, ret til at udtrykke synspunkter og bestride afgørelsen, samt — efter Datatilsynets praksis — pligt til at give meningsfuld information om logikken. Fintechen skal derfor designe en eksplicit menneskelig tilsynsproces (Art. 14 i AI-forordningen + Art. 22 i GDPR), dokumentere bias-test pr. beskyttede karakteristika (Art. 10) og være forberedt på databasens registreringspligt før ibrugtagning. De har også Kreditaftalelovens særkrav om kreditværdighedsvurdering — tre regelsæt på samme system. Det er præcis den type stack, hvor en integreret compliance-tilgang sparer både tid og fejlrisiko.

Hyppige klassificeringsfejl

Fra de mange SMV-vurderinger, vi gennemfører i Norden, gentager fem fejl sig særligt ofte. Genkend dem, undgå dem.

Fejl 1: "Vi bruger jo bare ChatGPT — vi er ikke omfattet"

Den hyppigste misforståelse. AI-forordningen regulerer ikke modeller alene, men også konkrete anvendelser. Når jeres organisation bruger ChatGPT (eller Claude, Gemini, Mistral etc.) til en konkret opgave, er begge lag aktive: GPAI-deployment-pligterne (følg leverandørens instruktioner, dokumentér brug) plus klassificering af det konkrete anvendelsestilfælde. En kundeservice-chatbot bygget på ChatGPT er begrænset risiko (Artikel 50). En CV-screener bygget på ChatGPT er højrisiko (Bilag III). En følelsesgenkendelse-feature bygget på ChatGPT i en HR-platform kan være forbudt (Artikel 5). At I "bare bruger ChatGPT" sænker ikke niveauet — det kombinerer to pligtsæt.

Fejl 2: "Det er kun internt — vi sælger det ikke"

Internt brug sænker ikke risikoniveauet. AI-forordningen skelner mellem leverandør og deployer, ikke mellem internt og eksternt. Et CV-screening-værktøj, jeres HR-afdeling bruger til jeres egne ansættelser, er ikke mindre højrisiko end det samme værktøj solgt til en kunde. I er deployer i begge tilfælde, og deployer-pligterne i Artikel 26 gælder. Den eneste nuance: hvis I bygger et internt værktøj, der ikke er en almindelig produktklasse på markedet, kan I selv være leverandør efter den særlige regel for ibrugtagning til eget brug (Artikel 16 sammenholdt med definitionen i Artikel 3) — hvilket pålægger leverandørpligterne oveni.

Fejl 3: "Vi har ikke trænet modellen, så vi er ikke leverandør"

Som hovedregel rigtigt, men ikke ufravigeligt. Artikel 25 udvider leverandørstatus til enhver, der "foretager en væsentlig modifikation af et AI-system med høj risiko, der allerede er bragt i omsætning eller taget i brug, på en sådan måde, at det forbliver et AI-system med høj risiko" — eller modificerer formålet, så et tidligere ikke-højrisiko-system bliver højrisiko. "Væsentlig modifikation" er ikke skarpt defineret, men Kommissionens praksis og forarbejderne indikerer: ændring af tilsigtet formål, finjustering på domænespecifikt datasæt, der ændrer risikoprofilen, integration der grundlæggende ændrer outputkarakter. Almindelig prompt engineering, system prompts, retrieval-augmented generation eller integration uden ændring af modellens vægte falder typisk uden for. Domain-specifik finjustering, der gør modellen markant bedre på en højrisiko-opgave (fx træning på 50.000 CV'er for at forbedre rekrutterings-scoring), kan falde indenfor. Få en juridisk vurdering før beslutningen.

Fejl 4: At forveksle begrænset risiko med minimal risiko ved kunde-chatbots

Mange organisationer betragter en almindelig kundeservice-chatbot som "minimal risiko". Det er forkert. Artikel 50(1) gælder ethvert AI-system beregnet til direkte interaktion med fysiske personer — chatbots, stemmeassistenter, virtuelle agenter. Pligten er let at opfylde (en synlig oplysning om, at brugeren chatter med et AI-system), men det kræver en aktiv indsats. At undlade oplysningen udsætter jer for sanktioner og — mere praktisk — for klagesager fra forbrugerorganisationer, der i 2025-2026 har gjort gennemsigtighed til mærkesag.

Fejl 5: At glemme GDPR Artikel 22 ovenpå

AI-forordningen og GDPR er parallelle, ikke alternative. Hvis jeres højrisiko-system behandler personoplysninger, gælder GDPR fuldt ud — og GDPR Artikel 22 (automatiseret individuel afgørelse med juridisk eller væsentlig effekt) lægges direkte oveni AI-forordningens krav. CV-screening, kreditscoring, forsikringsprissætning, alarmcentralsdispatch — alle er typisk Artikel 22-kvalificerede. Konsekvens: ud over AI-forordningens menneskelige tilsynspligt (Artikel 14) skal I sikre den registreredes ret til menneskelig indgriben, ret til at udtrykke synspunkter og ret til at bestride afgørelsen efter GDPR Artikel 22(3). I praksis kan de to pligter opfyldes med samme proces — men kun hvis processen er designet med begge for øje. Datatilsynet har i 2025 skærpet praksis: en AI-genereret afgørelse uden dokumenteret meningsfuld menneskelig vurdering er en GDPR Artikel 22-overtrædelse, uanset hvilken AI-forordningsklasse systemet falder i.

Compliance-tjekliste pr. niveau

Uacceptabel risiko

  • Stop driften af systemet i EU.
  • Redesign formålet, så systemet ikke længere falder i Artikel 5 — eller find en alternativ teknologisk løsning.
  • Dokumentér beslutningen og processen, hvis I bliver kontaktet af tilsyn eller retslige instanser.

Højrisiko (leverandørpligter, Artikel 9-22)

  • Risikostyringssystem etableret, dokumenteret og opretholdt gennem hele systemets livscyklus (Art. 9).
  • Datastyring: trænings-, validerings- og testdatasæt opfylder kvalitetskriterier; bias-vurdering gennemført og dokumenteret (Art. 10).
  • Teknisk dokumentation udarbejdet før ibrugtagning og holdt opdateret; indhold efter Bilag IV (Art. 11).
  • Automatisk logføring af hændelser, der gør sporbarhed mulig (Art. 12).
  • Gennemsigtighed og brugerinstruktioner: systemet ledsages af klare instruktioner til deployer om kapacitet, begrænsninger, kendte risici, præstationsdata (Art. 13).
  • Menneskeligt tilsyn designet ind i systemet — interfaces, kontroller, stop-funktioner (Art. 14).
  • Nøjagtighed, robusthed og cybersikkerhed på et niveau passende til formålet, dokumenteret med metrikker (Art. 15).
  • Kvalitetsledelsessystem etableret med skriftlige politikker, procedurer og instruktioner (Art. 17).
  • Overensstemmelsesvurdering gennemført — for de fleste Bilag III-systemer intern kontrol efter Bilag VI; for biometriske fjernidentifikationssystemer tredjepart efter Bilag VII (Art. 43).
  • CE-mærkning anbragt synligt, læseligt og uudsletteligt på systemet eller dets dokumentation (Art. 48).
  • Registrering i EU-databasen for AI-systemer med høj risiko før ibrugtagning (Art. 49).
  • Post-market monitoring-system etableret og aktivt — systematisk indsamling og analyse af data om systemets præstation efter ibrugtagning (Art. 72).
  • Rapportering af alvorlige hændelser til markedsovervågningsmyndigheden uden unødig forsinkelse (Art. 73).

Højrisiko (deployer-pligter, Artikel 26-27)

  • Brug systemet i overensstemmelse med leverandørens instruktioner.
  • Tildel menneskeligt tilsyn til kvalificerede personer med nødvendig kompetence, uddannelse og myndighed.
  • Sørg for at inputdata er relevante og tilstrækkeligt repræsentative for systemets formål, i det omfang I kontrollerer input.
  • Overvåg systemets drift og rapporter alvorlige hændelser eller risici til leverandøren og markedsovervågningsmyndigheden.
  • Opbevar automatisk genererede logs i mindst seks måneder, medmindre andet kræves.
  • Informer arbejdstagerrepræsentanter og berørte arbejdstagere før ibrugtagning på arbejdspladsen.
  • Informer fysiske personer, der er genstand for beslutninger truffet eller bistået af systemet, om brugen.
  • For offentlige myndigheder og visse leverandører af offentlige tjenester: gennemfør grundlæggende rettighedsvurdering før ibrugtagning (Art. 27).

Begrænset risiko (Artikel 50)

  • Synlig oplysning ved chatbot/stemmeassistent-interaktion: brugeren informeres om, at det er AI.
  • Maskinlæsbar mærkning af syntetisk lyd-/billed-/video-/tekstindhold (C2PA, watermarking eller tilsvarende anerkendt teknik).
  • Oplysningspligt ved deepfake-indhold — at indholdet er kunstigt genereret eller manipuleret.
  • Oplysningspligt for AI-genereret tekst om sager af offentlig interesse, medmindre menneskelig redaktionel kontrol er gennemført.
  • Oplysning til eksponerede personer ved følelsesgenkendelse eller biometrisk kategorisering, plus GDPR-overholdelse.

Minimal risiko

  • Ingen obligatoriske pligter.
  • Overvej frivillig tilslutning til adfærdskodeks efter Artikel 95 — særligt hvis I sælger til offentlig sektor eller regulerede industrier.

GPAI-leverandører (Artikel 53-55)

  • Teknisk dokumentation om model, træningsdata og evaluering opretholdt og opdateret.
  • Instruktioner til downstream-leverandører udarbejdet, så de kan opfylde egne pligter.
  • Politik for overholdelse af EU-ophavsret, særligt opt-out for tekst- og data-mining.
  • Tilstrækkeligt detaljeret sammenfatning af træningsdata offentliggjort.
  • For modeller med systemisk risiko: yderligere modelvurdering, risikoreduktion, hændelsesindberetning, cybersikkerhed.

Tidslinje for deadlines

AI-forordningens anvendelse er trinvis. Kalenderen nedenfor er den, alle danske SMV'er bør have hængende.

2. februar 2025 — Artikel 5 (forbudte praksisser) gælder. Hvis I i dag driver et af de syv forbudte systemer, overtræder I forordningen. Også: Artikel 4 om AI-læsefærdighed for personale, der er involveret i drift og brug af AI-systemer.

2. august 2025 — GPAI-pligter (Artikel 51-55) gælder for nye modeller. Eksisterende GPAI-modeller på markedet før denne dato har frist til 2. august 2027 for fuld overensstemmelse. Også: regler om governance og notificerede organer træder i kraft, og bødebestemmelser bliver håndhævelige.

2. februar 2026 — Kommissionen offentliggør gennemførelsesretsakter med vejledning om højrisiko-kriterier og praktiske eksempler.

2. august 2026 — hovedparten af forordningen gælder, herunder højrisiko-pligterne i Artikel 6 + Bilag III, Artikel 50-gennemsigtighedspligter, registreringspligten i EU-databasen og deployer-pligterne i Artikel 26-27.

2. august 2027 — fuld anvendelse: højrisiko-systemer, der er sikkerhedskomponenter i Bilag II-produkter, omfattes nu også; eksisterende GPAI-modeller skal være i fuld overensstemmelse; alle højrisiko-systemer, der allerede var på markedet før 2. august 2026, skal nu opfylde forordningen.

Hvad du gør dette kvartal — 30/60/90-dages plan

Vent ikke til 2. august 2026. Den efterfølgende plan giver jer et solidt udgangspunkt på 90 dage med moderate ressourcer (én compliance-ansvarlig deltidsallokeret, plus juridisk og teknisk input efter behov).

Dage 1-30: AI-inventar. Kortlæg alle AI-systemer i drift — interne værktøjer, indbyggede AI-features i SaaS-produkter, eksterne API'er, machine learning-modeller bygget af jeres data science-team. Spørg afdelingerne; spørg leverandørerne. Producér en liste med formål, dataindput, output, brugere, leverandør, model. Forvent at finde flere systemer end forventet — typisk 30-50 % flere end første estimat.

Dage 31-60: Klassificering. Kør hvert system gennem beslutningstræet i denne artikel. Dokumentér svaret på hvert spørgsmål. Identificér de uacceptable (lukkes ned eller redesignes med det samme), højrisiko (compliance-program startes), begrænsede (gennemsigtighedspligter implementeres) og minimale (dokumentér klassificeringen, intet videre krav). Forvent at finde 1-3 systemer i højrisiko-kategorien selv i en 50-personers organisation, og 5-10 i begrænset risiko.

Dage 61-90: Plan og dokumentation. For hvert højrisiko-system: udarbejd en compliance-køreplan mod 2. august 2026 — risikostyringssystem, datastyring, teknisk dokumentation, menneskeligt tilsyn-design, kvalitetsledelsessystem. For hvert begrænset risiko-system: implementér Artikel 50-oplysningerne. For GPAI-deployment: dokumentér leverandørens instruktioner, etabler en politik for ikke-væsentlig modifikation. Etabler en kvartalsvis genvurderingscyklus — AI-landskabet ændrer sig hurtigt, og jeres inventar skal følge med.

Den 90-dages plan koster typisk 80-150 timer for en SMV i denne størrelse — en investering, der både reducerer bøderisiko og åbner dør til regulerede markeder. Viktoria Compliances vurdering automatiserer størstedelen af inventar- og klassificeringstrinnene og producerer en prioriteret køreplan med artikelhenvisninger og deadlines klar til bestyrelsesgennemgang. Hvis I står med en uklassificeret AI-portefølje og 2. august 2026 nærmer sig, er udgangspunktet en 60-minutters samtale — ikke et tre-måneders projekt.

Tjek din compliance-parathed

Gennemfør vores gratis vurdering af parathed til GDPR, NIS2 og AI-forordningen og få personlige anbefalinger på få minutter.

Start gratis vurdering

EU Compliance Weekly

Get the latest regulatory updates, compliance tips, and enforcement news delivered to your inbox every week.

We respect your privacy. Unsubscribe anytime.