Riskklassificering enligt AI-förordningen för EU-baserade SMF: en praktisk guide för 2026
Sammanfattning
AI-förordningen sorterar varje AI-system i en av fyra risknivåer — Oacceptabel, Hög, Begränsad och Minimal — och lägger sedan en parallell regim för AI-modeller för allmänna ändamål (GPAI) ovanpå. Tyngdpunkten i regelefterlevnaden ligger i hög-risk-nivån som rymmer ungefär tretton materiella skyldigheter under Artikel 9 till 49, men transparenskraven på begränsad risk-nivå (Artikel 50) träffar varje chattbot och deepfake på marknaden, och Artikel 5-förbuden har varit verkställbara sedan 2 februari 2025. Felklassificering är dyrare än rätt klassificering: sanktionsavgifter för förbjudna metoder når 35 miljoner euro eller 7 procent av global årsomsättning, hög-risk-överträdelser når 15 miljoner euro eller 3 procent, och att lämna oriktiga uppgifter till myndigheter kostar fortfarande 7,5 miljoner euro eller 1,5 procent. För SMF är det praktiska arbetet att inventera varje AI-användningsfall, gå igenom ett kort beslutsträd och tilldela skyldigheter innan vågen av efterlevnadskrav den 2 augusti 2026 landar. Den här guiden ger er trädet, fallgroparna och nivå-för-nivå-checklistan för att göra det arbetet under ett enda kvartal.
Varför fel klassificering kostar mer än rätt regelefterlevnad
Ekonomin i AI-förordningen är obarmhärtig. Tre sanktionsband bestraffar tre olika sorters misstag, och de är medvetet kalibrerade för att göra det dyrare att fela än att följa.
För det första: förbjudna metoder enligt Artikel 5 kostar upp till 35 miljoner euro eller 7 procent av global årsomsättning, det belopp som är högst. Det är det vassaste sanktionstaket i hela EU:s digitala regelpaket — högre än GDPR (4 procent), högre än NIS2 (2 procent), högre än Digital Services Act (6 procent). En SMF som av oaktsamhet driftsätter ett system för känsloigenkänning på arbetsplatsen, utan att veta att det är förbjudet sedan februari 2025, riskerar en sanktion som överstiger flera års vinst.
För det andra: avvikelser i hög-risk-tillämpningar — bristande riskhantering, datastyrning, mänsklig tillsyn, teknisk dokumentation, övervakning efter introduktion — kostar upp till 15 miljoner euro eller 3 procent. Det är där de flesta seriösa SMF kommer att hamna om de slarvar med klassificeringen, eftersom hög-risk-kategorin är bredare än många tror (CV-screening, kreditbedömning, prestationsövervakning av personal, antagning till utbildning).
För det tredje: vilseledande information till anmälda organ eller marknadsövervakningsmyndigheter — felaktiga försäkringar om överensstämmelse, ofullständig teknisk dokumentation, undanhållna incidenter — kostar upp till 7,5 miljoner euro eller 1,5 procent. Det här bandet är särskilt viktigt eftersom det bestraffar kommunikationsbrister snarare än produktbrister: en hederlig leverantör med en bristfällig produkt kan tjäna på att klassificera korrekt och rapportera ärligt; en oärlig leverantör hamnar dubbelt fel.
Lägg till nationella tillsynsmyndigheters parallella verkställighetsbefogenheter, civilrättsliga skadeståndsanspråk från drabbade individer och varumärkesskadan av ett offentligt sanktionsbeslut — och ekvationen blir entydig. Tre dagars klassificeringsarbete per användningsfall är försumbart jämfört med en enda missklassificerad högrisk-driftsättning.
De fyra officiella risknivåerna
AI-förordningen definierar fyra horisontella nivåer plus den vertikala GPAI-pelaren. Varje nivå har sin egen rättsliga grund, sina egna skyldigheter och sin egen tidslinje. Den följande genomgången är ordnad från högsta till lägsta risk eftersom det är där de flesta SMF behöver fatta sina svåraste beslut först.
Oacceptabel risk (Artikel 5) — förbjudet sedan 2 februari 2025
Detta är AI-förordningens svarta lista. Åtta praktikkategorier är helt förbjudna, oavsett samtycke, syfte eller effektivitet. Förbuden trädde i kraft den 2 februari 2025 och är redan verkställbara av nationella tillsynsmyndigheter — i Sverige Integritetsskyddsmyndigheten (IMY) i egenskap av den ännu icke formellt utsedda tillsynsmyndigheten i avvaktan på det slutgiltiga utpekandet. Om ert system passar in i någon av kategorierna är det enda korrekta svaret att stoppa, designa om eller skrota det. Det finns ingen gråzon, inga genomförandeakter att vänta på, ingen förhandlingsbar position.
Kategorierna är: social rankning av offentliga myndigheter där bedömning av personers tillförlitlighet leder till skadlig eller orättfärdig behandling i sammanhang utanför där datan ursprungligen samlades in; biometrisk realtidsidentifiering på allmänna platser (med snäva undantag för specifika brottsbekämpningssyften som söka efter offer för människohandel, förebygga konkreta terrorhot eller lokalisera en misstänkt för vissa allvarliga brott — undantag som kräver förhandsgodkännande av rättslig myndighet); känsloigenkänning på arbetsplatser eller utbildningsinstitutioner (med ett snävt undantag för säkerhets- eller medicinska ändamål); icke-riktad insamling av ansiktsbilder från internet eller övervakningskameror för att bygga ansiktsigenkänningsdatabaser; manipulation eller utnyttjande av sårbarheter baserat på ålder, funktionsnedsättning eller socioekonomisk situation som orsakar materiell skada; prediktiv polisiär övervakning enbart baserad på profilering eller personlighetsdrag; biometrisk kategorisering av känsliga attribut (ras, politiska åsikter, fackföreningsmedlemskap, religiös tro, sexuell läggning); och subliminala tekniker som påverkar beteende på sätt som orsakar skada.
För svenska SMF är realfallen sällsynta men inte obefintliga. En HR-tech-leverantör som experimenterar med "engagemangsanalys" via webbkamera under medarbetarsamtal träffar känsloigenkänningsförbudet rakt på. En e-handlare som A/B-testar mörka mönster riktade mot ekonomiskt utsatta kunder kan träffa exploateringsförbudet. Inventera försiktigt — det är dyrt att missa.
Hög risk (Artikel 6 + Bilaga III) — den tyngsta efterlevnadsbördan
Hög risk är där huvuddelen av AI-förordningens substantiva regelarbete bor. Två vägar leder hit. Den första är Bilaga II: AI-system som fungerar som säkerhetskomponent i en produkt, eller är en produkt, som omfattas av befintlig EU-harmoniseringslagstiftning (medicintekniska produkter, maskiner, leksaker, hissar, fordon, civil luftfart, järnvägar, marin utrustning, m.fl.). Den andra är Bilaga III: åtta uppräknade användningsområden där AI-användning är hög risk per definition.
Bilaga III-kategorierna, i fri sammanfattning men med korrekta gränser, börjar med tre samhällsbärande områden. Biometri omfattar fjärrbiometrisk identifiering som inte sker i realtid på allmän plats — till exempel polisens efterhandsidentifiering, kategorisering enligt känsliga attribut samt känsloigenkänning utanför arbetsplats och skola. Kritisk infrastruktur avser säkerhetskomponenter i hantering och drift av digital infrastruktur, vägtrafik samt leverans av vatten, gas, värme och el. Utbildning och yrkesutbildning täcker antagningsbeslut, bedömning av läranderesultat, utvärdering av lämplig utbildningsnivå samt övervakning och fuskdetektion under prov.
Nästa block rör arbetslivet och tillgången till samhällets tjänster. Arbete och hantering av arbetstagare omfattar rekrytering inklusive CV-screening, befordrings- och uppsägningsbeslut, arbetsfördelning baserad på beteendeprofil samt prestationsövervakning. Tillgång till väsentliga privata och offentliga tjänster inkluderar beslut om förmånsberättigande för välfärd, kreditvärdighetsbedömning utöver standardiserade system för bedrägeriupptäckt, riskbedömning och prissättning för liv- och sjukförsäkring samt utlarmning och triage från larmcentraler.
Slutligen tre områden där myndighetsutövning står i centrum. Brottsbekämpning omfattar riskbedömning av enskilda, lögndetektorer, deepfake-detektering för bevisanalys och profilering. Migration, asyl och gränskontroll avser lögndetektorer, riskbedömning av migranter, behandling av visumansökningar och identifiering av personer. Rättsväsende och demokratiska processer omfattar AI som assisterar rättsliga myndigheter i att tolka och tillämpa lag samt AI som påverkar valresultat eller röstningsbeteende.
Två filter modulerar trafiken in i hög risk-nivån. Det första är att ett system kan slippa hög-risk-stämpeln även om det faller under Bilaga III, om det utför "snäva procedurmässiga uppgifter", förbättrar resultatet av en tidigare avslutad mänsklig aktivitet, upptäcker beslutsmönster utan att ersätta mänskliga bedömningar, eller utför rent förberedande uppgifter — undantaget i Artikel 6.3. Det är ett verkligt undantag men ett snävt sådant: dokumentera bedömningen skriftligt, och var beredd att försvara den. Det andra filtret är att även om systemet utnyttjar Artikel 6.3-undantaget måste det fortfarande registreras i EU-databasen och, om det utför profilering av fysiska personer, behåller hög-risk-statusen oavsett undantaget.
Merparten av hög-risk-skyldigheterna gäller från 2 augusti 2026 (för Bilaga III-system) och 2 augusti 2027 för system som faller under Bilaga II. Skyldigheter som att fånga upp partiskhet i datastyrning, mänsklig tillsyn, noggrannhet och cybersäkerhet, kvalitetsledningssystem, bedömning av överensstämmelse, CE-märkning, registrering i EU-databasen och övervakning efter introduktion gäller leverantörer; tillhandahållare (driftsättare) har en mindre men fortfarande betydande lista enligt Artikel 26 som inkluderar mänsklig tillsyn, kontroll av indata, övervakning av drift och samarbete med leverantörens incidentprocesser.
Begränsad risk (Artikel 50) — transparenskrav
Begränsad risk-nivån introducerar specifika transparensskyldigheter — den inför ingen produktcertifiering, inget kvalitetsledningssystem, ingen riskbedömningsbörda, men kräver att slutanvändare informeras om vissa AI-interaktioner. Tre kategorier är de viktigaste för SMF:
För det första, AI-system som direkt interagerar med fysiska personer — kund-chattbottar, röstassistenter, automatiserade samtalsagenter — måste informera personerna om att de interagerar med AI, om det inte är uppenbart från sammanhanget för en rimligt informerad person. "Hej, jag är Adam och jag är en AI-assistent" räcker; gömma den under tre klick gör det inte.
För det andra, syntetiskt eller manipulerat innehåll (deepfakes och generativ AI-utdata i bild, ljud, video och text) måste märkas på maskinläsbart sätt och tydligt avslöjas för slutanvändaren. Det är ett krav som träffar varje SaaS-tjänst som genererar marknadsföringsbilder via DALL-E eller skapar avatarer för utbildningsvideor.
För det tredje, AI-genererad text som publiceras för att informera allmänheten om frågor av allmänt intresse (nyheter, politik, hälsa, miljö) måste avslöjas såvida inte innehållet har genomgått mänsklig redaktionell granskning där en fysisk eller juridisk person bär redaktionellt ansvar. Bloggar, sociala medier-poster och pressmeddelanden ligger i centrum av detta.
Begränsad risk-skyldigheterna gäller från 2 augusti 2026. De är inte tunga att uppfylla — en sidfot på webbplatsen, en uppmaning i chattboten, en metadatamärkning — men de glöms lätt bort, och tillsynsmyndigheter kan upptäcka brister med stickprov. Bygg in transparensavslöjandena i designfasen, inte som efterhandstillägg.
Minimal risk — allt övrigt
Allt som inte fångas av de tre högre nivåerna är minimal risk. Skräppostfilter, AI-driven inventeringsoptimering, rekommendationsmotorer för icke-väsentliga köp, AI i datorspel, översättningsverktyg utan beslutsmässig påverkan, prediktivt underhåll av maskiner. Inga obligatoriska skyldigheter, ingen registrering, ingen extra dokumentation utöver vad GDPR och annan branschlagstiftning kräver.
Den enda valbara åtgärden är frivillig anslutning till uppförandekoder enligt Artikel 95. Det är en utvecklande mekanism som EU-kommissionen och AI Office uppmuntrar för att låta minimal risk-leverantörer ändå demonstrera ansvarsfull design — relevant för organisationer som vill signalera mognad till företagskunder eller offentliga upphandlare. För de flesta SMF är det inte värt arbetet under 2026, men håll det i bakhuvudet om er målmarknad börjar efterfråga det i RFP:er under 2027.
Den femte pelaren: AI-modeller för allmänna ändamål (GPAI)
Parallellt med de fyra användningsfallsnivåerna driver AI-förordningen en separat regim för grundmodeller och GPAI-modeller (Artikel 51 till 55). Detta är ett vertikalt skikt — det reglerar inte vad modellen används till utan modellen som teknisk artefakt. För svenska SMF är distinktionen avgörande: de allra flesta är tillhandahållare av tjänsten / deployer (driftsättare) av GPAI, inte leverantörer. När ert företag använder OpenAI, Anthropic, Mistral eller Google Gemini via API är ni en kund — en driftsättare — och leverantörsskyldigheterna ligger på OpenAI/Anthropic/Mistral/Google. Era egna skyldigheter handlar om hur ni använder modellen nedströms, vilket återför oss till användningsfallsklassificeringen ovan.
Regimen har två nivåer. Standard-GPAI-leverantörer har skyldigheter att (a) sammanställa och underhålla teknisk dokumentation av modellen, (b) tillhandahålla information och dokumentation till nedströmsleverantörer som integrerar modellen i sina egna AI-system, (c) införa en EU-upphovsrättspolicy som respekterar text- och datautvinningsundantag enligt Direktivet om upphovsrätt på den digitala inre marknaden och, kritiskt, (d) publicera en offentlig sammanfattning av träningsdata enligt en mall som AI Office tillhandahåller. Skyldigheterna gäller från 2 augusti 2025, med en formell övergångsperiod till 2 augusti 2027 för befintliga modeller på marknaden.
Den andra nivån är GPAI med systemrisk — modeller som överstiger tröskeln på 10^25 FLOPs total träningsberäkning eller som AI Office utsett som systemriskmodeller baserat på kapacitet, marknadspenetration eller potentiell påverkan. Dessa leverantörer har de fyra standardskyldigheterna plus modellutvärdering inklusive adversariell testning, riskreducering på systemnivå, rapportering av allvarliga incidenter och cybersäkerhet för modellvikter och träningsinfrastruktur. För närvarande träffar denna nivå huvudsakligen frontier labs (OpenAI:s GPT-4-klass och uppåt, Anthropic:s Claude Opus, Google:s Gemini Ultra-class), inte SMF.
Den praktiska konsekvensen för en svensk SMF: skapa en kort AI-leverantörspolicy som dokumenterar vilka GPAI-modeller ni använder, vilken leverantör som tillhandahåller dem, vilken klassificering ni har gett era användningsfall utöver dem, och vilka kontraktsklausuler från leverantören som täcker er nedströmsanvändning. Det är en sida text som löser 90 procent av GPAI-frågan för en typisk SMF. De återstående 10 procenten — kantfall där ni väsentligt modifierar en GPAI på sätt som kan kasta över er i leverantörsstatus enligt Artikel 25 — behandlas i misstagssektionen nedan.
Beslutsträd: klassificera ditt användningsfall i 8 frågor
Använd dessa frågor i ordning för varje AI-användningsfall i organisationen. Det första "ja"-svaret klassificerar fallet — fortsätt inte nedåt i trädet. Dokumentera resonemanget skriftligt; den dokumentationen är er försvarsposition vid en tillsynsförfrågan.
Fråga 1 — Förbud: Faller användningen under någon av de åtta kategorierna i Artikel 5 (social rankning, realtidsbiometrisk identifiering på allmän plats utan undantag, känsloigenkänning i arbete eller skola utan medicinskt/säkerhetsundantag, icke-riktad insamling till ansiktsdatabaser, manipulation/utnyttjande av sårbarheter, prediktiv polisiär profilering, biometrisk kategorisering av känsliga attribut, subliminala tekniker som orsakar skada)? Om ja → Oacceptabel. Stoppa.
Fråga 2 — Bilaga II: Är AI-systemet en säkerhetskomponent i, eller utgör det självt, en produkt under EU:s harmoniseringslagstiftning i Bilaga II (medicintekniska produkter, maskiner, leksaker, hissar, fordon, marina produkter, etc.)? Om ja → Hög risk under tredjepartsbedömningsregimen. Engagera anmält organ.
Fråga 3 — Bilaga III: Faller användningen under någon av de åtta Bilaga III-kategorierna (biometri ej i förbudslistan, kritisk infrastruktur, utbildning, anställning, väsentliga tjänster, brottsbekämpning, migration, rättsväsende/demokrati)? Om ja → fortsätt till fråga 4.
Fråga 4 — Artikel 6.3-undantag: Utför systemet endast en snäv procedurmässig uppgift, förbättrar resultatet av en tidigare slutförd mänsklig aktivitet, upptäcker beslutsmönster utan att ersätta mänskliga bedömningar, eller utför rent förberedande uppgifter — utan att utföra profilering av fysiska personer? Om ja → kvalificerad för undantag, men kräver fortfarande registrering i EU-databasen och dokumenterad bedömning. Klassificera som "Bilaga III med 6.3-undantag" och spara underlaget skriftligt. Om nej → Hög risk i full utsträckning.
Fråga 5 — Direkt interaktion: Interagerar systemet direkt med fysiska personer (chattbot, röstassistent, e-postsvarsbot)? Om ja → Begränsad risk. Implementera transparensavslöjande enligt Artikel 50.
Fråga 6 — Syntetiskt innehåll: Genererar systemet syntetiskt eller manipulerat bild-, ljud-, video- eller textinnehåll som kan misstas för äkta? Om ja → Begränsad risk. Implementera maskinläsbar märkning och tydligt avslöjande.
Fråga 7 — Allmän text: Producerar systemet text för publicering om frågor av allmänt intresse utan mänsklig redaktionell ansvarskedja? Om ja → Begränsad risk. Avslöja AI-genereringen.
Fråga 8 — GPAI-överlägg: Använder eller integrerar systemet en GPAI-modell? Om ja → lägg GPAI-tillhandahållarens skyldigheter i tillägg till er användningsfallsklassificering (oavsett vilken nivå den hamnade på). Sammanfatta i AI-leverantörspolicyn.
Om alla åtta frågor är "nej" → Minimal risk. Inga obligatoriska skyldigheter. Överväg frivillig uppförandekod om kunder eller upphandlare efterfrågar det.
Två konkreta exempel från svensk affärsverklighet illustrerar trädet i drift.
Fall A: Ett 50-personers HR-tech-SaaS i Stockholm integrerar GPT-4o via API för CV-förgranskning åt sina rekryteringsbolag-kunder. Fråga 1: nej, inget Artikel 5-förbud. Fråga 2: nej, ingen Bilaga II-produkt. Fråga 3: ja — Bilaga III, kategori "anställning, hantering av arbetstagare", undertypen rekrytering inklusive CV-screening. Fråga 4: 6.3-undantag? Systemet utför profilering av fysiska personer (kandidater) — undantaget är inte tillgängligt. → Hög risk i full utsträckning. Fråga 8: ja, GPAI används — lägg på OpenAI:s leverantörsskyldigheter (för OpenAI att hantera) och dokumentera er användning som driftsättare. Slutresultat: hög risk + GPAI-driftsättare. SaaS:en behöver kvalitetsledningssystem, riskhanteringssystem, mänsklig tillsyn under hela rekryteringsflödet, datastyrning för träningsdata om de finjusterar, transparensinformation till kandidater och rekryteringsbolagen som tillhandahållare, registrering i EU-databasen, övervakning efter introduktion. Tidsfrist: 2 augusti 2026.
Fall B: Ett 12-personers e-handelsbolag i Göteborg driftsätter en Claude-driven kundservice-chattbot på sin webbplats. Fråga 1-4: nej. Fråga 5: ja — direkt interaktion med fysiska personer (kunder). → Begränsad risk. Fråga 8: ja, GPAI används — dokumentera Anthropic-användning i AI-leverantörspolicyn. Slutresultat: begränsad risk + GPAI-driftsättare. Behöver: synlig "Du chattar med en AI-assistent"-uppmaning vid interaktionsstart, en sida i AI-leverantörspolicyn, ingen produktcertifiering, ingen EU-databasregistrering. Tidsfrist: 2 augusti 2026.
Vanliga klassificeringsmisstag
Fem fallgropar dyker upp gång på gång i klassificeringsarbete vi granskar. Var och en är den typ av misstag som ser harmlöst ut tills en tillsynsmyndighet tittar på det.
Misstag 1: "Vi använder ju bara ChatGPT"
Det vanligaste misstaget är att tro att GPAI-deployment och användningsfallsklassificering är samma fråga. De är inte det. När er HR-avdelning klistrar in CV:n i ChatGPT för förgranskning träffar ni både GPAI-driftsättarens skyldigheter (sammanfattade i en kort policy) och Bilaga III hög-risk-klassificeringen för rekrytering ovanpå. Att stanna vid "vi använder bara ChatGPT, det är väl OpenAI:s ansvar" missar 80 procent av era egna skyldigheter. Klassificera användningsfallet separat från modellen — alltid.
Misstag 2: "Det är bara internt bruk"
Internt bruk sänker inte nivån. AI-förordningen reglerar systemets funktion, inte dess publik. CV-granskning av era egna anställdas befordringsärenden är fortfarande Bilaga III hög risk även om "kunderna" är interna. Prestationsövervakning av kundtjänstpersonal genom samtalsanalys är hög risk även om det bara används internt. Internt eller externt påverkar GDPR-grundvalsanalysen och vissa produktansvarsfrågor, men det förändrar inte AI-förordningens nivåer alls.
Misstag 3: "Vi har inte tränat modellen, alltså är vi inte leverantör"
I 95 procent av fallen är detta resonemang korrekt — om ni använder OpenAI:s eller Anthropics modell via API utan att finjustera är ni en driftsättare, inte en leverantör. Men Artikel 25 definierar två situationer som kan föra över er i leverantörsstatus: (a) ni gör en väsentlig modifiering av en GPAI, inklusive finjustering på en signifikant ny dataset, eller (b) ni sätter ert eget varumärke på systemet och säljer det vidare som er produkt. Den första är vanligare än ni tror i mer mogna AI-stackar — finjustering av Llama eller Mistral på branschspecifik data övergår snabbt tröskeln. Om ni gör detta måste ni anta hela leverantörsregimens skyldigheter för det modifierade systemet, inklusive teknisk dokumentation, EU-databasregistrering och bedömning av överensstämmelse om det är hög risk.
Misstag 4: Att förväxla begränsad risk med minimal risk för kund-chattbottar
Två tredjedelar av SMF:erna vi granskar har klassat sin kundservice-chattbot som "minimal risk — inga skyldigheter". Det är fel. Varje chattbot som direkt interagerar med fysiska personer faller under Artikel 50 begränsad risk-transparenskravet, oavsett hur enkel den är. "Hej, jag är Lisa, din digitala assistent" där "Lisa" inte avslöjas som AI uppfyller inte kravet. Den uppmaningen behöver vara tydlig i den första interaktionen. Det är en snabb åtgärd att rätta till men ett som tillsynsmyndigheter kan upptäcka med en skärmdump.
Misstag 5: Att glömma att GDPR Artikel 22 läggs ovanpå
AI-förordningens nivåer existerar parallellt med — inte istället för — GDPR. Om ert AI-system fattar ett automatiserat beslut med rättslig eller motsvarande väsentlig effekt på en fysisk person (kreditavslag, försäkringsavslag, anställningsavslag, gränsbeslut) träffas ni av GDPR Artikel 22 utöver er AI-förordnings-klassificering. Artikel 22 kräver explicit rättslig grund (uttryckligt samtycke, avtalsnödvändighet eller medlemsstatslag), rätten att begära mänskligt ingripande och rätten att överklaga beslutet. CV-screening som leder till automatiserad förkastning utan mänsklig granskning är hög risk under AI-förordningen och Artikel 22-utlösande under GDPR. Klassificera båda dimensionerna parallellt; misslyckas med en av dem och tillsynsmyndigheter (IMY i Sverige) sanktionerar kumulativt.
Efterlevnadschecklista per nivå
Med klassificeringen färdig kommer skyldigheterna. Detta är checklistor i operativ form — inte en uttömmande artikelgenomgång utan det arbete ni faktiskt behöver leverera per nivå.
Oacceptabel risk
- Stoppa systemet omedelbart om det redan är i drift.
- Designa om användningsfallet bort från Artikel 5-territoriet, eller skrota det helt.
- Dokumentera beslutet och bedömningen — bevismöjlighet vid eventuell tillsynsförfrågan om varför systemet stoppades.
Hög risk — 13-punktslistan med artikelhänvisningar
- Riskhanteringssystem (Art. 9): kontinuerlig identifiering, analys, utvärdering och åtgärd av risker under hela systemets livscykel.
- Datastyrning (Art. 10): tränings-, validerings- och testdataset som är relevanta, representativa, så fria från fel som möjligt och fullständiga, med dokumenterad granskning av eventuella bias.
- Teknisk dokumentation (Art. 11 + Bilaga IV): en uppsättning dokument som demonstrerar överensstämmelse — beskrivning av systemet, designval, utvecklingsprocess, testresultat, risker.
- Loggning (Art. 12): automatisk loggning av händelser under systemets drift för spårbarhet, med specificerade retentionsperioder.
- Transparens och information till tillhandahållare (Art. 13): en bruksanvisning som möjliggör för driftsättare att förstå systemets kapacitet, begränsningar, lämpliga användningsfall och kända brister.
- Mänsklig tillsyn (Art. 14): designval och driftsåtgärder som möjliggör meningsfull mänsklig övervakning, inklusive förmågan att åsidosätta eller stänga av systemet.
- Noggrannhet, robusthet och cybersäkerhet (Art. 15): systemet ska uppnå deklarerade noggrannhetsnivåer, motstå fel och attacker.
- Kvalitetsledningssystem (Art. 17): dokumenterade policyer, procedurer och resurser som säkerställer löpande efterlevnad.
- Bedömning av överensstämmelse (Art. 43): intern kontroll eller — för biometriska system och vissa andra kategorier — bedömning av tredje parts anmält organ.
- CE-märkning (Art. 48): synlig märkning på systemet och dess dokumentation som visar överensstämmelse.
- Registrering i EU-databasen (Art. 49): obligatorisk registrering före marknadsföring för Bilaga III-system.
- Övervakning efter introduktion (Art. 72): systematisk insamling och analys av prestandadata efter att systemet har börjat användas.
- Anmälan av allvarliga incidenter (Art. 73): rapport till marknadsövervakningsmyndigheten utan onödigt dröjsmål, med specifika tidsramar i kommande genomförandeakter.
Begränsad risk
- Transparensavslöjande enligt Art. 50: synlig uppmaning vid första interaktion (chattbot/röstassistent), maskinläsbar märkning av syntetiskt innehåll, avslöjande av AI-genererad text om allmänna intressefrågor.
- Dokumentera implementeringen i en kort policy så att tillsynsmyndigheter kan verifiera vid förfrågan.
Minimal risk
- Inga obligatoriska skyldigheter under AI-förordningen.
- Frivillig anslutning till uppförandekoder enligt Art. 95 om strategiskt motiverat (RFP-krav, varumärkessignal).
- GDPR och annan branschlagstiftning gäller fortfarande — ta inte minimal risk-statusen som en överordnad efterlevnadsfrihet.
GPAI-leverantörer (om ni råkar vara en)
- Teknisk dokumentation av modellen enligt Bilaga XI.
- Information och dokumentation till nedströmsleverantörer som integrerar modellen.
- EU-upphovsrättspolicy som respekterar text- och datautvinningsundantag och relevanta opt-outs.
- Offentlig sammanfattning av träningsdata enligt AI Office-mall.
- Vid systemrisk dessutom: modellutvärdering inklusive adversariell testning, riskreducering, rapportering av allvarliga incidenter, cybersäkerhet för modellvikter.
Tidslinje för deadlines
AI-förordningen rullas ut i fem vågor mellan 2025 och 2027. Skriv in dem i kalendern; tillsynsmyndigheterna kommer att räkna från dessa datum.
- 2 februari 2025: Artikel 5-förbuden gäller. AI-kompetenskravet enligt Artikel 4 träder i kraft (säkerställ utbildningsnivå hos personal som hanterar AI-system).
- 2 augusti 2025: Skyldigheter för GPAI-leverantörer (standard och systemrisk) gäller. Sanktioner för förbjudna metoder börjar tillämpas.
- 2 februari 2026: Riktlinjer från kommissionen om hög-risk-klassificering förväntade publicerade. Praxis kring Artikel 6.3-undantaget börjar utkristalliseras.
- 2 augusti 2026: Skyldigheter för Bilaga III hög-risk-system gäller. Skyldigheter för begränsad risk (Art. 50 transparens) gäller. Anmälda organ aktiva. EU-databasen operationell.
- 2 augusti 2027: Skyldigheter för Bilaga II hög-risk-system (säkerhetskomponenter i reglerade produkter) gäller. Övergångsperiod för befintliga GPAI-modeller upphör.
Vad du gör detta kvartal
Med tidslinjen tydlig är frågan: vad gör ni de kommande 90 dagarna? En 30/60/90-plan håller arbetet inom räckhåll för en typisk SMF.
Dag 0 till 30 — inventera och förbjudet-kontroll. Lista varje AI-användningsfall i organisationen — produktion, intern drift, experiment, leverantörsintegrationer. För varje fall: kort beskrivning, ansvarig person, om systemet är leverantörbyggt eller egenutvecklat, vilken GPAI som ligger under (om någon). Kör Artikel 5-förbudskontrollen direkt — varje system som potentiellt träffar ett förbud stoppas eller designas om innan dag 30. Detta är den enda hårda deadlinen som redan har passerat (februari 2025).
Dag 31 till 60 — klassificera och prioritera. Gå igenom varje återstående system enligt åtta-frågor-trädet. Dokumentera klassificeringen, det stödjande resonemanget och vilken person som äger systemet. Sortera resultaten: hög risk till topplistan med 2 augusti 2026 som måldatum, begränsad risk till en transparens-arbetsström, minimal risk arkiveras med beslutsanteckning. Identifiera systemen där klassificeringen är osäker och eskalera dem till juridisk granskning eller en specialistkonsult — det är dyrare att gissa fel än att få ett externt utlåtande.
Dag 61 till 90 — starta hög-risk-arbetsströmmen. För varje hög-risk-system börjar ni bygga de tretton skyldigheterna. Realistiskt klarar ni inte alla på 30 dagar. Målet är att ha riskhanteringssystem, datastyrningsbedömning och en stomme för teknisk dokumentation på plats vid kvartalets slut. Då räcker de återstående tio månaderna fram till augusti 2026 för bedömning av överensstämmelse, registrering, övervakning efter introduktion och uppbyggnad av kvalitetsledningssystemet. Parallellt med detta sker tre snabba åtgärder: inför transparensavslöjandena för begränsad risk (en eftermiddag per chattbot), publicera er GPAI-leverantörspolicy på en sida och boka in en utbildning om AI-kompetens för berörd personal (Artikel 4-kravet, en till två timmars genomgång).
Detta arbete är hanterligt. Det som är ohanterligt är att skjuta upp det till våren 2026 och då upptäcka att man har sex hög-risk-system, inget kvalitetsledningssystem, ingen relation till anmält organ och en deadline som passerar fyra månader senare. Börja inventeringen den här veckan; allt annat följer.
Kontrollera din efterlevnadsberedskap
Kör vår kostnadsfria beredskapsbedömning för GDPR, NIS2 och AI-förordningen och få personliga rekommendationer på några minuter.
Starta kostnadsfri bedömningEU Compliance Weekly
Get the latest regulatory updates, compliance tips, and enforcement news delivered to your inbox every week.