Klasifikacija tveganj po Uredbi o umetni inteligenci 2026: kako MSP v EU pravilno razvrstijo svoje primere rabe UI
Na kratko
Uredba (EU) 2024/1689 o umetni inteligenci, v slovenski praksi pogosto okrajšana kot AI Act ali Uredba o UI, razvršča konkretne sisteme umetne inteligence v štiri ravni tveganja: nesprejemljivo, visoko, omejeno in minimalno. Vzporedno deluje samostojen režim za modele UI za splošne namene (GPAI). V katero raven sodi vaš primer rabe, neposredno določa, ali morate sistem izklopiti, izvesti polni postopek ugotavljanja skladnosti, dodati zgolj obvestilo o preglednosti ali pa nadaljevati brez konkretnih obveznosti. Napačna razvrstitev je dražja od pravilne skladnosti: do 35 milijonov EUR ali 7 % svetovnega letnega prometa za prepovedane prakse, do 15 milijonov EUR ali 3 % za kršitve v visokem tveganju in do 7,5 milijonov EUR ali 1,5 % za zavajajoče informacije pristojnim organom. Pri MSP odstotki v vsakem primeru ostanejo. Ta vodnik vas vodi skozi vse štiri ravni z natančnim sklicevanjem na člene, vzporedni režim GPAI iz členov 51–55, odločitveno drevo v osmih vprašanjih, pet tipičnih napak iz slovenske prakse, kontrolni seznam za vsako raven, časovnico rokov 2025–2027 in operativen načrt za prvih 30, 60 in 90 dni. Cilj je, da po branju veste, kako razvrstiti vsak konkreten primer rabe v svojem podjetju in kaj morate storiti, da postanete skladni, preden se naslednji rok izteče.
Zakaj napačna klasifikacija stane več od pravilne skladnosti
Sankcijska arhitektura Uredbe o UI je stopničasta po teži kršitve in postavljena bistveno višje od splošne uredbe o varstvu podatkov. Kršitve prepovedi nesprejemljivih praks iz 5. člena se kaznujejo z globo do 35 milijonov EUR ali 7 % svetovnega letnega prometa, kar je višje. Kršitve obveznosti za sisteme visokega tveganja — zahteve za sistem upravljanja tveganj, upravljanje podatkov, tehnično dokumentacijo, človeški nadzor, točnost in robustnost — se kaznujejo z do 15 milijonov EUR ali 3 % prometa. Posredovanje napačnih, nepopolnih ali zavajajočih informacij pristojnim organom in priglašenim organom velja do 7,5 milijonov EUR ali 1,5 %. Pri MSP velja nižji od obeh zneskov, kar absolutne številke zniža, sorazmerni delež pa ostane.
Konkretno preračunajmo. Slovenski MSP s 6 milijoni EUR letnega prometa, ki sistem za predhodni izbor kandidatov napačno razvrsti kot „omejeno tveganje", čeprav po Prilogi III, točka 4 spada v visoko tveganje, ob ugotovljeni kršitvi obveznosti tvega do 180.000 EUR globe. To je nekajkrat več, kot bi stala pravilna izvedba ocene skladnosti, dokumentacije in ureditve človeškega nadzora. Pri sumu nesprejemljive prakse — denimo nepremišljena uporaba prepoznavanja čustev pri zaposlovanju ali ocenjevanju zaposlenih — sankcije skočijo na 7 % prometa, kar znaša do 420.000 EUR. Pri tem govorimo le o neposrednih globah. Dodajte še stroške umika produkta s trga, pogodbene kazni iz B2B-pogodb, ki jih sklepate z naročniki in ki vsebujejo zagotovila o skladnosti UI, izgubo posla pri javnih naročilih, kjer se skladnost zahteva kot pogoj za sodelovanje, ugled in odgovornost poslovodstva po Zakonu o gospodarskih družbah. Pravilna razvrstitev je najcenejše zavarovanje na trgu — in edino, ki vam daje pravno varnost.
Štiri uradne ravni tveganja
Uredba o UI sledi pristopu, ki temelji na tveganju: višje kot je tveganje za temeljne pravice, varnost in delovanje notranjega trga, strožje so obveznosti. Štiri ravni niso stvar izbire ponudnika — izhajajo iz namena, konteksta uporabe in učinka konkretnega sistema. Razvrstitev je izključujoča: posamezen primer rabe spada v točno eno raven, ne v več hkrati. Isti model pa se lahko v različnih kontekstih uporabe razvrsti različno — nevronska mreža, ki napoveduje napake na strojih, je nekaj drugega kot ista nevronska mreža, ki ocenjuje vlagatelje za kredit.
Nesprejemljivo tveganje (5. člen) — prepovedano od 2. februarja 2025
Nekatere prakse umetne inteligence v EU enostavno niso dovoljene, ker veljajo za nezdružljive s temeljnimi pravicami iz Listine EU. Te prepovedi so v veljavi od 2. februarja 2025 — prehodna doba se je iztekla. Konkretno so prepovedane:
- Socialno točkovanje s strani javnih organov ali v njihovem imenu — sistemi UI, ki ocenjujejo fizične osebe glede na njihovo družbeno vedenje ali domnevne osebnostne značilnosti in vodijo do škodljive ali neutemeljene obravnave v kontekstih, nepovezanih z izvirnim namenom zbiranja podatkov.
- Biometrična identifikacija v realnem času v javno dostopnih prostorih za namene kazenskega pregona — z ozkimi izjemami za ciljano iskanje žrtev kaznivih dejanj, preprečitev konkretne in resne grožnje napada ter pregon storilcev hudih kaznivih dejanj iz zaprtega seznama. Izven teh izjem popolna prepoved.
- Prepoznavanje čustev na delovnem mestu in v izobraževalnih ustanovah — z izjemama za varnostne in medicinske namene. Orodje za filtriranje vlog kandidatov, ki iz mimike ali glasu izlušči „navdušenje" ali „raven stresa", je prepovedano. Brez izjem.
- Neusmerjeno zbiranje slik obrazov z interneta ali iz posnetkov videonadzora za vzpostavitev ali širitev baz prepoznavanja obrazov — v praksi prepoved tako imenovanega Clearview-modela.
- Manipulativne ali subliminalne tehnike, ki bistveno izkrivijo vedenje osebe na način, ki ji povzroči ali bi ji verjetno povzročil pomembno škodo.
- Izkoriščanje ranljivosti zaradi starosti, invalidnosti ali posebnega socialnega ali ekonomskega položaja, da se vpliva na vedenje s povzročitvijo škode.
- Napovedovalna policijska dejavnost izključno na podlagi profiliranja osebe ali ocenjevanja osebnostnih lastnosti, brez objektivnih, preverljivih dejstev, ki jo neposredno povezujejo s kaznivim dejanjem.
- Biometrična kategorizacija fizičnih oseb z namenom razbiranja občutljivih atributov, kot so rasa, politično prepričanje, sindikalna pripadnost, verska prepričanja, spolno življenje ali spolna usmerjenost.
Če uvedba spada v eno od teh kategorij, je edini dovoljeni odziv ustavitev sistema. Dodatna konfiguracija prepovedi ne odpravi. Niti dodaten človeški nadzor niti privolitev posameznikov je ne moreta zakonito utemeljiti. Obstoječe sisteme je treba umakniti s trga ali izključiti sporno funkcijo. Vsako pogodbeno tveganje s podizvajalci ali strankami, ki ste jim zagotovili to funkcionalnost, takoj naslovite z aneksi — globe bodo prizadele vas, ne pogodbenega partnerja.
Visoko tveganje (6. člen v zvezi s Prilogo III) — največja obremenitev s skladnostjo
Sistemi UI z visokim tveganjem so dovoljeni, vendar zanje velja najstrožji nabor obveznosti. Dva pravna kanala vodita v to raven: prvič, sistemi UI, ki spadajo v enega od osmih področij iz Priloge III; drugič, sistemi UI, ki so varnostna komponenta proizvoda, urejenega s harmonizacijsko zakonodajo Unije iz Priloge II — medicinski pripomočki, stroji, igrače, dvigala, tlačna oprema, radijska oprema, oprema na plovilih, civilno letalstvo. Večina obveznosti velja od 2. avgusta 2026. Osem področij iz Priloge III:
- Biometrika: sistemi za biometrično identifikacijo na daljavo, kategorizacijska orodja in prepoznavanje čustev zunaj prepovedanih kontekstov.
- Kritična infrastruktura: varnostne komponente v cestnem, železniškem in zračnem prometu, oskrbi z vodo, plinom, ogrevanjem in elektriko ter v kritični digitalni infrastrukturi. Sistem UI, ki krmili pretoke v elektroenergetskem omrežju, sodi sem.
- Izobraževanje in poklicno usposabljanje: dostop in sprejem v izobraževalne ustanove, ocenjevanje učnih izidov, ocenjevanje ustreznosti ravni izobrazbe ter odkrivanje prepovedanih ravnanj med preverjanji znanja (plagiati, goljufije).
- Zaposlovanje, upravljanje delavcev in dostop do samozaposlitve: UI za predizbor in filtriranje vlog, ocenjevanje kandidatov, dodeljevanje nalog ali izmen, odločitve o napredovanju ali odpovedi, spremljanje uspešnosti ali vedenja. Praktično vsako orodje za UI-podprto zaposlovanje in kadrovsko upravljanje sodi sem.
- Dostop do bistvenih zasebnih in javnih storitev: ocenjevanje upravičenosti do javnih prejemkov, ocenjevanje kreditne sposobnosti (razen odkrivanja finančnih goljufij), ocenjevanje tveganj in določanje cen pri življenjskem in zdravstvenem zavarovanju, dispečerstvo nujnih klicev in nujne medicinske pomoči.
- Kazenski pregon: ocenjevanje tveganj pri fizičnih osebah, poligrafom podobna orodja, ocenjevanje zanesljivosti dokazov, profiliranje v sklopu kazenskih preiskav.
- Migracije, azil in mejna kontrola: ocenjevanje tveganj pri vstopajočih, poligrafom podobna orodja, obravnava prošenj za azil, vizume in dovoljenja za prebivanje, biometrična identifikacija na mejah.
- Pravosodje in demokratični procesi: UI za pomoč pri tolmačenju dejanskega stanja in prava ter UI, ki vpliva na izide volitev ali volilno vedenje (z izjemo notranje upravne organizacije).
Olajšanje ponuja 6. člen, tretji odstavek: tudi če uvedba sodi v eno od področij Priloge III, se ne šteje za visoko tveganje, kadar „ne predstavlja znatnega tveganja škode za zdravje, varnost ali temeljne pravice fizičnih oseb", ker na primer izvaja le ozko proceduralno nalogo, izboljšuje rezultat predhodne človeške dejavnosti, ne da bi nadomeščal končno odločitev, ali izvaja zgolj pripravljalna opravila. Ta ocena mora biti pisno dokumentirana in na zahtevo predložena pristojnemu organu. Ne gre za zadnja vrata — gre za utemeljeno izjemo. Kdor se nanjo sklicuje in se zmoti, odgovarja kot za kršitev v visokem tveganju.
Omejeno tveganje (50. člen) — obveznosti preglednosti
Ta raven zajema sisteme UI, ki neposredno komunicirajo s fizičnimi osebami ali ustvarjajo vsebine, a niso v visokem tveganju. Obveznost se zoži na preglednost — uporabnik mora vedeti, da ima opravka z UI. Konkretno po 50. členu (uporaba od 2. avgusta 2026):
- Sistemi UI, namenjeni neposredni interakciji s fizičnimi osebami (klepetalni roboti, glasovni asistenti), morajo prizadete osebe obvestiti, da komunicirajo s sistemom UI — razen če je to očitno iz okoliščin in konteksta.
- Ponudniki sistemov UI, ki ustvarjajo ali manipulirajo s sintetičnimi avdio, slikovnimi, video ali besedilnimi vsebinami, morajo izhode označiti v strojno berljivi obliki kot umetno ustvarjene ali manipulirane.
- Uvajalci sistemov za prepoznavanje čustev ali biometrično kategorizacijo (zunaj prepovedanih primerov) morajo prizadete fizične osebe obvestiti o delovanju sistema.
- Uvajalci, ki ustvarjajo „deepfake" vsebine — slike, zvoke ali videoposnetke, ki posnemajo resnične osebe, predmete, kraje ali dogodke in se zdijo pristni — morajo razkriti, da je vsebina umetno ustvarjena ali manipulirana.
- Uvajalci, ki objavljajo z UI ustvarjena besedila o zadevah javnega interesa, morajo razkriti, da je besedilo umetno ustvarjeno ali manipulirano — razen če človek nosi uredniško odgovornost in je bilo besedilo predmet uredniške kontrole.
Obveznost preglednosti je organizacijsko enostavna — običajno zadošča obvestilo v vmesniku („Ta klepet vodi sistem UI"), oznaka v metapodatkih ustvarjenih slik ali jasno viden opozorilni napis. A se kljub temu redno spregleda, zlasti pri storitvenih klepetalnih robotih na spletnih straneh slovenskih MSP in pri UI-ustvarjenih marketinških vizualih.
Minimalno tveganje — brez obveznosti, prostovoljni kodeks ravnanja
Vse, kar ne sodi v eno od treh višjih ravni, je minimalno tveganje. Sem spadajo filtri za neželeno pošto, UI v videoigrah, preprosta priporočila brez občutljivih kategorij podatkov, napovedi zalog, vremenske napovedi, optimizacija slik, UI za prepoznavanje rastlin in podobno. Specifičnih obveznosti iz Uredbe o UI ni. Ponudniki in uvajalci se lahko prostovoljno pridružijo kodeksu ravnanja po 95. členu — uporabno kot signal skladnosti za stranke in vlagatelje, vendar ni obvezno. Pri javnih naročilih in B2B-poslih z resnimi naročniki postaja prostovoljen kodeks vse pogosteje pričakovan dokaz skrbnosti.
Peti steber: modeli UI za splošne namene (GPAI)
Vzporedno s štirimi razredi uporabe Uredba o UI pozna ločen režim za modele UI za splošne namene, urejen v členih 51 do 55. Uporaba od 2. avgusta 2025. Razlog: modeli, kot so GPT-4o, Claude, Llama ali Mistral, so zasnovani za zelo različna opravila, zato tveganje izhaja delno iz aplikacije in delno iz samega modela.
Režim GPAI ima dve ravni. Prva raven: standardni modeli GPAI. Ponudniki morajo izdelati tehnično dokumentacijo modela in jo na zahtevo predložiti Uradu EU za UI ter pristojnim nacionalnim organom; pripraviti informacije in dokumentacijo za ponudnike navzdol, ki bodo model integrirali v svoje sisteme; uvesti politiko za skladnost z avtorsko pravico Unije, zlasti za spoštovanje opt-outa po direktivi o avtorski pravici na enotnem digitalnem trgu (DSM); ter objaviti dovolj podroben javen povzetek o vsebini, uporabljeni za usposabljanje.
Druga raven: modeli GPAI s sistemskim tveganjem. Domneva za sistemsko tveganje velja, kadar treniranje modela presega 10^25 FLOP (operacij s plavajočo vejico) — prag, ki ga danes presega le peščica vrhunskih modelov — ali kadar Komisija model poimensko označi. Dodatne obveznosti: ocenjevanje modela po standardiziranih protokolih z nasprotniškim testiranjem, ocena in zmanjševanje sistemskih tveganj na ravni Unije, prijava resnih incidentov in možnih popravnih ukrepov Uradu EU za UI, ustrezna raven kibernetske varnosti za model in fizično infrastrukturo.
Za razvrstitev MSP je odločilno tole: večina slovenskih MSP ni ponudnik modela GPAI, temveč uvajalec (deployer). GPT, Claude ali Mistral integrirate prek API v lasten produkt ali poslovne procese. Vaše obveznosti so torej (a) pravilna razvrstitev konkretnega primera rabe v eno od štirih ravni in (b) specifične obveznosti uvajalca po 26. členu, kadar uporabljate sistem visokega tveganja: zagotovite človeški nadzor, nadzirajte vhodne podatke, kjer imate kontrolo, spremljajte delovanje sistema na podlagi navodil ponudnika, hranite samodejno ustvarjene dnevnike, obveščajte prizadete osebe in upoštevajte navodila ponudnika. Če pa model bistveno spremenite — denimo s fino nastavitvijo (fine-tuning) za nov namen, ki odstopa od izvirnega — se vaš status po 25. členu lahko prelevi v ponudnika, in obveznosti ponudnika veljajo v polni meri.
Odločitveno drevo: razvrstite svoj primer rabe v 8 vprašanjih
To odločitveno drevo uporabljamo v uvodnih razgovorih, da konkreten primer rabe v manj kot desetih minutah okvirno razvrstimo. Ne nadomesti polne ocene skladnosti — daje pa okvirno usmeritev, koliko truda in časa morate vložiti v skladnost.
Vprašanje 1: Ali primer rabe sodi v katero od prepovedanih praks po 5. členu?
Konkretno preverite: socialno točkovanje s strani javnih organov, biometrična identifikacija v realnem času v javnih prostorih, prepoznavanje čustev na delovnem mestu ali v izobraževalnih ustanovah, neusmerjeno zbiranje za baze prepoznavanja obrazov, manipulativne tehnike ali izkoriščanje ranljivosti, napovedovalna policijska dejavnost zgolj na podlagi profiliranja, biometrična kategorizacija občutljivih atributov. Če da: nesprejemljivo — sistem ustaviti, primer rabe spremeniti. Drevo se tu konča.
Vprašanje 2: Je sistem UI varnostna komponenta proizvoda iz Priloge II?
Priloga II navaja harmonizacijsko zakonodajo Unije (medicinski pripomočki, stroji, igrače, dvigala, tlačna oprema, radijska oprema, oprema na plovilih, civilno letalstvo in podobno). Če je sistem UI sestavni del takega proizvoda in zahteva oceno skladnosti tretje osebe, gre za visoko tveganje po 6. členu, prvi odstavek. Primer: UI-podprta diagnostika v certificiranem medicinskem pripomočku razreda IIa po Uredbi o medicinskih pripomočkih.
Vprašanje 3: Sodi področje uporabe v eno od osmih kategorij Priloge III?
Biometrika, kritična infrastruktura, izobraževanje, zaposlovanje in kadrovska služba, bistvene storitve (vključno s kreditno sposobnostjo in zavarovanji), kazenski pregon, migracije in mejna kontrola, pravosodje in demokratični procesi. Če ne: nadaljujte na 6. vprašanje. Če da: nadaljujte na 4. vprašanje.
Vprašanje 4: Velja izjema iz 6. člena, tretji odstavek?
Ali sistem izvaja le ozko proceduralno nalogo? Ali zgolj izboljšuje rezultat človeške dejavnosti, ne da bi jo nadomestil? Ali zaznava le vzorce odločanja iz preteklih človeških ocen, ne da bi jih nadomestil? Ali izvaja le pripravljalna opravila pred človeško oceno? Če je odgovor pritrdilen na vsaj enega in sistem ne izvaja profiliranja fizičnih oseb, lahko ponudnik utemelji, da ne gre za visoko tveganje — pisno in dokumentirano. Če ne ali ste v dvomih: nadaljujte na 5. vprašanje.
Vprašanje 5: Visoko tveganje potrjeno
Če sta 3. in 4. vprašanje vodili sem, ne pa do izjeme: visoko tveganje po 6. členu, drugi odstavek. Velja polni nabor obveznosti iz členov 8 do 17 (za ponudnike) oziroma iz 26. člena (za uvajalce). Glejte kontrolni seznam spodaj.
Vprašanje 6: Ali sistem neposredno komunicira s fizičnimi osebami?
Klepetalni roboti, glasovni asistenti, UI-podprte storitvene linije, UI-ustvarjena elektronska sporočila strankam, UI-ustvarjeni vizuali za marketing. Če da: nadaljujte na 7. vprašanje. Če ne: nadaljujte na 8. vprašanje.
Vprašanje 7: Omejeno tveganje — obveznost preglednosti
Če je 6. vprašanje pritrdilno: omejeno tveganje po 50. členu. Obveznost je razkritje narave UI-interakcije pred uporabnikom, oznaka sintetičnih vsebin, razkritje pri deepfake vsebinah in pri UI-ustvarjenih besedilih o vprašanjih javnega interesa. Implementacija je razmeroma poceni, ni pa zastonj.
Vprašanje 8: Minimalno tveganje
Če nobeno od prejšnjih vprašanj ni bilo pritrdilno: minimalno tveganje. Brez specifičnih obveznosti iz Uredbe o UI. Razmislite o prostovoljnem pristopu k kodeksu ravnanja po 95. členu, zlasti če imate B2B-naročnike z lastnimi zahtevami za skladnost dobaviteljev ali se na trgu pozicionirate kot odgovoren uporabnik UI.
Pomembno: teh osem vprašanj razčisti razvrstitev primera rabe. Vzporedno vedno postavite še vprašanje GPAI: ali uporabljate splošen model UI? Če da, obveznosti uvajalca iz režima GPAI veljajo dodatno, ne namesto razvrstitve primera rabe.
Konkreten primer iz prakse: HR-tech start-up iz Ljubljane
Vzemimo 50-članski HR-tech start-up iz Ljubljane, ki integrira GPT-4o prek API v storitev za predizbor kandidatov za svoje stranke. Skozi drevo: 1. vprašanje — ne, ne gre za prepovedano prakso. 2. vprašanje — ne, ni varnostna komponenta proizvoda iz Priloge II. 3. vprašanje — da, predizbor kandidatov sodi v Prilogo III, točko 4 (zaposlovanje). 4. vprašanje — izjema verjetno ne velja: predizbor je odločitev z bistvenimi posledicami za kandidata in vsebuje profiliranje. 5. vprašanje — visoko tveganje potrjeno. Ker start-up sistem trži strankam pod svojo blagovno znamko in spreminja namen modela GPT, se skoraj zagotovo šteje za ponudnika po 25. členu. To pomeni polni nabor obveznosti od člena 8 do 17, oceno skladnosti po 43. členu, oznako CE, registracijo v bazi EU in priglasitev resnih incidentov. Vzporedno veljajo obveznosti GPAI uvajalca (saj uporablja API ponudnika modela) ter obveznosti iz 22. člena Splošne uredbe o varstvu podatkov za avtomatizirano odločanje s pravnim učinkom. Časovnica: do 2. avgusta 2026 mora biti vse vzpostavljeno.
Drug primer: 30-člansko trgovsko podjetje iz Maribora
Trgovsko podjetje iz Maribora uvede storitveni klepetalni robot na spletni strani, ki kupcem pomaga pri vprašanjih o naročilih in dostavi. Skozi drevo: 1.–5. vprašanje — ne (ni v Prilogi III). 6. vprašanje — da, neposredna interakcija s fizičnimi osebami. 7. vprašanje — omejeno tveganje po 50. členu. Obveznost: pred prvim sporočilom mora robot uporabnika obvestiti, da gre za UI. Implementacija: ena vrstica v vmesniku in posodobitev politike zasebnosti. Časovnica: do 2. avgusta 2026. Pri tem ne pozabite, da se obdelujejo osebni podatki, zato veljajo še obveznosti iz Splošne uredbe o varstvu podatkov, in sicer pravna podlaga, informacije iz členov 13 in 14 ter pogodba z obdelovalcem (ponudnikom storitve klepetalnega robota) po 28. členu.
Pet pogostih napak pri razvrstitvi
Iz revizij, ki smo jih izvedli pri slovenskih MSP v letu 2025, se ponavlja pet napak. Če iz tega vodnika ne odnesete ničesar drugega, vsaj preverite, da niste v eni od teh pasti.
Napaka 1: „Saj samo uporabljamo ChatGPT"
To je najpogostejši stavek v uvodnih razgovorih in problem zgolj prelaga, namesto da bi ga reševal. Uporaba modela GPAI (GPT, Claude, Gemini, Mistral) sproži dva vzporedna sklopa obveznosti. Prvič: obveznosti uvajalca GPAI veljajo takoj — vedeti morate, kateri model uporabljate prek katerega API v kateri različici, upoštevati navodila ponudnika in dokumentirati tveganja iz uporabe. Drugič in pomembneje: razvrstitev primera rabe velja neodvisno od modela. Če ChatGPT uporabljate za pregled vlog kandidatov, ste v visokem tveganju po Prilogi III, ne glede na to, da je model OpenAI. „Samo uporabljamo ChatGPT" ni razvrstitev — je opis orodja, ne primera rabe.
Napaka 2: „Samo notranja raba" ne zniža ravni
Kadrovska služba 80-članskega slovenskega proizvodnega podjetja uvede UI-orodje za ocenjevanje kandidatov interno. Ne prodaja se zunaj, ne predaja se strankam, ne trži se kot produkt. Argument: „To je vendar samo interno, AI Act ne velja." Napačno. Uredba o UI ne pozna izjeme za notranjo uporabo — odločilna sta namen in tveganje, ne distribucijski kanal. Predhodni izbor kandidatov je Priloga III, točka 4, torej visoko tveganje, ne glede na to, ali ste sistem kupili, najeli, sami razvili ali integrirali prek API. Kot uvajalec nosite obveznosti iz 26. člena, vključno s človeškim nadzorom, hrambo dnevnikov in obveščanjem zaposlenih.
Napaka 3: „Modela nismo trenirali, torej nismo ponudnik"
Najpogosteje to drži — kdor model OpenAI uporablja prek API, je uvajalec, ne ponudnik. Pozor pa pri bistvenih spremembah. 25. člen tistega, ki sistem UI daje na trg pod svojim imenom ali blagovno znamko, ki sistem visokega tveganja, ki je že na trgu ali v uporabi, bistveno spremeni, ali ki spremeni namen sistema UI tako, da postane sistem visokega tveganja, opredeli kot ponudnika, z vsemi obveznostmi ponudnika. „Bistveno spremeni" ni ostro definirano, vendar bo Komisija in Urad EU za UI izdal smernice. Trenutni konsenz prakse: fina nastavitev temeljnega modela za nov, drugačen namen od izvirnega; dodajanje lastne blagovne znamke in trženje kot samostojen produkt; sestavljanje z lastnimi komponentami v sistem UI — vse so potencialni sprožilci statusa ponudnika.
Napaka 4: Zamenjava omejenega in minimalnega tveganja pri klepetalnih robotih za stranke
Storitveni UI-klepetalni robot na spletni strani slovenskega MSP se pogosto razvrsti kot „minimalno tveganje" — saj je vendar samo klepetalni robot, ne sistem visokega tveganja. To je napačen skok. Vsaka neposredna interakcija človek–stroj s sistemom UI je omejeno tveganje in sproži obveznost preglednosti iz 50. člena. Uporabnik mora vedeti, da se pogovarja z UI. Obvestilo mora biti jasno, vidno in podano pred začetkom interakcije — ne skrito v splošnih pogojih. Pri glasovnih asistentih mora biti obvestilo akustično. Kdor to spregleda, krši 50. člen in tvega globe do 7,5 milijonov EUR ali 1,5 % prometa.
Napaka 5: 22. člen Splošne uredbe o varstvu podatkov se pozabi ob AI Act
Uredba o UI ne nadomešča Splošne uredbe o varstvu podatkov, temveč jo dopolnjuje. Kjer se obdelujejo osebni podatki, 22. člen Splošne uredbe o varstvu podatkov velja še naprej: posameznik ima pravico, da zanj ne velja odločitev, ki temelji izključno na avtomatizirani obdelavi, vključno s profiliranjem, in ki ima zanj pravne učinke ali ga podobno znatno prizadene. To velja dodatno k razvrstitvi po AI Act. UI-ocena kreditne sposobnosti ni le visoko tveganje po Prilogi III, točki 5(b), je tudi avtomatizirana posamična odločitev po 22. členu Splošne uredbe o varstvu podatkov in zahteva pravno podlago, informiranje posameznika, možnost izjave in človeško preverbo. Kdor preveri samo AI Act, pozabi polovico svojih obveznosti — in obratno: ocena učinka v zvezi z varstvom podatkov po 35. členu Splošne uredbe o varstvu podatkov je za vsak sistem visokega tveganja v praksi obvezna.
Kontrolni seznam skladnosti po ravneh
Po razvrstitvi sledi operativni kontrolni seznam za vsako raven, s sklicevanjem na člene, da lahko greste neposredno k besedilu uredbe.
Nesprejemljivo tveganje
Ustaviti. Primer rabe spremeniti. Nobena rešitev skladnosti ne more upravičiti prepovedanega sistema. Obstoječe sisteme umakniti ali predelati. Če imate pogodbene obveznosti do tretjih oseb (stranke, ki so naročile prepovedano funkcionalnost), takoj uredite spremembo pogodbe — globe vas prizadenejo, ne pogodbenega partnerja. Vodstvu predložite pisno utemeljitev odločitve in jo arhivirajte za pet let.
Visoko tveganje — kontrolni seznam ponudnika (členi 8 do 17, 43, 47–49, 72, 73)
- Sistem upravljanja tveganj vzpostaviti in vzdrževati skozi celoten življenjski cikel (9. člen): identifikacija, analiza in ocenjevanje znanih in razumno predvidljivih tveganj; sprejem ustreznih ukrepov za obvladovanje tveganj.
- Upravljanje podatkov (10. člen): nabori za usposabljanje, validacijo in testiranje morajo izpolnjevati merila kakovosti — relevantni, reprezentativni, brez napak in popolni podatki. Pregled morebitnih pristranskosti.
- Tehnična dokumentacija po Prilogi IV (11. člen): pred dajanjem na trg pripraviti in vzdrževati. Vsebina: opis sistema, postopek razvoja, nabori podatkov, testni rezultati, točnost, robustnost, kibernetska varnost.
- Vodenje evidenc (12. člen): sistem mora samodejno beležiti dogodke (dnevnike), ki prispevajo k sledljivosti. Hramba najmanj šest mesecev, razen če sektorska zakonodaja določa drugače.
- Preglednost in informacije za uvajalce (13. člen): navodila za uporabo s podatki o namenu, točnosti, robustnosti, človeškem nadzoru.
- Človeški nadzor (14. člen): sistem mora biti zasnovan tako, da ga lahko fizične osebe učinkovito nadzirajo. Nadzorne osebe morajo razumeti zmožnosti in omejitve sistema, ga spremljati, se upreti pretirani odvisnosti od izhodov in po potrebi sistem ustaviti.
- Točnost, robustnost in kibernetska varnost (15. člen): ustrezna raven točnosti (dokumentirana v navodilih), robustnost glede na napake in nedoslednosti, kibernetska varnost po stanju tehnike.
- Sistem upravljanja kakovosti (17. člen): dokumentirani sistem kakovosti s strategijo skladnosti, postopki za zasnovo in razvoj, upravljanjem tveganj, upravljanjem podatkov, prijavo incidentov, vodenjem evidenc.
- Postopek ocenjevanja skladnosti (43. člen): notranja kontrola (Priloga VI) za večino sistemov iz Priloge III; ocenjevanje s priglašenim organom (Priloga VII) za biometrične sisteme visokega tveganja in za primere iz Priloge II po sektorski zakonodaji.
- Oznaka CE (48. člen) in EU izjava o skladnosti (47. člen) — izdelati in hraniti najmanj deset let.
- Registracija v bazi EU za sisteme visokega tveganja (49. člen) pred dajanjem na trg ali v uporabo.
- Spremljanje po dajanju na trg (72. člen): aktivno in sistematično zbiranje, dokumentiranje in analiza podatkov o učinkovitosti sistema skozi celoten življenjski cikel.
- Prijava resnih incidentov (73. člen): resne incidente in okvare nemudoma prijaviti organu za nadzor trga — natančni roki izhajajo iz izvedbenih aktov, načeloma do 15 dni.
Visoko tveganje — kontrolni seznam uvajalca (26. člen)
Če sistema visokega tveganja ne dajete na trg sami, temveč ga uporabljate (klasičen primer uvajalca): sprejmite ustrezne tehnične in organizacijske ukrepe za zagotovitev uporabe v skladu z navodili; zagotovite človeški nadzor s strani oseb z zahtevanim znanjem, usposobljenostjo in pooblastilom; nadzirajte vhodne podatke v okviru svoje kontrole; spremljajte delovanje sistema v skladu z navodili; ob sumu tveganja po 79. členu, prvi odstavek, ali ob resnem incidentu nemudoma obvestite ponudnika in organ za nadzor trga; hranite samodejno ustvarjene dnevnike v okviru svoje kontrole najmanj šest mesecev; pred uvedbo na delovnem mestu obvestite svet delavcev in prizadete delavce; izvedite oceno učinka v zvezi z varstvom podatkov po 35. členu Splošne uredbe o varstvu podatkov, kjer se obdelujejo osebni podatki.
Omejeno tveganje (50. člen)
Vključite obvestilo o preglednosti pri neposredni interakciji človek–stroj — jasno, vidno, pred začetkom. Sintetične vsebine (slike, zvok, video, besedila) označite v strojno berljivi obliki kot UI-ustvarjene. Pri deepfake vsebinah zagotovite razkritje. Pri UI-ustvarjenih besedilih o zadevah javnega interesa razkrijte naravo besedila, razen če ima človek uredniško odgovornost. Implementacijski napor: običajno sprememba vmesnika in enkratna posodobitev politike zasebnosti.
Minimalno tveganje (95. člen)
Brez obveznosti. Neobvezno: prostovoljen kodeks ravnanja. Priporočamo, kadar B2B-naročniki zahtevajo dokaze skladnosti ali se na trgu pozicionirate z odgovorno UI. Pri javnih naročilih je to vedno bolj uporaben razlikovalni dejavnik.
Ponudniki GPAI (členi 53 do 55)
Za MSP, ki nastopajo kot ponudniki splošnega modela UI (redko, a možno): tehnična dokumentacija modela, informacije za ponudnike navzdol, politika za skladnost z avtorsko pravico Unije (zlasti spoštovanje opt-outa po DSM-direktivi), javno objavljen povzetek vsebine za usposabljanje. Pri sistemskem tveganju dodatno: ocenjevanje modela z nasprotniškimi testi, analiza in zmanjševanje tveganj, prijava incidentov Uradu EU za UI, ustrezna kibernetska varnost. Za uvajalce GPAI velja odsev: razumeti navodila ponudnika in jih upoštevati v notranjih politikah uporabe.
Časovnica rokov
Uredba o UI je začela veljati 1. avgusta 2024. Posamezne določbe se uporabljajo postopoma. V celovitem koledarju skladnosti označite naslednje datume:
- 2. februar 2025 (v veljavi): prepovedi po 5. členu se uporabljajo v celoti. Obveznost UI-pismenosti po 4. členu za ponudnike in uvajalce.
- 2. avgust 2025: obveznosti za ponudnike modelov GPAI (členi 51 do 55). Sankcijski režim in določbe o nadzoru trga začnejo veljati. Države članice imenujejo svoje pristojne organe — v Sloveniji se trenutno usklajuje med Ministrstvom za digitalno preobrazbo in Informacijskim pooblaščencem.
- 2. februar 2026: Komisija objavi smernice za izvajanje (zlasti 6. člen, peti odstavek o razvrstitvi visokega tveganja) in izvedbene akte o prijavah resnih incidentov.
- 2. avgust 2026 (glavni mejnik): jedrne obveznosti uredbe začnejo veljati. Sistemi visokega tveganja po Prilogi III morajo biti skladni. Obveznosti preglednosti po 50. členu (omejeno tveganje) se uporabljajo. Baza EU za sisteme visokega tveganja je operativna.
- 2. avgust 2027: obveznosti visokega tveganja za sisteme UI kot varnostne komponente proizvodov iz Priloge II (medicinski pripomočki, stroji in podobno) se uporabljajo. Prehodni roki za obstoječe sisteme se iztekajo.
Praktična posledica: kdor deluje na področju visokega tveganja, ima dejansko čas do poletja 2026, da vzpostavi sistem upravljanja tveganj, ureditev upravljanja podatkov, izdela tehnično dokumentacijo in opravi postopek ocenjevanja skladnosti. To ni dolgo obdobje priprav — pri obsežnih sistemih visokega tveganja je 12 do 18 mesecev realen okvir, koledar 2026 pa se polni hitro.
Kaj storiti to četrtletje
Če začnete danes, je realističen načrt 30/60/90 dni naslednji.
Prvi mesec (30 dni): popis UI in triaža
Zberite vse uvedbe UI v podjetju — UI, integrirana v produkt, notranja orodja, integracije SaaS, sive IT-rešitve. Vsak oddelek vprašajte ciljano: kje se uporabljajo ChatGPT, Claude, Microsoft Copilot, GitHub Copilot, UI-orodje za zaposlovanje, UI-funkcija v sistemu CRM ali UI-podprta ocena kreditne sposobnosti? Za vsako uvedbo navedite: primer rabe, uporabljen model ali sistem, ponudnika, vrste podatkov, skupine uporabnikov. Na vsak vnos uporabite drevo z osmimi vprašanji. Rezultat: razvrščen seznam po ravneh tveganja. Takoj prepoznajte vsako morebitno prepovedano prakso (5. člen) in jo ustavite. Pri tem dokumentirajte odločitev in pisno obvestite vodstvo — gre za vprašanje korporativne odgovornosti, ne le tehnične izvedbe.
Drugi mesec (60 dni): poglobljena analiza visokega tveganja
Za vsako uvedbo, razvrščeno kot visoko tveganje: polna ocena skladnosti glede členov 8 do 17 (kot ponudnik) oziroma 26 (kot uvajalec). Vrzeli dokumentirajte, ukrepe določite z odgovornimi osebami in roki. Povežite z oceno učinka v zvezi z varstvom podatkov po 35. členu Splošne uredbe o varstvu podatkov. Za sisteme z omejenim tveganjem (klepetalni roboti, generativna orodja): uvedite obvestila o preglednosti v vmesniku, oznako sintetičnih vsebin. Za uporabo GPAI: pridobite navodila ponudnika in jih razdelite interno, začnite usposabljanje zaposlenih za UI-pismenost po 4. členu. V slovenski praksi se v tej fazi izkaže za koristno tudi vključitev pravne službe ali zunanjega svetovalca, saj ocena ponudnik–uvajalec po 25. členu pogosto zahteva interpretacijo.
Tretji mesec (90 dni): upravljanje in trajni način delovanja
Določite odgovornost: kdo v podjetju odgovarja za skladnost UI? V slovenskih MSP je to pogosto pooblaščena oseba za varstvo podatkov ali direktor informacijske varnosti, v večjih hišah samostojna funkcija. Vzpostavite četrtletni termin upravljanja UI na ravni poslovodstva. Kot osrednji artefakt vzpostavite register UI — analogno evidenci dejavnosti obdelave po 30. členu Splošne uredbe o varstvu podatkov. Uveljavite obveznost predhodne presoje: preden nova UI-funkcija pride v produkt ali poslovni proces, pretečemo skozi odločitveno drevo. Pripravite se na 2. avgust 2026 tako, da imate za vsak sistem visokega tveganja jasen načrt z mejniki — sistem upravljanja tveganj, upravljanje podatkov, tehnična dokumentacija, ocena skladnosti, registracija v bazi EU. Če aktivno ponujate sisteme visokega tveganja, vključite še zunanje ocenjevanje s priglašenim organom, kjer to zahteva Priloga VII.
Ocena Viktoria Compliance vas vodi strukturirano skozi natanko to razvrstitev. Naš modul popisa UI vpraša po vaših konkretnih uvedbah, samodejno razvrsti po štirih ravneh in režimu GPAI ter pripravi prioritiziran načrt z navedbami členov. Če sistematičnega popisa UI še nimate, je prav to prvi vzvod — in najlažji način, da brez panike dosežete roke 2025–2027.
Preverite svojo pripravljenost na skladnost
Opravite našo brezplačno oceno pripravljenosti na GDPR, NIS2 in Akt o UI ter v nekaj minutah pridobite osebna priporočila.
Začni brezplačno ocenoEU Compliance Weekly
Get the latest regulatory updates, compliance tips, and enforcement news delivered to your inbox every week.