Takaisin blogiin
Parhaat käytännöt17 min readMay 1, 2026

Tekoälyasetuksen riskiluokitus EU:n pk-yrityksille: käytännön opas vuodelle 2026

By Anna Bergström

Tiivistelmä

Tekoälyasetus jakaa jokaisen tekoälyjärjestelmän neljään riskiluokkaan — hyväksymätön, korkea, rajoitettu ja minimaalinen — ja lisää niiden rinnalle uuden sääntelykerroksen yleiskäyttöisille tekoälymalleille (GPAI). Suurin osa sääntelypainosta lepää korkean riskin luokassa, joka tuo karkeasti 13 olennaista velvoitetta 9–49 artiklan mukaisesti, mutta rajoitetun riskin avoimuusvelvoitteet (50 artikla) koskettavat käytännössä jokaista markkinoilla olevaa chatbottia ja syväväärennöstä, ja 5 artiklan kiellot ovat olleet täytäntöönpanokelpoisia 2. helmikuuta 2025 alkaen. Väärä luokittelu maksaa huomattavasti enemmän kuin oikea luokittelu: kielletyistä käytänteistä määrättävät sakot yltävät 35 miljoonaan euroon tai 7 prosenttiin maailmanlaajuisesta vuosiliikevaihdosta, korkean riskin laiminlyönnistä 15 miljoonaan tai 3 prosenttiin ja viranomaisille annetuista virheellisistä tiedoista 7,5 miljoonaan tai 1,5 prosenttiin. Pk-yrityksen käytännön tehtävä on inventoida jokainen tekoälykäyttötapaus, viedä jokainen niistä lyhyen päätöspuun läpi ja kohdistaa velvoitteet ennen kuin 2. elokuuta 2026 voimaan astuva vaatimustenmukaisuusaalto rantautuu. Tämä opas antaa puun, sudenkuopat sekä luokkakohtaisen tarkistuslistan, jolla työn voi suorittaa yhden vuosineljänneksen aikana.

Miksi väärä luokittelu maksaa enemmän kuin oikea vaatimustenmukaisuus

Tekoälyasetuksen 99 artikla asettaa sakkokatot, jotka ylittävät tarkoituksellisesti GDPR:n vastaavat. Kielletyn käytännön harjoittamisesta voidaan määrätä hallinnollinen sakko, joka on enintään 35 000 000 euroa tai 7 prosenttia maailmanlaajuisesta vuotuisesta liikevaihdosta — sen mukaan, kumpi on suurempi. Korkean riskin velvoitteiden tai 5 artiklan velvoitteiden noudattamatta jättäminen yltää 15 miljoonaan euroon tai 3 prosenttiin. Ilmoitetuille laitoksille ja toimivaltaisille viranomaisille toimitettujen virheellisten, puutteellisten tai harhaanjohtavien tietojen katto on 7,5 miljoonaa tai 1,5 prosenttia. Pk-yritykset ja kasvuyritykset saavat osittaista helpotusta 99 artiklan 6 kohdan mukaisesti — sakko voidaan asettaa kahdesta luvusta alempaan eikä korkeampaan — mutta tämä lieventää vain kattoa, ei poista sitä.

Numerot syrjään: suurempi kustannus on rakenteellinen. Väärin luokiteltu järjestelmä on tyypillisesti järjestelmä ilman riskienhallinta-asiakirjaa, ilman tiedon hallinnan kurinalaisuutta, ilman ihmisvalvonnan kontrolleja ja ilman markkinoille saattamisen jälkeistä seurantasuunnitelmaa. Kun toimivaltainen viranomainen pyytää jotakin näistä artefakteista, aukko ei ole paperityökysymys vaan kuukausien korjaustyötä, joka tehdään valvontapaineen alla. Korkean riskin valvontakehyksen rakentaminen jälkikäteen, kun järjestelmä on jo käytössä, kestää tyypillisesti 3–6 kuukautta. Se maksaa myös 2–4 kertaa enemmän kuin oikea-aikainen luokitus.

Lisäksi luokittelu määrittää, mitä tarjoaja saa myydä asiakkailleen. Korkean riskin tekoälyjärjestelmä, joka ei ole läpäissyt vaatimustenmukaisuuden arviointia eikä saanut CE-merkintää, ei voi laillisesti olla EU:n markkinoilla 2. elokuuta 2026 jälkeen. B2B-asiakkaat — etenkin julkishallinto, finanssiala, sairaalat ja kriittisen infrastruktuurin toimijat — alkavat vaatia luokitusta hankintavaatimuksissaan jo vuoden 2026 ensimmäisen puoliskon aikana. Pk-toimittaja, joka ei pysty näyttämään luokitustietoa, putoaa pois RFP-listalta riippumatta siitä, oliko järjestelmä todella korkean riskin järjestelmä vai ei.

Vakuutusala lisää oman kerroksensa. Useat suomalaiset ja eurooppalaiset kyber- ja vastuuvakuuttajat ovat jo päivittäneet hakemuslomakkeensa kysymyksillä tekoälyjärjestelmien luokituksesta ja vaatimustenmukaisuudesta. Jos vakuutuksenantaja havaitsee jälkikäteen, että vakuutuksenottaja on luokitellut järjestelmän väärin, vakuuttaja voi vetäytyä vastuusta vakavissa korvausvaateissa vetoamalla väärän tiedon antamiseen. Sama koskee monia M&A-due diligence -prosesseja: vuodesta 2026 eteenpäin ostajan oikeudellinen tiimi käy läpi jokaisen kohdeyhtiön tekoälyinventaarion ja luokitusperustelut osana standardista vaatimustenmukaisuustarkistusta. Heikko tai puuttuva luokittelu vähentää arvostusta, viivästyttää kauppaa tai vaatii takuiden uudelleenneuvottelua.

Neljä virallista riskitasoa

Tekoälyasetus rakentaa luokituksensa neljälle tasolle. Jokainen taso määritellään lain tekstissä — ei avoimissa tulkinnoissa — ja jokainen tuo eri velvoitejoukon. Käymme tasot läpi siinä järjestyksessä, missä asetus ne esittää: ankarimmasta lievimpään.

Hyväksymätön riski (5 artikla)

Tekoälyasetuksen 5 artikla luettelee tekoälykäytännöt, jotka ovat ehdottomasti kiellettyjä EU:n alueella. Kiellot tulivat täytäntöönpanokelpoisiksi 2. helmikuuta 2025, mikä tekee niistä ensimmäisen aktiivisen velvoitekerroksen. Kielto kattaa seuraavat ydintapaukset:

  • Viranomaisten harjoittama luonnollisten henkilöiden sosiaalinen pisteyttäminen, joka johtaa epäedulliseen kohteluun toisistaan riippumattomissa konteksteissa.
  • Reaaliaikainen biometrinen etätunnistaminen yleisölle avoimissa tiloissa lainvalvontaa varten — kapeat poikkeukset sallittu vakavien rikosten tutkintaan, mutta jokainen poikkeus vaatii etukäteisen tuomioistuinluvan.
  • Tunteiden tunnistamisjärjestelmät työpaikalla ja oppilaitoksissa — paitsi turvallisuus- tai lääketieteellisissä käyttötapauksissa, joissa rajaus on kapea.
  • Kohdistamaton kasvokuvien tiedonkaavinta internetistä tai valvontakameramateriaalista kasvojentunnistustietokantojen rakentamiseksi tai laajentamiseksi.
  • Tekoälyjärjestelmät, jotka käyttävät subliminaalisia tekniikoita tai tarkoituksellista manipulointia heikentääkseen merkittävästi henkilön kykyä tehdä tietoon perustuva päätös ja aiheuttavat näin huomattavaa haittaa.
  • Haavoittuvuuksien hyväksikäyttö iän, vamman tai sosioekonomisen tilanteen perusteella käyttäytymisen vääristämiseksi tavalla, joka aiheuttaa huomattavaa haittaa.
  • Ennakoiva poliisitoiminta, joka perustuu yksinomaan luonnollisen henkilön profilointiin tai persoonallisuuspiirteiden arviointiin (objektiivisten tosiseikkojen sijaan).
  • Biometrinen kategorisointi, jolla pyritään päättelemään herkkiä attribuutteja, kuten rotua, poliittisia mielipiteitä, ammattiyhdistystoimintaa, uskonnollisia tai filosofisia vakaumuksia, sukupuolielämää tai seksuaalista suuntautumista.

Pk-yrityksen käytännön kannalta kiellot ovat selkeitä esteitä. Jos käyttötapaus osuu johonkin näistä, mikään tekninen suunnittelu, mikään käyttöehdot eikä mikään suostumuslomake tee siitä laillista. Suunnittele uudelleen tai vetäydy. Älä yritä puhua itseäsi ulos kiellosta — markkinavalvontaviranomaisten käytännössä tällaiset puolustukset eivät vain epäonnistu vaan myös korottavat sakkoa.

Korkea riski (6 artikla yhdessä liitteen III kanssa)

Korkean riskin luokka kantaa raskaimman vaatimustenmukaisuustaakan. Tekoälyjärjestelmä luokitellaan korkean riskin järjestelmäksi kahdella tavalla. Ensimmäinen reitti on 6 artiklan 1 kohta: tekoäly on turvakomponentti tuotteessa, joka kuuluu liitteen II mukaiseen unionin yhdenmukaistamislainsäädäntöön (kuten lääkinnälliset laitteet, leluturvallisuus, hissit, ilmailu) ja joka edellyttää kolmannen osapuolen vaatimustenmukaisuuden arviointia. Toinen reitti on 6 artiklan 2 kohta yhdessä liitteen III kanssa: tekoälyjärjestelmä, jonka käyttötapaus kuuluu johonkin nimettyyn kategoriaan. Liite III sisältää kahdeksan kategoriaa:

  • Biometrinen tunnistaminen ja kategorisointi (myös tunneanalyysi) — paitsi henkilöllisyyden todentamiseen yhdellä laitteella.
  • Kriittinen infrastruktuuri — turvakomponentit liikenteen, vesihuollon, kaasun, lämmityksen, sähkön ja digitaalisen infrastruktuurin hallinnassa.
  • Koulutus ja ammatillinen koulutus — sisäänoton päätöksenteko, oppilaiden arviointi, vilppien havaitseminen kokeissa, oppimistasoon ohjaaminen.
  • Työllistäminen, työntekijöiden hallinta ja itsenäisen ammatin harjoittamisen pääsy — CV-seulonta, työpaikkailmoitusten kohdentaminen, tehtäväjako, suorituskyvyn seuranta, urakehityspäätökset.
  • Pääsy olennaisiin yksityisiin ja julkisiin palveluihin — etuuksiin oikeutettavuus, luottokelpoisuuden arviointi, henki- ja sairausvakuutusten riskinarviointi ja hinnoittelu, hätäkeskuksen lähetys.
  • Lainvalvonta — uhriarvio, valheenpaljastimet, näytön luotettavuusarvio, profilointi rikosten ennakoimiseksi.
  • Muuttoliike, turvapaikka ja rajavalvonta — riskinarviointi, asiakirjojen aitouden tarkistaminen, hakemusten käsittely.
  • Oikeuslaitos ja demokraattiset prosessit — oikeudellisten tosiseikkojen ja lain tutkiminen, vaalitulosten manipulointi.

Korkean riskin luokitus käynnistää 13 keskeistä velvoitetta, jotka käsitellään yksityiskohtaisesti tarkistuslista-osiossa. Sovellettavuuden ydinpäivämäärä on 2. elokuuta 2026 — siitä eteenpäin uudet korkean riskin järjestelmät eivät voi olla laillisesti markkinoilla ilman täyttä vaatimustenmukaisuutta. Liitteen II tuotteille (joilla on jo CE-merkintävelvoite) ydinpäivämäärä on 2. elokuuta 2027. 6 artiklan 3 kohta tarjoaa kapean poikkeuksen: jos tekoäly suorittaa vain kapeaa proseduraalista tehtävää, parantaa aiemmin tehdyn ihmistyön tulosta, tunnistaa päätöksentekokuvioita ilman ihmisarvioinnin korvaamista tai suorittaa valmistelevia tehtäviä, järjestelmä voidaan vapauttaa korkean riskin luokituksesta. Tämä poikkeus on dokumentoitava erikseen ja talletettava EU:n tietokantaan — sitä ei sovelleta automaattisesti, vaikka käyttötapaus tuntuisi "vain pieneltä" muutokselta liitteen III tehtävään.

Rajoitettu riski (50 artikla)

Rajoitetun riskin järjestelmät kuulostavat usein nimensä perusteella vähäpätöisiltä, mutta eivät sitä ole. Luokka kattaa käytännössä koko nykyaikaisen pk-yritysten tekoälykohtaamispinnan: chatbotit, ääniavustajat, kuvageneraattorit, käännöstyökalut, sisältöavustajat. Velvoitteet ovat kevyempiä kuin korkealla riskillä, mutta niitä ei voi sivuuttaa. 50 artikla edellyttää neljää keskeistä avoimuustoimintoa:

  • Tarjoajien on suunniteltava luonnollisten henkilöiden kanssa suoraan vuorovaikutuksessa olevat tekoälyjärjestelmät niin, että henkilö ymmärtää olevansa tekemisissä tekoälyn kanssa, ellei tämä ole ilmeistä kontekstista.
  • Tarjoajien on merkittävä synteettinen ääni-, video-, kuva- tai tekstisisältö koneellisesti luettavalla tavalla niin, että se on havaittavissa keinotekoiseksi tai manipuloiduksi.
  • Käyttöönottajien on ilmoitettava luonnollisille henkilöille, kun tunteiden tunnistamis- tai biometrisen kategorisoinnin järjestelmiä käytetään (jos ne eivät ole kiellettyjä 5 artiklan nojalla).
  • Käyttöönottajien on paljastettava syväväärennökset (deepfakes) sekä yleistä etua koskevista aiheista julkaistu tekoälyn tuottama tai manipuloima teksti, ellei sisältöä ole läpikäynyt ihmisen toimituksellinen valvonta.

Velvoitteet astuvat voimaan 2. elokuuta 2026. Asiakaspalveluchattibot, joka ei aloita keskustelua selkeällä ilmoituksella tyyliin "Olen tekoälyavustaja, en ihminen", on tästä päivästä alkaen vaatimusten vastainen. Kuvageneraattorin tuottama markkinointikuva ilman koneellisesti luettavaa vesileimaa on niin ikään. Yleisin pk-virhe tällä tasolla on luulla, että pieni "Powered by AI" -teksti sivun alalaidassa riittää — ei riitä, ilmoituksen on oltava käyttäjälle ymmärrettävä juuri vuorovaikutuksen alussa.

Minimaalinen riski

Minimaalinen riski on jäännösluokka: kaikki tekoälyjärjestelmät, jotka eivät ole hyväksymättömiä, korkean riskin tai rajoitetun riskin järjestelmiä. Tähän kuuluu valtaosa nykyisistä yrityskäytön tekoälyjärjestelmistä — roskapostisuodattimet, peliä elävöittävä tekoäly, tuotannonohjauksen optimointialgoritmit, varastonhallintaa palvelevat ennusteet. Asetus ei aseta sitovia velvoitteita tähän luokkaan. 95 artikla rohkaisee vapaaehtoisten toimintaohjeistojen kehittämiseen, ja monet valvontaviranomaiset tulevat suosittelemaan, että pk-yritykset liittyvät niihin osana hyvän hallinnon näyttöä.

Älä silti oleta liian nopeasti, että käyttötapauksesi on minimaalinen. Tämä toistuu jatkuvasti: pk-yritys luokittelee oma-aloitteisesti "minimaaliseksi" järjestelmän, joka todellisuudessa on rajoitetun riskin (chatbot ilman avoimuusilmoitusta) tai jopa korkean riskin (CV-seulontaominaisuus, joka oli "vain pieni piirre" suuremmassa rekrytointijärjestelmässä). Päätöspuun läpikäyminen kunkin järjestelmän osalta on ainoa tapa olla varma.

Yksi käytännön tarkistus: katso kuka rakensi järjestelmän ja kuka sitä käyttää. Jos sisäinen tiimi ostaa SaaS-tuotteen, jonka markkinointimateriaali korostaa "tekoälyä" tuoteominaisuutena, tehkää oma luokittelu — myyjän markkinointi ei vapauta käyttöönottajaa luokitteluvelvoitteesta. Jos käyttäjäkunnassa on luonnollisia henkilöitä (työntekijät, asiakkaat, hakijat), lähtöoletus on rajoitettu riski, kunnes päätöspuu on käyty läpi. Jos käyttötapaus koskee koneellista optimointia ilman ihmisrajapintaa (esimerkiksi varastontäydennysennuste, joka kirjoittaa suoraan ERP:ään), minimaalisen riskin oletus on huomattavasti turvallisempi.

Viides pilari: yleiskäyttöiset tekoälymallit (GPAI)

Tekoälyasetuksen 51–55 artikla rakentaa rinnakkaisen sääntelykerroksen yleiskäyttöisille tekoälymalleille — perustamalleille (foundation models), jotka eivät ole sidottuja yhteen käyttötapaukseen vaan voivat tukea valtavaa kirjoa sovelluksia. GPT-4, Claude, Llama, Mistral Large ja vastaavat ovat tämän järjestelmän ytimessä. Sääntely jakautuu kahteen tasoon, jotka tulivat sovellettaviksi 2. elokuuta 2025.

Vakio-GPAI-tarjoajien velvoitteet (53 artikla): tekninen dokumentaatio mallista (sisältäen koulutusprosessin, arvioinnin tulokset, tunnetut rajoitukset); ohjeet jälleenkäyttäjille (downstream providers), joiden avulla nämä voivat täyttää omat velvoitteensa; EU:n tekijänoikeuspolitiikka, joka kunnioittaa "rights reservation" -mekanismia direktiivin 2019/790 4 artiklan 3 kohdan mukaisesti; ja yksityiskohtaisesti riittävän tarkka julkinen tiivistelmä mallin koulutuksessa käytetystä sisällöstä.

GPAI:n, jolla on järjestelmäriski, lisävelvoitteet (55 artikla) syntyvät, kun mallin koulutuslaskenta ylittää 10^25 liukulukulaskutoimitusta (FLOP) — tämä raja yksilöi tällä hetkellä ehkä noin 10–20 mallia maailmanlaajuisesti — tai komissio nimeää mallin järjestelmäriskin omaavaksi muiden kriteerien perusteella. Lisävelvoitteet kattavat: mallin arvioinnit standardoiduin protokollin sekä punaisen tiimin testaus; tunnistettujen järjestelmäriskien arviointi ja lieventäminen; vakavien tapahtumien ja korjaavien toimien dokumentointi ja raportointi; sekä riittävä kyberturvallisuussuoja itse mallille ja sen fyysiselle infrastruktuurille.

Pk-yrityksen kannalta tärkein huomio on roolin tunnistaminen. Useimmat pk-yritykset eivät ole GPAI-malleihin tarjoajia (providers) — ne ovat jälleenkäyttäjiä (downstream providers) tai pelkkiä käyttöönottajia (deployers). GPAI-tarjoajan velvoitteet eivät siis koske niitä suoraan. Se, mikä koskee, on (a) GPAI:n asianmukainen jälkikäyttö asetuksen 25 artiklan mukaisesti — esimerkiksi mallin olennainen muokkaaminen voi siirtää teidät tarjoajan asemaan ja kaikkiin sen velvoitteisiin — ja (b) oman käyttötapauksen luokittelu nelitasoisen järjestelmän mukaan. Toisin sanoen GPAI:n käyttö ja käyttötapauksen luokittelu pätevät samanaikaisesti — tämä on yksi yleisimmistä luokitteluvirheistä, johon palaamme jäljempänä.

Jälleenkäyttäjän käytännön työlista on pieni, mutta se on tehtävä. Pyytäkää jokaiselta GPAI-tarjoajalta, jonka mallia käytätte, 53 artiklan 1 kohdan b alakohdan mukaiset käyttöohjeet sekä koulutusdatan tiivistelmä. Säilyttäkää nämä asiakirjat omassa hallintatietokannassanne. Niitä saatetaan pyytää valvonnassa, ja ne ovat välttämättömiä myös silloin, kun teette käyttötapaustasoista riskiarviointia korkean riskin järjestelmälle. Suuret kaupalliset tarjoajat (OpenAI, Anthropic, Google, Mistral) julkaisevat näitä julkisesti vuoden 2025 jälkipuoliskosta alkaen; pienempien avoimen lähdekoodin tarjoajien osalta saattaa olla tarpeen pyytää aineisto erikseen. Jos tarjoaja ei pysty toimittamaan dokumentaatiota, harkitkaa toimittajan vaihtamista — vastuu siirtyy ketjussa eteenpäin, ei ylöspäin.

Päätöspuu: luokittele käyttötapauksesi 8 kysymyksellä

Luokittelu on rakenteellisesti yksinkertainen prosessi, kun se tehdään yksi käyttötapaus kerrallaan. Käytä seuraavaa päätöspuuta jokaiselle inventaarissasi olevalle tekoälyjärjestelmälle. Jos vastaus johonkin kysymykseen on "kyllä", lopeta puun läpikäynti ja siirry kyseisen kysymyksen osoittamaan luokkaan. Älä jatka eteenpäin.

Kysymys 1: Vastaako käyttötapauksesi mihinkään 5 artiklan kahdeksasta kielletystä käytänteestä? Jos kyllä → Hyväksymätön — pysähdy, suunnittele uudelleen, älä saata järjestelmää markkinoille.

Kysymys 2: Onko tekoäly liitteen II yhdenmukaistamislainsäädännön kattaman tuotteen (esim. lääkinnällinen laite, leikkikalu, ajoneuvo, hissi) turvakomponentti, joka edellyttää kolmannen osapuolen vaatimustenmukaisuuden arviointia? Jos kyllä → Korkea riski — sovelletaan 2. elokuuta 2027 alkaen.

Kysymys 3: Sopiiko käyttötapauksesi johonkin liitteen III kahdeksasta kategoriasta (biometrinen tunnistaminen; kriittinen infrastruktuuri; koulutus; työllistäminen; pääsy keskeisiin palveluihin; lainvalvonta; muuttoliike; oikeuslaitos)? Jos kyllä → siirry kysymykseen 4.

Kysymys 4: Voitko nojautua 6 artiklan 3 kohdan poikkeukseen — tekoäly suorittaa vain kapean proseduraalisen tehtävän, parantaa aiemman ihmistyön tulosta, tunnistaa päätöksentekokuvioita korvaamatta ihmisarviointia tai suorittaa valmistelevia tehtäviä — JA tämä poikkeus on dokumentoitu kirjallisesti ja talletettu EU:n tietokantaan? Jos kyllä → Minimaalinen riski poikkeuksen voimassaoloajan. Jos ei → Korkea riski — sovelletaan 2. elokuuta 2026 alkaen.

Kysymys 5: Onko tekoälyjärjestelmäsi suorassa vuorovaikutuksessa luonnollisten henkilöiden kanssa (chatbot, ääniavustaja, virtuaaliassistentti)? Jos kyllä → Rajoitettu riski — 50 artiklan avoimuusvelvoitteet voimassa 2. elokuuta 2026 alkaen.

Kysymys 6: Tuottaako tekoälyjärjestelmäsi synteettistä ääni-, video-, kuva- tai tekstisisältöä? Jos kyllä → Rajoitettu riski — koneellisesti luettavan merkinnän vaatimus.

Kysymys 7: Käytetäänkö tekoälyä tunteiden tunnistamiseen tai biometriseen kategorisointiin (kategorioissa, jotka eivät ole kiellettyjä 5 artiklan nojalla)? Jos kyllä → Rajoitettu riski — käyttöönottajan ilmoitusvelvoite.

Kysymys 8: Tuotetaanko tekoälyllä deepfake-sisältöä tai julkaistaanko tekoälyn luomaa tekstiä yleisen edun aiheista ilman ihmisen toimituksellista valvontaa? Jos kyllä → Rajoitettu riski — paljastusvelvoite. Jos vastasit "ei" jokaiseen kysymykseen → Minimaalinen riski. Lisäksi: jos käytät GPAI-mallia (oma tai kolmannen osapuolen) palveluksessasi, kerrostuvat jokaisen luokituksen päälle — GPAI-vaatimukset koskevat erikseen mallin tarjoajaa ja jälleenkäyttäjää.

Konkreettinen esimerkki 1. 50 hengen helsinkiläinen HR-tech-SaaS integroi GPT-4o:n CV-esivalintatyökaluun, joka pisteyttää työnhakijoita tehtäviä varten. Kysymys 1: ei kiellettyä käytäntöä. Kysymys 2: ei liitteen II tuote. Kysymys 3: kyllä — liitteen III neljäs kategoria (työllistäminen, mukaan lukien CV-seulonta). Kysymys 4: poikkeus ei sovellu, koska järjestelmä korvaa ratkaisevasti rekrytointitiimin alkupisteyttämisen. Lopputulos: korkea riski. Lisäksi GPAI-jälleenkäyttäjän velvoitteet pätevät GPT-4o:n osalta. Käytännön työ: täysi 13-kohtainen korkean riskin vaatimustenmukaisuus, vaatimustenmukaisuuden arviointi ennen 2. elokuuta 2026 ja CE-merkintä, EU:n tietokantaan rekisteröinti.

Konkreettinen esimerkki 2. 12 hengen tamperelainen verkkokauppa-SaaS lisää asiakaschatbotin, joka käyttää sisäistä RAG-pinoa Mistral Largen ympärillä vastatakseen tilauskysymyksiin. Kysymys 1: ei kiellettyä käytäntöä. Kysymys 2: ei. Kysymys 3: ei. Kysymys 4: ei sovellu. Kysymys 5: kyllä — chatbot vuorovaikutuksessa luonnollisten henkilöiden kanssa. Lopputulos: rajoitettu riski. Käytännön työ: avoimuusilmoitus jokaisen istunnon alussa ("Olen tekoälyavustaja, voin ohjata sinut ihmisedustajalle"), ohjeet RAG-pinon ylläpidosta, GPAI-jälleenkäyttäjän vähimmäisdokumentaatio. Ei korkean riskin velvoitteita. Karkeasti 1/10 työmäärästä, jonka esimerkki 1 vaatii.

Yleiset luokitteluvirheet

Olemme nähneet viiden virheen toistuvan kymmenissä pk-luokituksissa. Tunnista ne nyt, niin säästät kuukausia korjaustyötä myöhemmin.

Virhe 1: "Mehän vain käytämme ChatGPT:tä"

Yleisin virhe. Logiikka kuuluu: "Emme ole rakentaneet mitään tekoälyä, käytämme vain OpenAI:n tuotetta, joten asetus ei koske meitä." Tämä on väärin kahdesta syystä. Ensinnäkin GPAI-malliin perustuva sovelluksen rakentaminen tekee teistä jälleenkäyttäjän, jolla on omat velvoitteensa GPAI-toimitusketjussa. Toiseksi — ja olennaisemmin — käyttötapauksen luokittelu on aina erillinen GPAI-luokituksesta. Jos käytätte ChatGPT:tä CV-seulonnan tukena, käyttötapauksenne on korkean riskin järjestelmä riippumatta siitä, että pohjamalli on jonkun muun. Sama ChatGPT, kaksi eri käyttötapausta, kaksi täysin eri velvoitejoukkoa. Inventaario on suoritettava käyttötapaus kerrallaan, ei tekninen pino kerrallaan.

Virhe 2: "Tämä on vain sisäistä käyttöä"

Toinen yleinen virhe: "Tämä järjestelmä on vain sisäisille työntekijöille, ei asiakkaille — joten matalampi riski." Asetus ei tunne tällaista huojennusta. CV-seulonta on korkean riskin järjestelmä riippumatta siitä, käyttääkö sitä HR-tiimi sisäisesti vai onko se asiakkaalle myyty SaaS. Suorituskyvyn seuranta omille työntekijöille on korkean riskin järjestelmä — se on erikseen mainittu liitteen III neljännessä kategoriassa. Sisäinen käyttö ei ole turvasatama. Useat viranomaiset ovat itse asiassa antaneet ymmärtää, että ne aikovat tarkastella sisäisiä järjestelmiä erityisellä tarkkuudella, koska niiden tekninen toteutus on usein heikompi — vähemmän testattu, vähemmän auditoitu — kuin asiakkaille myytyjen tuotteiden.

Virhe 3: "Emme ole kouluttaneet mallia, joten emme ole tarjoaja"

Useimmiten totta — mutta ei aina. 25 artikla siirtää tarjoajan aseman jälleenkäyttäjälle, jos tämä olennaisesti muokkaa GPAI-mallia (esimerkiksi mittavalla hienosäädöllä), brändää tuotteen omakseen niin, että alkuperäinen tarjoaja häviää näkyvistä, tai muuttaa korkean riskin järjestelmän käyttötarkoitusta. Pk-yrityksen tyypillinen RAG-toteutus tai prompt-engineering ei ylitä tätä rajaa, mutta laaja LoRA-hienosäätö asiakaskohtaisilla tiedoilla saattaa ylittää. Tarkista yksiselitteisesti, oletko tarjoaja vai jälleenkäyttäjä jokaisen GPAI-pohjaisen järjestelmäsi osalta — tarjoajan velvoitteet ovat dramaattisesti raskaammat.

Virhe 4: Sekoitetaan rajoitettu ja minimaalinen riski asiakaschattiboteissa

Erittäin yleinen luokitteluerhe: pk-yritys luokittelee asiakaspalveluchattibotin "minimaaliseksi", koska se "vain vastaa kysymyksiin". Asetus ei kuitenkaan jaa rajoitettua ja minimaalista riskiä toiminnallisen monimutkaisuuden mukaan vaan käyttötapauksen tyypin mukaan. Jokainen tekoälyjärjestelmä, joka on suorassa vuorovaikutuksessa luonnollisten henkilöiden kanssa, kuuluu rajoitettuun riskiin 50 artiklan 1 kohdan nojalla, ellei kontekstista käy "ilmeisesti" ilmi, että kyseessä on tekoäly. "Ilmeisesti" on tiukka — käytännössä se kattaa lähinnä tilanteet, joissa käyttöliittymä on selvästi merkitty (esimerkiksi sovelluksen nimi sisältää sanan "Bot" tai "AI Assistant"). Verkkosivulla pop-up-ikkunaan ilmestyvä keskustelukumppani ei ole "ilmeisesti" tekoäly — se on tyypillisin esimerkki rajoitetun riskin järjestelmästä, joka tarvitsee avoimuusilmoituksen.

Virhe 5: Unohdetaan, että GDPR:n 22 artikla menee päälle

Tekoälyasetuksen luokittelu ei korvaa GDPR:ää, vaan elää sen rinnalla. GDPR:n 22 artikla suojaa luonnollisia henkilöitä päätöksiltä, jotka perustuvat yksinomaan automaattiseen käsittelyyn ja jotka tuottavat oikeudellisia tai vastaavasti merkittäviä vaikutuksia. Pk-yritysten yleinen sokea piste on luokitella tekoälypohjainen luottoluokitusjärjestelmä korkean riskin järjestelmäksi tekoälyasetuksen nojalla — ja unohtaa, että GDPR:n 22 artikla vaatii samanaikaisesti, että rekisteröidyllä on oikeus saada ihmisen väliintuloon, oikeus ilmaista näkemyksensä ja oikeus riitauttaa päätös. Kaksi säännöstöä, kaksi velvoitejoukkoa, jotka kasautuvat yhden käyttötapauksen päälle. Jokainen luokitusnäkymä, joka tarkastelee vain tekoälyasetusta, on epätäydellinen.

Vaatimustenmukaisuuden tarkistuslista tasoittain

Kun olet luokitellut käyttötapauksesi, tämä on velvoitejoukko, jonka kohtaat. Käytä sitä työsuunnitelman pohjana.

Hyväksymätön: pysähdy, suunnittele uudelleen

Yksi velvoite: älä saata järjestelmää EU:n markkinoille. Ei ole vaatimustenmukaisuuden arviointia, ei ole CE-merkintää, ei ole kompromissia. Jos käyttötapaus osuu 5 artiklaan, etsikää toinen tapa ratkaista alkuperäinen liiketoimintaongelma. Jos järjestelmä on jo markkinoilla, vetäkää se pois ja dokumentoikaa poistopäätös auditointia varten — markkinavalvonta saattaa myöhemmin pyytää näyttöä siitä, että järjestelmä poistettiin oikea-aikaisesti.

Korkea riski: 13-kohtainen velvoitelista

  • 9 artikla: pystytä ja ylläpidä riskienhallintajärjestelmä koko järjestelmän elinkaaren ajalle, dokumentoituna ja säännöllisesti päivitettynä.
  • 10 artikla: tiedon hallinta — varmista, että koulutus-, validointi- ja testidatasetit ovat relevanteilta, edustavilta, virheettömiltä ja täydellisiltä, sekä dokumentoi tiedonkeruun käytännöt.
  • 11 artikla: laadi tekninen dokumentaatio liitteen IV mukaisesti ennen markkinoille saattamista ja pidä se ajan tasalla.
  • 12 artikla: kirjanpito — pystytä automaattinen lokitustoiminto järjestelmän tapahtumista koko sen elinkaaren ajalle.
  • 13 artikla: avoimuus käyttöönottajille — toimita ohjeet, jotka kattavat järjestelmän ominaisuudet, suorituskyvyn rajoitukset ja ihmisvalvonnan vaatimukset.
  • 14 artikla: ihmisvalvonta — suunnittele ja toteuta järjestelmä siten, että luonnolliset henkilöt voivat tehokkaasti valvoa sitä käytön aikana.
  • 15 artikla: tarkkuus, vakaus ja kyberturvallisuus — varmista asianmukainen suorituskyvyn taso, sietokyky virheille ja kyberhyökkäyksiltä suojautuminen.
  • 17 artikla: laadunhallintajärjestelmä — perustana sovellettavien standardien (esim. ISO 9001, ISO/IEC 42001) noudattaminen.
  • 43 artikla: vaatimustenmukaisuuden arviointi — joko sisäinen valvonta (liitteen VI mukaisesti) tai kolmannen osapuolen ilmoitettu laitos (liitteen VII mukaisesti) järjestelmän tyypistä riippuen.
  • 48 artikla: CE-merkintä — kiinnitä järjestelmään tai sen pakkaukseen vaatimustenmukaisuuden osoituksena.
  • 49 artikla: rekisteröi järjestelmä EU:n julkiseen tietokantaan ennen markkinoille saattamista.
  • 72 artikla: markkinoille saattamisen jälkeinen seuranta — pystytä järjestelmä, joka aktiivisesti kerää ja analysoi suorituskykytietoja koko elinkaaren ajan.
  • 73 artikla: ilmoita vakavista tapahtumista markkinavalvontaviranomaiselle ilman aiheetonta viivästystä — odotettu määräaika 15 päivää useimmille tapahtumille (täytäntöönpanosäädökset täsmentävät).

Rajoitettu riski: avoimuusilmoitus 50 artikla

Yksi keskeinen velvoite: 50 artiklan mukainen avoimuus. Käytännön toimet: (1) Päivitä jokaisen ihmisen kanssa vuorovaikutuksessa olevan tekoälyjärjestelmän käyttöliittymä niin, että ensimmäinen viesti tunnistaa järjestelmän tekoälyksi. (2) Lisää koneellisesti luettava merkintä (esim. C2PA-standardin mukainen alkuperätietokenttä) kaikkeen synteettiseen sisältöön. (3) Päivitä julkaisukäytännöt niin, että deepfake-sisältö ja yleisen edun aiheista tehty tekoälyteksti merkitään selkeästi. (4) Dokumentoi nämä toimet sisäisesti — markkinavalvonta voi pyytää näyttöä avoimuustoimenpiteistä erillisinä jokaiselle järjestelmälle.

Minimaalinen riski: vapaaehtoinen toimintaohjeisto 95 artikla

Ei sitovia velvoitteita. 95 artikla rohkaisee liittymään vapaaehtoisiin toimintaohjeistoihin, jotka komissio ja jäsenvaltiot tulevat julkaisemaan vuosina 2026–2027. Pk-yrityksen kannalta järkevä toimi on (a) dokumentoida luokituspäätös sisäisesti niin, että se on auditoitavissa myöhemmin, ja (b) seurata toimintaohjeistojen kehitystä ja liittyä niihin sopivissa kohdin liiketoiminta-asiakkaiden hankintavaatimusten näyttönä.

GPAI-tarjoajat: tekninen dokumentaatio ja tekijänoikeuspolitiikka

Useimmat pk-yritykset eivät ole GPAI-tarjoajia, mutta jos olette — esimerkiksi olette kouluttaneet oman avoimen lähdekoodin tai kaupallisen mallin — velvoitteet kattavat: kattavan teknisen dokumentaation (53 artiklan 1 kohta a alakohta); ohjeet jälleenkäyttäjille, jotta nämä voivat täyttää omat velvoitteensa (53 artiklan 1 kohta b alakohta); EU:n tekijänoikeuspolitiikan, joka kunnioittaa "rights reservation" -mekanismeja (53 artiklan 1 kohta c alakohta); sekä julkisesti saatavilla olevan, riittävän yksityiskohtaisen tiivistelmän koulutusdatasta (53 artiklan 1 kohta d alakohta). Avoimen lähdekoodin GPAI-tarjoajat saavat osittaisen poikkeuksen 53 artiklan 2 kohdan mukaisesti, mutta poikkeus ei kata tekijänoikeuspolitiikkaa eikä koulutusdatan tiivistelmää — molemmat ovat aina pakollisia.

Määräaikojen aikajana

Tekoälyasetuksen velvoitteet astuvat voimaan vaiheittain. Suunnitelkaa vuosineljänneksenne tämän aikataulun mukaisesti — erityisesti 2. elokuuta 2026 ja sen edeltävät kuusi kuukautta tulevat kuormittamaan compliance-tiimejä koko EU:ssa.

2. helmikuuta 2025: 5 artiklan kiellot voimassa. Kaikkien hyväksymätöntä riskiä aiheuttavien järjestelmien on oltava poissa markkinoilta. 4 artiklan tekoälytaitotason vaatimukset alkavat soveltua tarjoajille ja käyttöönottajille.

2. elokuuta 2025: GPAI-velvoitteet (51–55 artikla) voimassa uusille markkinoille saatetuille malleille. Tekoälyhallintaviranomaiset (AI Office, kansalliset toimivaltaiset viranomaiset) toiminnassa.

2. helmikuuta 2026: komission täytäntöönpanosäädökset 6 artiklan 3 kohdan korkean riskin poikkeuksesta ja muista tärkeistä yksityiskohdista odotetaan julkaistuiksi.

2. elokuuta 2026: pääosa asetuksesta voimassa. Korkean riskin velvoitteet liitteen III mukaisille käyttötapauksille; rajoitetun riskin avoimuusvelvoitteet (50 artikla); valvontaviranomaisten täysi valtuus määrätä sakkoja. Tämä on pk-yritysten merkittävin yksittäinen päivämäärä.

2. elokuuta 2027: korkean riskin velvoitteet liitteen II tuotteille (jotka jo ennestään edellyttävät kolmannen osapuolen vaatimustenmukaisuuden arviointia, kuten lääkinnälliset laitteet ja ajoneuvot). Olemassa olevat ennen 2. elokuuta 2025 markkinoille saatetut GPAI-mallit on tuotava vaatimustenmukaisuuteen.

Mitä tehdä tällä neljänneksellä

Aikajana on tiukka mutta hallittavissa, jos aloitatte nyt. Tässä on 30/60/90 päivän työsuunnitelma, jonka olemme nähneet toimivan pk-skaalassa.

Päivät 1–30: inventaario ja luokitus. Listatkaa jokainen tekoälykäyttötapaus organisaatiossanne — myös ne, joita yksittäiset tiimit ovat ottaneet käyttöön ilman keskistä lupaa (varjotekoäly). Käykää jokainen järjestelmä tämän oppaan päätöspuun läpi. Dokumentoikaa luokitus ja sen perustelu. Tunnistakaa korkean riskin järjestelmät — ne tarvitsevat välittömästi suunnitellun korjausjonon.

Päivät 31–60: aukkoanalyysi ja korjaussuunnitelma. Korkean riskin järjestelmille tehkää 13-kohdan velvoitteiden gap-analyysi. Rajoitetun riskin järjestelmille suunnitelkaa avoimuuspäivitykset. Hyväksyttäkää compliance-vastaava (joko olemassa oleva DPO laajennetuilla vastuilla tai erillinen tekoälyn hallintavastaava) ja muodollistakaa kuukausittainen tekoälyhallintaneuvosto. Päättäkää, onko teidän rakennettava sisäisesti vai ostettava työkalu mallin elinkaaren hallintaan.

Päivät 61–90: toteutus aloitetaan. Korkean riskin järjestelmille käynnistäkää 9 artiklan riskienhallintajärjestelmän rakentaminen ja 10 artiklan tiedon hallinnan auditointi — nämä ovat eniten aikaa vievät velvoitteet ja kannattaa aloittaa ensin. Rajoitetun riskin järjestelmille toteuttakaa avoimuusilmoitukset (vie tyypillisesti 1–2 viikkoa per järjestelmä). Suorittakaa ensimmäinen sisäinen tarkastus työn tilasta päivänä 90 ja päivittäkää korjaussuunnitelma sen tulosten perusteella.

Tämä työ ei ole valinnaista, eikä sitä voi puristaa viimeisille viikoille ennen 2. elokuuta 2026. Korkean riskin vaatimustenmukaisuuden arviointi yksin vie 6–10 viikkoa parhaassakin tapauksessa, ja CE-merkintää ei voi kiinnittää ennen kuin arviointi on suoritettu. Pk-yritys, joka aloittaa kunnolla nyt, saavuttaa täyden vaatimustenmukaisuuden mukavasti määräaikaan mennessä. Pk-yritys, joka odottaa vuoden 2026 alkuun, ajaa kiireeseen, jossa kustannukset kaksinkertaistuvat ja virheriski moninkertaistuu. Kalenteri ei jousta — luokittele, suunnittele ja toteuta tällä neljänneksellä.

Tarkista vaatimustenmukaisuusvalmiutesi

Suorita ilmainen valmius-arviomme GDPR:n, NIS2:n ja tekoälyasetuksen osalta ja saat henkilökohtaiset suositukset muutamassa minuutissa.

Aloita ilmainen arviointi

EU Compliance Weekly

Get the latest regulatory updates, compliance tips, and enforcement news delivered to your inbox every week.

We respect your privacy. Unsubscribe anytime.