Torna al blog
Buone pratiche17 min readMay 1, 2026

Classificazione per livelli di rischio dell'AI Act per le PMI europee: guida pratica per il 2026

By Anna Bergström

TL;DR

Il Regolamento sull'IA classifica ogni sistema di intelligenza artificiale in uno dei quattro livelli di rischio — Inaccettabile, Alto, Limitato e Minimo — e sovrappone a questi un regime parallelo per i modelli di IA per finalità generali (GPAI). La quasi totalità degli oneri di conformità ricade sul livello Alto, che impone tredici obblighi sostanziali ai sensi degli Articoli da 9 a 49, ma i doveri di trasparenza per il rischio Limitato (Articolo 50) intercettano qualsiasi chatbot o deepfake immesso sul mercato, e i divieti dell'Articolo 5 sono applicabili dal 2 febbraio 2025. Una classificazione errata costa molto più di una classificazione corretta: le sanzioni per pratiche vietate arrivano a 35 milioni di euro o al 7 % del fatturato mondiale annuo, quelle per non conformità ad alto rischio a 15 milioni o al 3 %, e fornire informazioni inesatte alle autorità competenti costa fino a 7,5 milioni o all'1,5 %. Per una PMI il compito pratico è inventariare ogni caso d'uso di IA, farlo passare attraverso un breve albero decisionale e assegnare gli obblighi corrispondenti prima dell'ondata di applicabilità del 2 agosto 2026. Questa guida fornisce l'albero, le trappole e la checklist livello per livello necessari per completare il lavoro in un solo trimestre.

Perché classificare male costa più che mettersi in regola

L'Articolo 99 del Regolamento sull'IA fissa massimali di sanzione deliberatamente più severi di quelli del GDPR. Avviare una pratica vietata può comportare una sanzione amministrativa fino a 35.000.000 di euro o al 7 % del fatturato mondiale totale annuo, se superiore. La non conformità agli obblighi sui sistemi ad alto rischio o agli obblighi dell'Articolo 5 si attesta su 15 milioni di euro o sul 3 %. Fornire informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità competenti è punito fino a 7,5 milioni o all'1,5 %. PMI e start-up beneficiano di un'attenuazione parziale ai sensi dell'Articolo 99, paragrafo 6 — la sanzione può essere fissata sull'importo inferiore tra i due, anziché sul superiore — ma questa mitigazione abbassa il tetto, non lo rimuove.

Al di là delle cifre, il costo strutturale è ben più pesante. Un sistema mal classificato è quasi sempre un sistema senza fascicolo di gestione del rischio, senza un regime di governance dei dati, senza controlli di sorveglianza umana e senza un piano di monitoraggio post-commercializzazione. Quando un'autorità competente chiede uno qualsiasi di questi documenti ai sensi dell'Articolo 21, la mancanza non è una semplice questione cartacea: sono mesi di lavoro di rimedio svolti sotto pressione di vigilanza. Adattare a posteriori un quadro di controllo per sistemi ad alto rischio richiede in genere dai tre ai sei mesi e costa da due a quattro volte la spesa che sarebbe servita per la classificazione iniziale.

Il danno reputazionale aggrava la sanzione finanziaria. L'autorità di vigilanza del mercato può imporre azioni correttive ai sensi dell'Articolo 79, compreso il ritiro del sistema dal mercato dell'Unione. Per un fornitore B2B i cui contratti contengono garanzie di conformità, un singolo provvedimento di ritiro può azzerare i ricavi su un'intera base clienti. Se il livello viene assegnato correttamente in fase di progettazione, questi scenari restano fuori portata.

I quattro livelli ufficiali di rischio

La classificazione del Regolamento è volutamente asimmetrica. La grande maggioranza dei sistemi di IA presenti sul mercato dell'Unione si colloca nel livello Minimo e non comporta obblighi obbligatori. Un insieme ridotto ma commercialmente rilevante ricade nel livello Limitato e fa scattare doveri di trasparenza. Il livello Alto è ristretto ma denso di obblighi. L'Inaccettabile è una soglia rigida — questi sistemi non possono essere immessi sul mercato dell'Unione. Comprendere i confini fra i livelli è l'intera partita.

Inaccettabile (Articolo 5)

Otto categorie di pratiche di IA sono vietate dall'Articolo 5 a partire dal 2 febbraio 2025. Si tratta di sistemi che il legislatore europeo ha considerato incompatibili con i diritti fondamentali. L'elenco va letto come un divieto categorico, non come una zona da gestire con cautela.

  • Punteggio sociale (social scoring) effettuato da autorità pubbliche o per loro conto, che valuti o classifichi le persone in base al comportamento sociale o alle caratteristiche personali e che produca trattamenti pregiudizievoli sproporzionati rispetto al contesto originale.
  • Identificazione biometrica remota in tempo reale in spazi accessibili al pubblico ai fini di attività di contrasto, salvo eccezioni strettamente limitate (ricerca di vittime di reati gravi, prevenzione di una minaccia imminente alla vita, localizzazione di indagati per reati specifici elencati) soggette ad autorizzazione preventiva.
  • Riconoscimento delle emozioni sul luogo di lavoro o negli istituti di istruzione, salvo per finalità mediche o di sicurezza chiaramente individuate.
  • Raccolta non mirata (scraping) di immagini facciali da Internet o da telecamere a circuito chiuso per creare o ampliare banche dati di riconoscimento facciale.
  • Sistemi che impiegano tecniche subliminali, manipolative o ingannevoli per distorcere materialmente il comportamento di una persona in modo da causarle un danno rilevante.
  • Sistemi che sfruttano vulnerabilità di una persona o di un gruppo legate all'età, alla disabilità o a una situazione socioeconomica specifica per distorcerne il comportamento causando danno rilevante.
  • Polizia predittiva fondata esclusivamente sulla profilazione di persone fisiche o sulla valutazione di tratti e caratteristiche della personalità per prevederne la probabilità di commettere reati.
  • Sistemi di categorizzazione biometrica che deducono attributi sensibili come razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale, salvo eccezioni mirate per finalità di contrasto.

Se un sistema rientra in una di queste categorie, non esistono opzioni di conformità: va riprogettato o ritirato. Le aziende che operano in settori adiacenti — risorse umane, sicurezza fisica, intrattenimento — devono prestare particolare attenzione alle clausole sul riconoscimento delle emozioni e sulla categorizzazione biometrica, che intercettano funzioni apparentemente innocue come la valutazione «soft» del coinvolgimento dei candidati o la segmentazione del pubblico in base a caratteristiche dedotte da immagini.

Alto rischio (Articolo 6 e Allegato III)

È il cuore del Regolamento e il livello che genera la maggior parte degli oneri operativi. Un sistema è ad alto rischio in due casi alternativi previsti dall'Articolo 6: (a) è destinato a essere utilizzato come componente di sicurezza di un prodotto coperto dalla normativa di armonizzazione dell'Unione elencata nell'Allegato II — dispositivi medici, ascensori, giocattoli, attrezzature radio, autoveicoli — oppure (b) figura tra le categorie autonome dell'Allegato III. La maggior parte degli obblighi diventa applicabile il 2 agosto 2026.

Le otto categorie dell'Allegato III sono:

  • Identificazione biometrica e categorizzazione di persone fisiche, comprese applicazioni di identificazione biometrica remota differita non vietate dall'Articolo 5.
  • Gestione e funzionamento di infrastrutture critiche: trasporto stradale, ferroviario, aereo, marittimo; fornitura di acqua, gas, riscaldamento ed elettricità; infrastruttura digitale critica.
  • Istruzione e formazione professionale: ammissione e assegnazione a istituti di istruzione, valutazione di risultati di apprendimento, valutazione del livello di istruzione adeguato, monitoraggio e rilevazione di comportamenti vietati durante le prove.
  • Occupazione, gestione dei lavoratori e accesso al lavoro autonomo: selezione e screening di candidature (compresa la pubblicazione mirata di annunci, l'analisi di curriculum, la valutazione di candidati), decisioni in materia di promozione, assegnazione di mansioni, monitoraggio e valutazione delle prestazioni.
  • Accesso a servizi privati essenziali e servizi pubblici essenziali: idoneità a prestazioni e servizi di assistenza pubblica, valutazione del merito creditizio o del punteggio creditizio (escluso il rilevamento di frodi finanziarie), valutazione del rischio e tariffazione di assicurazioni vita e malattia, dispatching di servizi di pronto intervento e classificazione di triage in pronto soccorso.
  • Attività di contrasto: valutazioni del rischio individuale, poligrafi, valutazione dell'attendibilità di prove, rischio di recidiva e profilazione nel quadro di indagini, accertamento di reati e perseguimento.
  • Gestione della migrazione, dell'asilo e del controllo delle frontiere: valutazione del rischio per la sicurezza e la salute pubblica posto da persone, esame di domande di asilo, visto e permesso di soggiorno, riconoscimento di persone in contesti di gestione delle frontiere.
  • Amministrazione della giustizia e processi democratici: assistenza alle autorità giudiziarie nella ricerca e interpretazione di fatti e diritto, sistemi destinati a influenzare l'esito di elezioni o referendum o il comportamento di voto.

La maggior parte degli strumenti di IA che le PMI europee hanno adottato negli ultimi diciotto mesi rientra in almeno una di queste categorie. Lo screening dei CV, lo scoring creditizio, il triage in ambito sanitario, l'IA per la videosorveglianza nelle infrastrutture energetiche, gli ausili per la valutazione formativa: sono tutti casi d'uso ad alto rischio. Il fatto che il sistema sia un servizio di terzi non sposta gli obblighi — l'utilizzatore (deployer) ha doveri propri ai sensi dell'Articolo 26.

Rischio limitato (Articolo 50)

I sistemi a rischio limitato sono soggetti a doveri di trasparenza, non a un quadro di gestione del rischio. La regola di base è semplice: l'utente deve sapere quando interagisce con una macchina o quando consuma contenuti generati artificialmente. L'Articolo 50 impone quattro obblighi distinti, applicabili dal 2 agosto 2026:

  • I sistemi di IA destinati a interagire direttamente con persone fisiche — chatbot, assistenti vocali, agenti conversazionali — devono dichiarare la loro natura di IA, salvo che ciò sia ovvio dalle circostanze per una persona ragionevolmente informata, attenta e avveduta.
  • I fornitori di sistemi di IA che generano audio, immagini, video o testi sintetici (compresi i deepfake) devono garantire che gli output siano marcati in formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente.
  • Gli utilizzatori di sistemi di riconoscimento delle emozioni o di categorizzazione biometrica devono informare le persone fisiche esposte al funzionamento del sistema e trattare i dati personali nel rispetto delle pertinenti disposizioni.
  • Gli utilizzatori di sistemi che generano o manipolano deepfake devono dichiarare che il contenuto è stato generato o manipolato artificialmente; se il contenuto fa parte di un'opera artistica, satirica o di finzione manifestamente, l'obbligo si applica in modo proporzionato. I testi generati o manipolati da IA pubblicati per informare il pubblico su questioni di interesse pubblico devono essere divulgati come tali, salvo che il contenuto sia stato sottoposto a un processo di revisione umana o controllo editoriale e una persona fisica o giuridica detenga la responsabilità editoriale.

Per la maggior parte delle PMI questi obblighi si traducono in modifiche di interfaccia e di processo, non in fascicoli tecnici. Una nota in fondo al chatbot, una marcatura watermark o C2PA sui contenuti sintetici, una breve informativa nel flusso di onboarding di un assistente vocale: l'investimento è basso, ma deve essere sistematico.

Rischio minimo

Tutto ciò che non rientra nei tre livelli precedenti è a rischio minimo. Filtri antispam, raccomandazioni di prodotti su un sito di e-commerce, IA all'interno di videogiochi, ottimizzazione di percorsi logistici, traduzione automatica di testi non sensibili. Il Regolamento non impone alcun obbligo. L'Articolo 95 incoraggia tuttavia l'adesione volontaria a codici di condotta — un riferimento utile per i fornitori che vogliono dimostrare maturità di governance senza che ciò sia richiesto dalla legge.

Il quinto blocco: i modelli di IA per finalità generali (GPAI)

Gli Articoli da 51 a 55 introducono un regime parallelo per i modelli di IA per finalità generali. Si tratta dei modelli di base — i large language model, i grandi modelli generativi di immagini, i modelli multimodali — che possono essere adattati a una vasta gamma di compiti a valle. Gli obblighi non riguardano un singolo caso d'uso ma il modello stesso, e gravano principalmente sui fornitori del modello.

Il Regolamento distingue due livelli di GPAI. I modelli GPAI standard devono fornire documentazione tecnica conforme all'Allegato XI, fornire informazioni e documentazione ai fornitori a valle che integrano il modello (Allegato XII), adottare una politica per il rispetto del diritto d'autore dell'Unione e pubblicare una sintesi sufficientemente dettagliata dei contenuti utilizzati per l'addestramento, secondo un modello fornito dall'Ufficio per l'IA. I modelli GPAI con rischio sistemico — definiti come modelli che superano la soglia di 10^25 FLOPs di compute totale di addestramento o sono designati come tali dalla Commissione — sono soggetti a obblighi rafforzati: valutazione del modello con metodologie standard, individuazione e attenuazione dei rischi sistemici a livello dell'Unione, segnalazione di incidenti gravi all'Ufficio per l'IA e alle autorità nazionali, garanzia di un livello adeguato di cybersicurezza per il modello e per la sua infrastruttura fisica.

Per la maggior parte delle PMI europee la posizione corretta è quella di utilizzatore di GPAI, non di fornitore. Quando una PMI integra GPT-4, Claude, Mistral Large o Gemini nel proprio prodotto tramite API, non diventa fornitore del modello: continua a essere fornitore o utilizzatore del proprio sistema di IA, mentre gli obblighi sul GPAI restano in capo al laboratorio che lo ha addestrato. La conseguenza pratica è che gli obblighi della PMI riguardano due profili: l'uso corretto del modello a valle (rispetto delle istruzioni del fornitore, controllo dell'output, gestione dei dati di input) e la classificazione del proprio caso d'uso secondo i quattro livelli di rischio descritti sopra. Questi due profili coesistono — non si sostituiscono. Le obbligazioni GPAI sono applicabili dal 2 agosto 2025.

Albero decisionale: classifichi il Suo caso d'uso in 8 domande

Si applichi questo albero a ciascun sistema di IA che la Sua organizzazione sviluppa, integra o utilizza. Risponda in ordine, dall'alto verso il basso. La prima risposta affermativa fissa il livello: si fermi e applichi gli obblighi corrispondenti.

1. Il sistema rientra in una delle otto categorie di pratiche vietate dell'Articolo 5? In caso affermativo: livello Inaccettabile. Si fermi qui — il sistema non può essere immesso sul mercato dell'Unione.

2. Il sistema è un componente di sicurezza di un prodotto disciplinato dalla normativa di armonizzazione dell'Unione elencata nell'Allegato II (dispositivi medici, ascensori, giocattoli, autoveicoli, attrezzature radio), oppure il prodotto stesso è un sistema di IA che richiede valutazione di conformità da parte di terzi ai sensi di tale normativa? In caso affermativo: livello Alto rischio ai sensi dell'Articolo 6, paragrafo 1.

3. Il sistema rientra in una delle otto categorie dell'Allegato III (biometria, infrastrutture critiche, istruzione, occupazione, servizi essenziali, attività di contrasto, migrazione, giustizia e processi democratici)? In caso affermativo, valuti la deroga dell'Articolo 6, paragrafo 3: il sistema esegue solo un compito procedurale ristretto, è inteso a migliorare il risultato di un'attività umana già completata, rileva schemi decisionali senza sostituire una valutazione umana, oppure svolge un compito preparatorio? In caso negativo: livello Alto rischio. La deroga va documentata in un'apposita valutazione registrata nella banca dati UE prima dell'immissione sul mercato.

4. Il sistema interagisce direttamente con persone fisiche (chatbot, assistente vocale, agente conversazionale)? In caso affermativo: livello Rischio limitato — obbligo di dichiarare la natura di IA ai sensi dell'Articolo 50, paragrafo 1.

5. Il sistema genera o manipola contenuti audio, immagini, video o testuali sintetici, compresi deepfake? In caso affermativo: livello Rischio limitato — obbligo di marcatura leggibile dalla macchina (Articolo 50, paragrafo 2) e, per l'utilizzatore, obbligo di divulgazione (Articolo 50, paragrafo 4).

6. Il sistema svolge riconoscimento delle emozioni o categorizzazione biometrica al di fuori dei divieti dell'Articolo 5? In caso affermativo: livello Rischio limitato — obbligo di informare le persone fisiche esposte (Articolo 50, paragrafo 3).

7. Il sistema integra un modello GPAI di terzi (OpenAI, Anthropic, Google, Mistral, Meta o altri)? In caso affermativo: oltre alla classificazione del caso d'uso ai punti precedenti, la Sua organizzazione è un utilizzatore di GPAI. Si attenga alle istruzioni e alla documentazione tecnica fornite dal fornitore del modello e tracci il flusso dei dati di input e di output. Se la Sua organizzazione modifica sostanzialmente il modello («fine-tuning» oltre il consentito dalle clausole del fornitore, ricomposizione dei pesi), valuti il rischio di essere riqualificata come fornitore ai sensi dell'Articolo 25.

8. Nessuna delle precedenti? Livello Rischio minimo. Nessun obbligo obbligatorio; valuti l'adesione volontaria al codice di condotta dell'Articolo 95 come segnale di maturità di governance.

Esempio pratico A. Una PMI HR-tech milanese di 50 dipendenti integra GPT-4o per la preselezione dei curriculum dei candidati ricevuti via piattaforma. Domanda 1: nessuna pratica vietata. Domanda 2: non è un componente di sicurezza di un prodotto Allegato II. Domanda 3: il caso d'uso ricade nella categoria 4 dell'Allegato III (occupazione e gestione dei lavoratori). La deroga dell'Articolo 6, paragrafo 3 non si applica — la valutazione dei candidati non è un compito puramente procedurale né preparatorio. Risultato: livello Alto rischio. Si applicano gli obblighi degli Articoli da 9 a 49. La PMI è anche utilizzatore di un GPAI di terzi e deve rispettare le istruzioni di OpenAI nonché tracciare i dati trattati.

Esempio pratico B. Un'agenzia di marketing veronese di 12 persone usa Midjourney per generare immagini promozionali per i clienti. Domanda 1: nessuna pratica vietata. Domanda 2: non è un componente di sicurezza. Domanda 3: nessuna categoria dell'Allegato III si applica. Domanda 5: il sistema genera contenuti sintetici. Risultato: livello Rischio limitato. L'agenzia, in qualità di utilizzatore, deve dichiarare nei materiali di consegna ai clienti che le immagini sono state generate da IA, e gli output devono essere marcati in formato leggibile dalla macchina ai sensi dell'Articolo 50, paragrafo 2 (obbligo che ricade in primis sul fornitore del modello, ma l'utilizzatore ne verifica l'attivazione).

Errori di classificazione frequenti

Dopo aver supportato decine di PMI europee nella classificazione dei loro sistemi di IA negli ultimi mesi, abbiamo individuato cinque trappole ricorrenti. Sono errori che, se non corretti, espongono l'organizzazione a sanzioni evitabili.

Trappola 1: «Usiamo solo ChatGPT»

La frase più comune e più pericolosa. Usare un'API di OpenAI o di un altro fornitore non riduce la classificazione del Suo caso d'uso. Si applicano contemporaneamente due regimi: il regime GPAI (in capo al fornitore del modello, con obblighi residui di uso corretto in capo all'utilizzatore) e la classificazione del caso d'uso secondo i quattro livelli di rischio. Una PMI che integra ChatGPT in un sistema di screening dei CV non ha «un sistema GPAI» — ha un sistema ad alto rischio costruito su un GPAI. Gli obblighi degli Articoli da 9 a 49 si applicano al sistema integrato, non al modello sottostante.

Trappola 2: «È solo per uso interno»

L'uso interno non riduce il livello di rischio. Lo screening dei CV è ad alto rischio sia che il sistema sia rivolto al pubblico sia che venga utilizzato esclusivamente dal team HR interno. Il monitoraggio delle prestazioni dei dipendenti è ad alto rischio anche se la dashboard è visibile solo al direttore delle risorse umane. Il Regolamento guarda alla finalità e all'effetto sulle persone, non al perimetro di chi può accedere all'interfaccia. Stessa logica per i prodotti distribuiti gratuitamente, per i progetti pilota e per i proof of concept: la fase di sperimentazione interna gode di un'esenzione molto limitata ai sensi dell'Articolo 2, paragrafo 8 — vale solo per attività di ricerca e sviluppo prima dell'immissione sul mercato e non copre l'utilizzo operativo.

Trappola 3: «Non abbiamo addestrato il modello, quindi non siamo fornitori»

Di solito è vero — chi integra un modello di terzi tramite API o licenza è un utilizzatore, non un fornitore. Tuttavia l'Articolo 25 prevede che chi apporta una modifica sostanziale a un sistema di IA già immesso sul mercato — anche un GPAI — assume gli obblighi di fornitore di quel sistema modificato. La soglia per la «modifica sostanziale» non è definita con precisione nel Regolamento, ma le linee guida emergenti dell'Ufficio per l'IA suggeriscono che il fine-tuning su un dataset proprietario, l'aggiunta di guardrail che alterano il comportamento del modello in modo materiale, o la ricomposizione di pesi attraverso tecniche come la distillazione possano superare quella soglia. Se la Sua organizzazione modifica un GPAI oltre la semplice fornitura di prompt e contesto, è opportuno svolgere una valutazione documentata della propria posizione di fornitore.

Trappola 4: confondere rischio limitato e rischio minimo nei chatbot

Un chatbot di assistenza clienti che risponde a domande su orari, prodotti e prezzi sembra inoffensivo, e molte aziende lo classificano come rischio minimo. È un errore. L'Articolo 50, paragrafo 1 si applica a qualsiasi sistema di IA destinato a interagire direttamente con persone fisiche — inclusi i chatbot transazionali. L'unica esenzione è quando la natura di IA è ovvia per una persona ragionevolmente informata «alla luce delle circostanze e del contesto d'uso». Un chatbot integrato in un'interfaccia di assistenza clienti senza alcuna marcatura specifica non rispetta questa soglia: l'utente medio può ragionevolmente credere di parlare con un operatore umano. Aggiunga una dichiarazione esplicita all'inizio della conversazione e nella firma di ogni risposta — è un investimento di poche ore di lavoro che chiude un'esposizione regolamentare reale.

Trappola 5: dimenticare la sovrapposizione con il GDPR

Il Regolamento sull'IA non sostituisce il GDPR — vi si sovrappone. L'Articolo 22 del GDPR vieta le decisioni basate unicamente su trattamento automatizzato, quando producono effetti giuridici o significativi su una persona. Le eccezioni sono limitate (consenso esplicito, contratto, autorizzazione di legge) e l'interessato mantiene comunque il diritto di chiedere l'intervento umano. Quando un sistema rientra nel livello Alto rischio dell'AI Act (per esempio uno scoring creditizio) e tratta dati personali per produrre decisioni automatizzate, si applicano contemporaneamente entrambi i regimi. Gli obblighi del GDPR sulla DPIA, sulla base giuridica, sull'informativa e sui diritti degli interessati restano in vigore in parallelo agli obblighi dell'AI Act sul sistema di gestione del rischio, sulla sorveglianza umana e sulla documentazione tecnica. La sovrapposizione non è teorica: l'autorità garante per la protezione dei dati personali e l'autorità di vigilanza del mercato per l'IA possono entrambe svolgere accertamenti sullo stesso sistema. Il Suo fascicolo deve resistere a entrambi i punti di vista.

Checklist di conformità per livello

Una volta classificato il sistema, gli obblighi diventano operativi. Quanto segue è la checklist livello per livello con i riferimenti agli articoli, da utilizzare come base per il proprio piano di conformità.

Inaccettabile — fermarsi e riprogettare

Se il sistema ricade in una pratica vietata dell'Articolo 5, non vi sono opzioni. Il sistema va ritirato dall'immissione sul mercato e dalla messa in servizio. Riprogettare il caso d'uso in modo da uscire dal perimetro vietato — per esempio sostituendo il riconoscimento delle emozioni con tecniche di analisi del sentiment basate su testo esplicitamente fornito dall'utente — è l'unica via percorribile. Si documenti la decisione e il percorso di sostituzione: serve a dimostrare diligenza in caso di accertamenti.

Alto rischio — tredici azioni con riferimenti normativi

  • Sistema di gestione del rischio (Articolo 9): processo iterativo, pianificato e documentato che copre l'intero ciclo di vita del sistema, con identificazione, stima e valutazione dei rischi noti e ragionevolmente prevedibili.
  • Governance dei dati (Articolo 10): pratiche di governance e gestione dei dati di addestramento, convalida e prova; rilevanza, rappresentatività, esattezza e completezza dei dati; esame in vista di eventuali distorsioni che potrebbero portare a discriminazione.
  • Documentazione tecnica (Articolo 11): redatta prima dell'immissione sul mercato e tenuta aggiornata, conforme all'Allegato IV, sufficiente a dimostrare la conformità del sistema.
  • Conservazione dei registri (Articolo 12): capacità di registrazione automatica di eventi (log) per l'intera durata di vita del sistema, conservati per un periodo adeguato alla finalità.
  • Trasparenza e fornitura di informazioni agli utilizzatori (Articolo 13): istruzioni per l'uso comprensibili contenenti tutte le informazioni utili all'utilizzatore per usare il sistema in modo conforme, comprese caratteristiche, capacità e limiti delle prestazioni.
  • Sorveglianza umana (Articolo 14): misure tecniche e organizzative incorporate nel sistema o messe a disposizione dell'utilizzatore che permettano una supervisione efficace da parte di persone fisiche durante l'uso.
  • Accuratezza, robustezza e cybersicurezza (Articolo 15): livelli adeguati di accuratezza, robustezza e cybersicurezza per l'intero ciclo di vita; resistenza a errori, guasti e tentativi di manipolazione.
  • Sistema di gestione della qualità (Articolo 17): istituito da fornitori e documentato in modo sistematico, comprensivo di strategia, procedure, esame, verifica e convalida della conformità.
  • Valutazione di conformità (Articolo 43): condotta secondo le procedure dell'Allegato VI (controllo interno) o dell'Allegato VII (con organismo notificato) prima dell'immissione sul mercato, in funzione della categoria del sistema.
  • Marcatura CE (Articolo 48): apposta sul sistema in modo visibile, leggibile e indelebile, accompagnata dal numero di identificazione dell'organismo notificato quando previsto.
  • Registrazione nella banca dati UE (Articolo 49): iscrizione del sistema e del fornitore nella banca dati gestita dalla Commissione prima dell'immissione sul mercato.
  • Sorveglianza post-commercializzazione (Articolo 72): sistema documentato di raccolta, documentazione e analisi dei dati di funzionamento del sistema, proporzionato alla natura del sistema e ai rischi.
  • Notifica di incidenti gravi (Articolo 73): segnalazione all'autorità di vigilanza del mercato dello Stato membro in cui si è verificato l'incidente, immediatamente dopo che il fornitore ha stabilito un nesso causale, e in ogni caso entro 15 giorni.

Rischio limitato — dichiarazione di trasparenza

Per i sistemi a rischio limitato l'unico obbligo sostanziale è la trasparenza ai sensi dell'Articolo 50. La Sua checklist contiene quattro voci: dichiarazione esplicita della natura di IA nei sistemi conversazionali (paragrafo 1); marcatura leggibile dalla macchina degli output sintetici (paragrafo 2); informativa alle persone esposte a riconoscimento delle emozioni o categorizzazione biometrica con relativa base giuridica per il trattamento (paragrafo 3); divulgazione dei deepfake e dei testi generati da IA su questioni di interesse pubblico (paragrafo 4). Si documenti dove e come ciascuna dichiarazione viene mostrata — interfaccia, metadata, materiali di consegna — in modo da poter dimostrare l'adempimento agli accertamenti.

Rischio minimo — adesione volontaria

Nessun obbligo obbligatorio. L'Articolo 95 incoraggia l'adesione a codici di condotta volontari elaborati dall'Ufficio per l'IA, da fornitori o da organismi rappresentativi. È un riferimento utile per i fornitori che vogliono dimostrare maturità di governance — segnatamente in trattative B2B in cui i clienti chiedono evidenze di conformità — anche in assenza di un mandato di legge.

Fornitori GPAI — obblighi orizzontali

Se la Sua organizzazione addestra direttamente un modello GPAI o supera la soglia della modifica sostanziale ai sensi dell'Articolo 25, gli obblighi orizzontali GPAI si applicano in aggiunta alla classificazione del caso d'uso. La checklist comprende: documentazione tecnica del modello conforme all'Allegato XI; informazioni e documentazione fornite ai fornitori a valle ai sensi dell'Allegato XII; politica di rispetto del diritto d'autore dell'Unione; sintesi dettagliata dei contenuti utilizzati per l'addestramento secondo il modello fornito dall'Ufficio per l'IA. Per i modelli GPAI con rischio sistemico si aggiungono valutazione del modello con metodologie standard, individuazione e attenuazione dei rischi, segnalazione di incidenti gravi e garanzie di cybersicurezza adeguate.

Calendario delle scadenze

Il Regolamento entra in applicazione per fasi successive. Annoti queste cinque date e allinei a esse il piano interno.

  • 2 febbraio 2025 — Capo I (disposizioni generali) e Capo II (pratiche vietate, Articolo 5) applicabili. I divieti sono già operativi e le sanzioni esigibili. Gli obblighi sull'alfabetizzazione in materia di IA (Articolo 4) decorrono da questa data.
  • 2 agosto 2025 — Capo III, Sezione 4 (autorità di notifica e organismi notificati), Capo V (modelli GPAI), Capo VII (governance), Capo XII (sanzioni, esclusi gli obblighi del Capo III) e Articolo 78 (riservatezza) applicabili. I fornitori di GPAI esistenti hanno tempo fino al 2 agosto 2027 per conformarsi.
  • 2 febbraio 2026 — La Commissione adotta atti di esecuzione e linee guida sui sistemi ad alto rischio (a oggi attesi). Gli Stati membri designano le autorità competenti.
  • 2 agosto 2026 — La maggior parte degli obblighi del Regolamento diventa applicabile, compresi gli obblighi sui sistemi ad alto rischio dell'Allegato III, gli obblighi di trasparenza dell'Articolo 50 e l'intero quadro sanzionatorio. È la data sulla quale dovrà essere allineato l'inventario completo dei sistemi e il fascicolo di conformità.
  • 2 agosto 2027 — Gli obblighi sui sistemi ad alto rischio per componenti di sicurezza di prodotti coperti dalla normativa di armonizzazione dell'Allegato II diventano applicabili. I fornitori di GPAI immessi sul mercato prima del 2 agosto 2025 devono essersi adeguati entro questa data.

Cosa fare questo trimestre

Tradurre il Regolamento in un piano operativo per la Sua PMI è un esercizio di novanta giorni. Il modello che proponiamo è un classico 30/60/90, calibrato sul fatto che la maggior parte degli obblighi sostanziali scatta il 2 agosto 2026.

Giorni 1-30 — Inventario e classificazione iniziale. Censisca ogni sistema di IA in uso o in sviluppo nella Sua organizzazione. Per ciascuno registri: finalità, categorie di dati trattati, fornitore del modello sottostante, utilizzatore interno responsabile. Faccia passare ogni sistema attraverso l'albero decisionale a otto domande. Documenti il livello assegnato e il razionale. A fine mese deve avere un inventario completo con la classificazione preliminare.

Giorni 31-60 — Validazione e gap analysis. Per ogni sistema classificato come Alto rischio, mappi gli obblighi degli Articoli da 9 a 49 sui controlli e sui documenti già esistenti nella Sua organizzazione. Identifichi le lacune. Per i sistemi Rischio limitato verifichi le interfacce e i materiali di consegna. Per i sistemi che integrano GPAI di terzi, raccolga la documentazione tecnica e le istruzioni dei fornitori e ne verifichi la conformità all'Allegato XII. A fine mese deve avere una gap analysis quantificata: numero di obblighi soddisfatti, parzialmente soddisfatti, da implementare.

Giorni 61-90 — Piano di rimedio e governance. Trasformi la gap analysis in un piano di rimedio con responsabili, scadenze e budget. Istituisca o formalizzi il presidio interno sull'IA — un comitato che si riunisce almeno trimestralmente, con rappresentanti di legale, IT, sicurezza, prodotto e operations. Avvii la formazione sull'alfabetizzazione in materia di IA prevista dall'Articolo 4 — è un obbligo applicabile dal 2 febbraio 2025 e spesso trascurato. A fine trimestre deve avere un piano di rimedio con priorità chiare e una governance permanente che porti la conformità all'orizzonte del 2 agosto 2026.

Verifica la tua prontezza alla conformità

Esegui la nostra valutazione gratuita di prontezza a GDPR, NIS2 e Regolamento IA e ricevi raccomandazioni personalizzate in pochi minuti.

Avvia la valutazione gratuita

EU Compliance Weekly

Get the latest regulatory updates, compliance tips, and enforcement news delivered to your inbox every week.

We respect your privacy. Unsubscribe anytime.