Guida alla conformità al Regolamento UE sull'IA per le imprese extra-UE: obblighi, classificazione dei rischi e regime sanzionatorio
Guida di livello professionale alla conformità al Regolamento UE sull'IA (Regolamento (UE) 2024/1689) per le imprese extra-UE che utilizzano, distribuiscono o commercializzano sistemi di IA nei mercati europei. Classificazione dei rischi, obblighi di fornitori e deployer, valutazioni di conformità, pratiche vietate e applicazione da parte dell'Ufficio IA dell'UE — con raccomandazioni operative per direttori legali, CTO e Chief Compliance Officer.
Morvantine Legal Editorial Team
20 October 2025
Guida alla conformità al Regolamento UE sull'IA per le imprese extra-UE: obblighi, classificazione dei rischi e regime sanzionatorio
Il Regolamento (UE) 2024/1689 — il Regolamento europeo sull'intelligenza artificiale (AI Act) — è entrato in vigore il 1° agosto 2024 e da allora si è applicato in modo progressivo. Il 2 febbraio 2025 è diventato eseguibile il divieto delle pratiche di IA a rischio inaccettabile. Il 2 agosto 2025 è diventato operativo il quadro normativo sui modelli di IA per uso generale (GPAI) e l'architettura istituzionale dell'Ufficio IA dell'UE. Gli obblighi applicabili ai sistemi di IA ad alto rischio di cui all'Allegato III sono entrati in vigore a partire dal 2 agosto 2026. Il direttore legale o il responsabile della conformità di qualsiasi organizzazione che sviluppa, distribuisce o commercializza prodotti di IA nei mercati UE non può più trattare l'AI Act come una normativa futura. Si tratta di diritto vigente con meccanismi di applicazione attivi.
La caratteristica strutturale più rilevante dell'AI Act — e la meno compresa dalle imprese extra-UE — è la sua portata extraterritoriale. A differenza della prima generazione di regolamentazione UE sui prodotti, che conseguiva effetti extraterritoriali principalmente attraverso condizioni di accesso al mercato, l'AI Act impone espressamente obblighi a soggetti stabiliti al di fuori dell'Unione europea. Il presente articolo offre un'analisi di livello professionale di tali obblighi, del sistema di classificazione dei rischi che ne determina il perimetro, delle distinte posizioni di conformità richieste ai fornitori rispetto ai deployer, del procedimento di valutazione della conformità e dei meccanismi di applicazione ora operativi presso l'Ufficio IA dell'UE.
Portata extraterritoriale: chi è soggetto al Regolamento e perché
Il campo di applicazione geografico dell'AI Act è definito dall'articolo 2, paragrafo 1, che stabilisce quattro distinti criteri di competenza giurisdizionale. Il Regolamento si applica:
(a) ai fornitori che immettono sistemi di IA sul mercato UE o li mettono in servizio nell'UE, a prescindere dal fatto che tali fornitori siano stabiliti nell'UE;
(b) ai fornitori e ai deployer di sistemi di IA stabiliti nell'UE;
(c) ai fornitori di sistemi di IA stabiliti in un paese terzo quando l'output prodotto dal sistema è utilizzato nell'UE; e
(d) ai deployer di sistemi di IA stabiliti in un paese terzo quando l'output prodotto dal sistema è utilizzato nell'UE.
La conseguenza pratica è identica per un'azienda tecnologica statunitense che offre una piattaforma di selezione del personale basata su IA, un produttore giapponese che vende un sistema di controllo qualità mediante visione artificiale o una fintech canadese che fornisce decisioni di credito mediante IA a istituti di credito europei: se l'output del sistema di IA è utilizzato nell'UE, l'azienda rientra nel perimetro regolatorio dell'AI Act — indipendentemente da dove è costituita, da dove si trovano i suoi server o dall'assenza di qualsiasi stabilimento nell'UE.
Questa architettura non si limita a riprodurre l'approccio di «targeting» dell'articolo 3, paragrafo 2, del GDPR. Per certi versi è più ampia: l'AI Act non richiede il targeting attivo di utenti UE. Il criterio determinante è l'utilizzo dell'output nell'UE. Un sistema sviluppato e gestito interamente in un paese terzo, venduto a un'azienda con sede nell'UE e i cui output sono fruiti da dipendenti o clienti residenti nell'UE, attiva le disposizioni extraterritoriali anche se il fornitore extra-UE non ha mai considerato l'UE come mercato principale.
Il quadro dell'articolo 2 impone obblighi anche agli importatori (articolo 23) — soggetti stabiliti nell'UE che immettono sul mercato UE sistemi di IA recanti il nome o il marchio di un soggetto stabilito al di fuori dell'UE — e ai distributori (articolo 24). Per i fornitori extra-UE, l'importatore assume una quota rilevante degli obblighi di conformità che altrimenti incomberebbero al fornitore, tra cui la verifica che il fornitore abbia effettuato la valutazione di conformità richiesta, che il sistema di IA rechi la marcatura CE ove previsto e che la documentazione tecnica richiesta dall'articolo 11 sia disponibile. Ciò crea una dipendenza di conformità nella catena di approvvigionamento: i fornitori extra-UE che intendono mantenere i propri importatori UE come partner distributivi validi devono consegnare sistemi e documentazione conformi.
L'AI Act prevede un'esenzione limitata all'articolo 2, paragrafo 2, per i sistemi di IA immessi sul mercato, messi in servizio o utilizzati esclusivamente per finalità militari, di sicurezza nazionale o di difesa. Anche le attività di ricerca scientifica e sviluppo sono escluse ai sensi dell'articolo 2, paragrafo 6, a determinate condizioni. Tali esclusioni sono restrittive e richiedono una dimostrazione positiva — non si applicano automaticamente ai sistemi di IA a duplice uso con applicazioni sia civili sia di difesa.
Classificazione basata sul rischio: l'architettura degli obblighi
Gli obblighi di conformità dell'AI Act non sono uniformi. Sono calibrati in funzione di una classificazione del rischio su quattro livelli che determina quali obblighi si applicano, con quale intensità e con quali conseguenze sanzionatorie. La classificazione è determinata dallo scopo previsto del sistema e dal caso d'uso in cui è dispiegato — non dalla tecnologia in sé né dalla descrizione commerciale.
Il quadro di classificazione del rischio
| Livello di rischio | Trattamento normativo | Esempi | Principali disposizioni applicabili |
|---|---|---|---|
| Inaccettabile (Vietato) | Divieto assoluto — immissione sul mercato, messa in servizio e utilizzo sono tutti vietati | Identificazione biometrica remota in tempo reale in spazi pubblici (con limitate eccezioni); scoring sociale da parte di autorità pubbliche; manipolazione subliminale; sfruttamento delle vulnerabilità di gruppi specifici; polizia predittiva basata esclusivamente sulla profilazione; IA che inferisce attributi sensibili da dati biometrici a fini di contrasto | Articolo 5; sanzioni fino a 35 milioni di € o il 7% del fatturato globale annuo |
| Alto rischio (Allegato I — Sicurezza dei prodotti) | Valutazione di conformità completa; marcatura CE; coinvolgimento obbligatorio di un organismo notificato per determinate categorie | IA come componente di sicurezza in: dispositivi medici (Regolamento (UE) 2017/745); dispositivi medico-diagnostici in vitro (Regolamento (UE) 2017/746); aviazione (Regolamento (UE) 2018/1139); macchinari (Regolamento (UE) 2023/1230); automotive (regolamenti ECE) | Articoli 8–25; Capitolo I, Titolo III; Allegato I |
| Alto rischio (Allegato III — Caso d'uso) | Valutazione di conformità (principalmente interna, alcune di terzi); registrazione nella banca dati UE; sorveglianza post-commercializzazione | Sistemi di identificazione biometrica; IA nella gestione di infrastrutture critiche; valutazione in istruzione e formazione professionale; occupazione, gestione delle risorse umane e dei lavoratori; accesso ai servizi essenziali (credito, assicurazioni, prestazioni pubbliche); contrasto; migrazione/asilo/controllo delle frontiere; amministrazione della giustizia; processi democratici | Articoli 8–25; Capitolo II, Titolo III; Allegato III |
| Modelli GPAI | Documentazione tecnica; conformità sul diritto d'autore; trasparenza; misure sui rischi sistemici per modelli con ≥10²⁵ FLOPs | Grandi modelli linguistici, modelli fondazionali multimodali (serie GPT, Gemini, Claude, Llama, Mistral) | Articoli 51–56; Capitolo II, Titolo VIII |
| Rischio limitato (Trasparenza) | Solo obblighi di divulgazione | Chatbot; sistemi di riconoscimento delle emozioni; categorizzazione biometrica; deepfake e media sintetici | Articolo 50 |
| Rischio minimo | Nessun obbligo obbligatorio (codici di condotta volontari incoraggiati) | Filtri antispam con IA, IA nei videogiochi, sistemi di raccomandazione di base senza impatto materiale sulle decisioni | Articolo 95 (misure volontarie) |
Allegato III: i casi d'uso che riguardano la maggior parte delle imprese extra-UE
L'elenco dell'Allegato III è il riferimento pratico per la maggior parte delle aziende tecnologiche extra-UE. Comprende otto settori, all'interno di ciascuno dei quali specifici casi d'uso sono designati come ad alto rischio:
1. Identificazione e categorizzazione biometrica — sistemi di IA destinati all'identificazione biometrica remota di persone fisiche, ad eccezione della verifica in cui una persona fisica conferma la propria identità. Questo comprende i sistemi di riconoscimento facciale utilizzati per l'onboarding dei clienti, la verifica dell'identità nei servizi finanziari e il controllo degli accessi.
2. Infrastrutture critiche — sistemi di IA destinati a fungere da componenti di sicurezza nella gestione o nel funzionamento di infrastrutture digitali critiche, del traffico stradale e dei sistemi energetici, idrici, del gas e del riscaldamento. I fornitori di servizi cloud che offrono servizi di infrastruttura gestita da IA agli operatori di servizi essenziali dell'UE rientrano in questa categoria.
3. Istruzione e formazione professionale — sistemi di IA utilizzati per determinare l'accesso o l'assegnazione a istituti di istruzione, valutare i risultati di apprendimento e monitorare gli studenti durante le prove d'esame. Le aziende EdTech con clienti istituzionali nell'UE devono classificare la loro IA di valutazione e sorveglianza degli esami come ad alto rischio.
4. Occupazione, gestione dei lavoratori e accesso al lavoro autonomo — sistemi di IA utilizzati per la selezione e il reclutamento, la valutazione delle prestazioni e dei comportamenti, le decisioni di promozione e l'assegnazione di compiti in base al comportamento o alle caratteristiche della personalità individuali. Le piattaforme di IA per le risorse umane — sistemi di tracciamento dei candidati con scoring IA, strumenti di gestione delle prestazioni, IA per la pianificazione della forza lavoro — rientrano direttamente nell'ambito di applicazione. Questa è la categoria che genera il maggiore interesse applicativo nel 2025–2026.
5. Accesso a servizi privati essenziali e prestazioni — sistemi di IA utilizzati da istituti di credito, imprese assicurative e autorità preposte alle prestazioni pubbliche per valutare il merito creditizio, il rischio assicurativo e determinare l'accesso a prestazioni pubbliche e servizi di emergenza. Lo scoring creditizio mediante IA è l'applicazione commercialmente più significativa in questa categoria.
6. Contrasto — IA utilizzata per valutazioni del rischio individuale, rilevatori di bugie, valutazione dell'affidabilità delle prove, valutazione del rischio di recidiva e profilazione criminale. Limitata alle autorità pubbliche nella maggior parte degli Stati membri, ma i fornitori di tali sistemi alle forze dell'ordine dell'UE assumono gli obblighi del fornitore.
7. Gestione della migrazione, dell'asilo e del controllo delle frontiere — IA utilizzata per la lavorazione delle domande di migrazione, la valutazione delle minacce alla sicurezza o alla salute, il processo decisionale automatizzato nel trattamento dei visti e il monitoraggio delle frontiere UE.
8. Amministrazione della giustizia e processi democratici — IA utilizzata per assistere i tribunali, applicare il diritto ai fatti e influenzare i risultati elettorali. Gli strumenti di ricerca giuridica basati su IA dispiegati da tribunali dell'UE o in procedimenti giudiziari nell'UE rientrano nell'ambito di applicazione.
Obblighi dei fornitori rispetto ai deployer: una distinzione strutturale
L'AI Act introduce una distinzione normativa fondamentale tra fornitori — soggetti che sviluppano un sistema di IA e lo immettono sul mercato o lo mettono in servizio — e deployer — soggetti che utilizzano un sistema di IA sotto la propria responsabilità per scopi professionali. Per le imprese extra-UE, comprendere quale ruolo si applica in ciascuna configurazione della catena di approvvigionamento è essenziale, poiché l'onere di conformità è sostanzialmente asimmetrico.
Obblighi del fornitore (articoli 8–25)
I fornitori di sistemi di IA ad alto rischio sopportano gli obblighi primari e più impegnativi ai sensi dell'AI Act. Per i fornitori extra-UE, tali obblighi sorgono ai sensi dell'articolo 2, paragrafo 1, lettere a) e c), e non possono essere trasferiti contrattualmente ai deployer stabiliti nell'UE (sebbene gli importatori condividano alcuni obblighi ai sensi dell'articolo 23).
I principali obblighi del fornitore sono:
Sistema di gestione dei rischi (articolo 9): Un processo continuo e iterativo di gestione dei rischi che identifichi i rischi ragionevolmente prevedibili per la salute, la sicurezza e i diritti fondamentali; stimi e valuti tali rischi; adotti misure di attenuazione; e documenti i rischi residui. Non si tratta di una valutazione dei rischi una tantum, bensì di un sistema operativo che deve restare aggiornato per tutto il ciclo di vita del sistema di IA.
Dati e governance dei dati (articolo 10): I sistemi di IA ad alto rischio che utilizzano dati di addestramento devono essere addestrati, convalidati e testati con dati che rispettino criteri di qualità relativi a pertinenza, rappresentatività, assenza di errori e completezza. I requisiti di governance dei dati dell'AI Act impongono obblighi espliciti di esaminare i dati di addestramento per potenziali distorsioni. Per i sistemi di IA addestrati su dataset che includono dati personali di residenti nell'UE, la sovrapposizione con i requisiti DPIA del GDPR ai sensi dell'articolo 35 GDPR richiede un quadro di conformità coordinato.
Documentazione tecnica (articolo 11 e Allegato IV): I fornitori devono predisporre e mantenere la documentazione tecnica prima di immettere sul mercato un sistema di IA ad alto rischio. L'Allegato IV specifica il contenuto obbligatorio: descrizione del sistema e scopo previsto; elementi e architettura; processo di sviluppo e metodologie di addestramento; metriche e soglie di prestazione; rischi noti; misure di accuratezza, robustezza e sicurezza informatica; piano di sorveglianza post-commercializzazione. Per i fornitori extra-UE che riforniscono importatori nell'UE, tale documentazione deve essere resa disponibile alle autorità nazionali di vigilanza del mercato e all'Ufficio IA dell'UE su richiesta.
Registrazione automatica (articolo 12): I sistemi di IA ad alto rischio devono essere progettati per generare automaticamente log del loro funzionamento — registrando almeno il periodo di ciascun utilizzo, i dati di input e qualsiasi output decisionale — nella misura in cui sia tecnicamente fattibile. Tali log costituiscono la principale pista di audit per il monitoraggio post-distribuzione e le indagini di applicazione.
Trasparenza e informazione ai deployer (articolo 13): I sistemi di IA ad alto rischio devono essere progettati in modo che il loro funzionamento sia sufficientemente trasparente da consentire ai deployer di interpretare l'output del sistema e di utilizzarlo in modo appropriato. Le istruzioni per l'uso — che devono accompagnare ogni sistema di IA ad alto rischio — devono contenere informazioni specifiche sullo scopo previsto del sistema, il livello di prestazione, gli scenari di uso improprio prevedibili, le misure tecniche a disposizione dei deployer e le misure di supervisione umana richieste.
Supervisione umana (articolo 14): I sistemi di IA ad alto rischio devono essere progettati in modo da consentire un'efficace supervisione umana da parte di persone fisiche durante il periodo di utilizzo. Si tratta di un requisito di progettazione con contenuto sostanziale: il sistema deve essere progettato in modo che la persona responsabile della supervisione possa comprendere le capacità e i limiti del sistema, rilevare anomalie e malfunzionamenti, e intervenire per ignorare, interrompere o arrestare il sistema. Il requisito di supervisione umana ai fini dell'AI Act si interseca con il requisito di intervento umano nel processo decisionale automatizzato di cui all'articolo 22, paragrafo 3, del GDPR, senza tuttavia essere identico ad esso — entrambi devono essere soddisfatti contemporaneamente per i sistemi di IA che producono effetti giuridici o di portata analoga su persone fisiche.
Accuratezza, robustezza e sicurezza informatica (articolo 15): I sistemi di IA ad alto rischio devono raggiungere livelli adeguati di accuratezza, robustezza e sicurezza informatica per tutto il loro ciclo di vita. Le metriche e le soglie di accuratezza devono essere dichiarate nella documentazione tecnica. Il Regolamento richiede che i sistemi mantengano prestazioni coerenti di fronte a variazioni prevedibili nei dati di input e siano resilienti agli attacchi avversariali.
Sistema di gestione della qualità (articolo 17): I fornitori devono implementare un sistema di gestione della qualità che copra l'intero ciclo di vita dei loro sistemi di IA ad alto rischio: sviluppo, test, valutazione di conformità, sorveglianza post-commercializzazione e gestione delle non conformità. Il SGQ deve essere proporzionato alle dimensioni e alla natura del fornitore; per i fornitori di più sistemi di IA ad alto rischio, il Regolamento incoraggia un quadro SGQ unificato.
Valutazione di conformità (articolo 43): Prima che un sistema di IA ad alto rischio possa essere immesso sul mercato UE o messo in servizio, il fornitore deve completare una valutazione di conformità che dimostri che il sistema soddisfa i requisiti degli articoli 8–15. Per la maggior parte dei sistemi dell'Allegato III, si tratta di una valutazione di conformità interna basata sulle proprie procedure documentate del fornitore; la valutazione di terzi tramite un organismo notificato è obbligatoria per i sistemi di identificazione biometrica (con limitate eccezioni) e per i sistemi di IA che costituiscono componenti di sicurezza di prodotti regolamentati ai sensi della legislazione dell'Allegato I. Al termine, il fornitore deve redigere la Dichiarazione UE di conformità ai sensi dell'articolo 47 e apporre la marcatura CE ai sensi dell'articolo 48.
Registrazione nella banca dati IA dell'UE (articolo 49): I fornitori di sistemi di IA ad alto rischio elencati nell'Allegato III devono registrare il sistema nell'apposita banca dati pubblica IA mantenuta dall'UE prima di immetterlo sul mercato. La banca dati registra lo scopo previsto del sistema, le metriche di accuratezza e prestazione, la procedura di valutazione di conformità utilizzata e il piano di sorveglianza post-commercializzazione.
Obblighi del deployer (articolo 26)
I deployer di sistemi di IA ad alto rischio sopportano un insieme di obblighi materialmente meno oneroso, ma non trascurabile. Per le imprese extra-UE che dispiegano — piuttosto che sviluppano — sistemi di IA per uso professionale orientato all'UE, l'articolo 26 definisce il livello minimo di conformità:
- Utilizzare il sistema di IA conformemente alle istruzioni per l'uso fornite dal fornitore (articolo 26, paragrafo 1).
- Garantire che le persone fisiche responsabili della supervisione umana abbiano la competenza, la formazione e l'autorità necessarie per esercitare efficacemente la supervisione (articolo 26, paragrafo 2).
- Monitorare il funzionamento del sistema di IA sulla base delle istruzioni per l'uso e segnalare incidenti gravi al fornitore e all'autorità nazionale competente pertinente (articolo 26, paragrafo 5).
- Effettuare una valutazione dell'impatto sui diritti fondamentali (VDIF) prima di dispiegare un sistema di IA ad alto rischio in casi d'uso riguardanti il contrasto, la migrazione, l'amministrazione della giustizia, i servizi privati essenziali e l'occupazione (articolo 27, applicabile agli organismi di diritto pubblico e ad alcuni deployer privati).
- Informare i rappresentanti dei lavoratori e i lavoratori interessati prima di dispiegare sistemi di IA nel contesto dell'occupazione e della gestione dei lavoratori (articolo 26, paragrafo 7).
L'obbligo del deployer di segnalare incidenti gravi crea un'importante dipendenza nella catena di approvvigionamento: i deployer extra-UE devono mantenere la capacità operativa di identificare, valutare e segnalare incidenti riguardanti utenti residenti nell'UE o operazioni orientate all'UE entro i termini specificati dalle autorità nazionali competenti degli Stati membri in cui l'incidente viene segnalato.
Quando cambia il confine tra fornitore e deployer
L'AI Act contiene una disposizione cruciale — l'articolo 25, paragrafo 1 — in base alla quale un deployer diventa fornitore ai fini normativi quando:
- immette sul mercato un sistema di IA ad alto rischio sotto il proprio nome o marchio;
- modifica un sistema di IA ad alto rischio esistente in modo sufficientemente sostanziale da modificarne lo scopo previsto; o
- modifica un sistema di IA non classificato ad alto rischio in modo tale che diventi ad alto rischio.
Per le imprese extra-UE che rivendono sistemi di IA con il proprio marchio (white-label), che effettuano il fine-tuning di modelli fondazionali su dati proprietari per specifici casi d'uso orientati all'UE, o che integrano componenti IA in prodotti commercializzati con il proprio marchio nell'UE, l'articolo 25, paragrafo 1, rappresenta una trappola di riclassificazione. L'analisi degli obblighi non segue la struttura societaria della catena di approvvigionamento — segue la questione di chi plasma sostanzialmente il sistema di IA che raggiunge il mercato UE.
Valutazioni di conformità: procedimento e implicazioni pratiche
Il procedimento di valutazione della conformità è il fulcro procedurale dell'architettura di conformità dell'AI Act. Il suo scopo è stabilire, prima della distribuzione, che un sistema di IA ad alto rischio soddisfi i requisiti sostanziali degli articoli 8–15. Il procedimento differisce materialmente a seconda che il sistema di IA rientri nell'Allegato I o nell'Allegato III.
Sistemi dell'Allegato III (la maggior parte delle IA commerciali): Il procedimento di valutazione della conformità predefinito è interno — il fornitore effettua la valutazione secondo le proprie procedure documentate. La base giuridica è l'articolo 43, paragrafo 2, e l'Allegato VI. Il fornitore deve: esaminare la documentazione tecnica rispetto a ciascun requisito degli articoli 8–15; documentare la metodologia e il risultato della valutazione; redigere la Dichiarazione UE di conformità che elenca i requisiti applicabili e attesta la conformità; e conservare sia la documentazione tecnica sia i verbali di valutazione della conformità per dieci anni dalla data di immissione sul mercato.
L'eccezione al procedimento di valutazione interna predefinito si applica ai sistemi di IA utilizzati per l'identificazione biometrica di persone fisiche. Ai sensi dell'articolo 43, paragrafo 1, e dell'Allegato VII, tali sistemi sono soggetti a valutazione di conformità di terzi da parte di un organismo notificato accreditato. Gli organismi notificati ai fini dell'AI Act sono organismi di accreditamento a livello nazionale designati ai sensi del Regolamento (CE) n. 765/2008. La Commissione europea mantiene la banca dati NANDO degli organismi notificati; all'inizio del 2026, l'infrastruttura degli organismi notificati ai fini dell'AI Act è ancora in fase di definizione a livello nazionale.
Sistemi dell'Allegato I (IA come componente di sicurezza): Questi sistemi di IA sono soggetti ai procedimenti di valutazione della conformità prescritti dalla legislazione sulla sicurezza dei prodotti ai sensi della quale il prodotto regolamentato è certificato. Per un dispositivo medico che incorpora un componente diagnostico di IA, la valutazione di conformità segue i procedimenti dell'Allegato IX o dell'Allegato X del Regolamento sui dispositivi medici (Regolamento (UE) 2017/745). I requisiti dell'AI Act sono incorporati nell'esistente valutazione di conformità settoriale attraverso i requisiti generali di sicurezza e prestazione.
Modifica sostanziale: Quando un fornitore modifica un sistema di IA ad alto rischio in modo da costituire una «modifica sostanziale» ai sensi dell'articolo 83, paragrafo 5 — una modifica che incide sullo scopo previsto o sulle prestazioni del sistema in modi che potrebbero compromettere la conformità — la valutazione di conformità deve essere ripetuta per il sistema modificato. Questo ha implicazioni rilevanti per i sistemi di IA che vengono aggiornati tramite apprendimento continuo, fine-tuning o riaddestramento: ogni ciclo di aggiornamento deve essere valutato rispetto alla soglia di modifica sostanziale.
Per i fornitori extra-UE senza personale nell'UE, le sfide pratiche della gestione delle valutazioni di conformità, del mantenimento della documentazione tecnica in formati accessibili nell'UE e della risposta alle richieste di informazioni delle autorità nazionali hanno indotto la maggior parte dei consulenti di conformità a raccomandare la nomina di un rappresentante autorizzato nell'UE ai sensi dell'articolo 22. Tale soggetto — che deve essere stabilito nell'UE, mandatato per iscritto e registrato nella banca dati IA dell'UE unitamente al sistema — funge da punto di contatto giuridico per le autorità nazionali competenti e l'Ufficio IA dell'UE, e sopporta una responsabilità di conformità residuale quando il fornitore non agisce.
Pratiche vietate: le linee rosse in vigore da febbraio 2025
L'articolo 5 dell'AI Act stabilisce un elenco di pratiche di IA che sono assolutamente vietate — non ad alto rischio a condizioni, ma vietate senza eccezione. Tali disposizioni sono in vigore dal 2 febbraio 2025, rendendole gli obblighi più immediatamente rilevanti per qualsiasi impresa con distribuzioni di IA attive che toccano il mercato UE.
Le pratiche vietate sono:
Manipolazione subliminale (articolo 5, paragrafo 1, lettera a)): Sistemi di IA che impiegano tecniche subliminali che esulano dalla consapevolezza di una persona, o tecniche manifestamente manipolative o ingannevoli, in modi che distorcono materialmente il comportamento causando un danno. Tale divieto va oltre le tecniche puramente subliminali per comprendere l'architettura persuasiva guidata dall'IA che è ingannevole o sfrutta vulnerabilità psicologiche.
Sfruttamento delle vulnerabilità (articolo 5, paragrafo 1, lettera b)): Sistemi di IA che sfruttano le vulnerabilità di gruppi specifici — persone con disabilità, minori, anziani — in modi che distorcono il loro comportamento causando un danno. Tale disposizione è direttamente rilevante per i sistemi di IA dispiegati nei social media, nel gaming, nella finanza al consumo e nella salute digitale che utilizzano tecniche di personalizzazione e nudging comportamentale rivolte a utenti di queste categorie.
Scoring sociale (articolo 5, paragrafo 1, lettera c)): Sistemi di IA utilizzati da o per conto di autorità pubbliche per valutare o classificare persone fisiche su un arco di tempo in base al loro comportamento sociale o alle loro caratteristiche personali o di personalità note, inferite o previste, in modi che conducono a trattamenti pregiudizievoli non correlati al contesto in cui i dati sono stati generati. Tale divieto è diretto ai sistemi governativi di scoring sociale che hanno suscitato preoccupazioni nel discorso internazionale sui diritti umani, ma il suo ambito raggiunge i soggetti privati che operano in forza di delega dell'autorità pubblica.
Identificazione biometrica remota in tempo reale (RTRBI) in spazi pubblici (articolo 5, paragrafo 1, lettera d)): Questo è il divieto che con maggiore probabilità incide sulle distribuzioni di tecnologia commerciale. I sistemi di IA utilizzati per l'identificazione biometrica remota in tempo reale — principalmente il riconoscimento facciale — in spazi accessibili al pubblico a fini di contrasto sono vietati, salvo tre eccezioni restrittive: ricerca di persone scomparse specifiche e vittime di tratta; prevenzione di minacce specifiche, sostanziali e imminenti alla vita; identificazione degli autori di gravi reati. Al di fuori di tali eccezioni per il contrasto, la RTRBI negli spazi pubblici è vietata. Le distribuzioni commerciali del riconoscimento facciale in ambienti di vendita al dettaglio accessibili al pubblico, hub di trasporto o luoghi di intrattenimento rientrano pienamente in questo divieto.
Polizia predittiva basata esclusivamente sulla profilazione (articolo 5, paragrafo 1, lettera e)): Sistemi di IA utilizzati dalle autorità di contrasto per effettuare valutazioni del rischio individuale con il solo scopo di prevedere la probabilità che una persona commetta un reato sulla base della profilazione o della valutazione di tratti della personalità.
Web scraping non mirato per banche dati di riconoscimento facciale (articolo 5, paragrafo 1, lettera f)): Sistemi di IA che creano o ampliano banche dati di riconoscimento facciale mediante scraping non mirato da internet o da riprese di videosorveglianza. Tale disposizione indirizza direttamente il modello di Clearview AI di costruzione di banche dati biometriche da immagini acquisite tramite scraping.
Riconoscimento delle emozioni sul luogo di lavoro e nell'istruzione (articolo 5, paragrafo 1, lettera g)): Sistemi di IA utilizzati per inferire le emozioni di persone fisiche nei contesti del luogo di lavoro e degli istituti di istruzione. Tale divieto copre gli strumenti di monitoraggio del coinvolgimento basati su IA che inferiscono stati emotivi da espressioni facciali, pattern vocali o segnali fisiologici in contesti lavorativi o educativi.
Categorizzazione biometrica per attributi sensibili (articolo 5, paragrafo 1, lettera h)): Sistemi di IA che categorizzano individualmente le persone fisiche sulla base di dati biometrici per inferire o dedurre razza, opinioni politiche, appartenenza sindacale, credenze religiose o filosofiche, vita sessuale o orientamento sessuale. Tale divieto si applica ai sistemi di IA che utilizzano l'analisi facciale o altri segnali biometrici per inferire questi attributi — compresi i sistemi di IA che utilizzano tali inferenze come segnali di marketing.
Qualsiasi sistema di IA che rientri in uno di questi divieti deve essere immediatamente ritirato dal mercato UE e dal servizio orientato all'UE, indipendentemente da quando è stato sviluppato o dalle condizioni in cui è stato fornito ai clienti UE. Le verifiche di conformità che identificano una pratica vietata devono dar luogo alla sospensione operativa immediata — non a una tempistica di rimedio.
Applicazione da parte dell'Ufficio IA dell'UE: l'architettura istituzionale
L'Ufficio IA dell'UE — istituito all'interno della Commissione europea dalla Decisione della Commissione (UE) 2024/1143 — è l'autorità di applicazione centrale per gli obblighi dei modelli GPAI e il coordinatore del più ampio ecosistema di applicazione dell'AI Act. Il suo ruolo rispetto ai sistemi di IA ad alto rischio è prevalentemente di supervisione sulle autorità nazionali piuttosto che di applicazione diretta; per i fornitori di modelli GPAI, l'Ufficio IA è però il principale regolatore.
Autorità di vigilanza del mercato (AVM): Per i sistemi di IA ad alto rischio, l'applicazione primaria compete alle autorità nazionali di vigilanza del mercato designate da ciascuno Stato membro ai sensi dell'articolo 74. Gli Stati membri avevano tempo fino al 2 agosto 2025 per designare le proprie AVM. La maggior parte delle principali economie dell'UE ha designato i regolatori già esistenti: in Germania, la Bundesnetzagentur e le autorità settoriali specifiche; in Francia, la CNIL e l'Autorité de la concurrence condividono i ruoli di AVM con la neoistituita struttura DNUM (Direction du numérique); in Irlanda, la funzione AVM è suddivisa tra ComReg e la designazione specifica per l'IA nell'ambito del DCCAE; in Spagna, l'AESIA (Agencia Española de Supervisión de la Inteligencia Artificial) è stata istituita specificamente per l'applicazione dell'AI Act ed è operativa dalla fine del 2024.
Poteri investigativi (articolo 74 e seguenti): Le AVM nazionali dispongono di ampi poteri investigativi: accesso ai sistemi di IA, ai dati di addestramento, alla documentazione e al codice sorgente (con salvaguardie di riservatezza); il potere di richiedere test di sistemi di IA e ispezione dei dataset sottostanti; il potere di imporre misure correttive; e il potere di irrogare sanzioni amministrative.
Sanzioni (articolo 99): La struttura sanzionatoria dell'AI Act è graduata:
- Violazione dei divieti dell'articolo 5: fino a 35 milioni di euro o il 7% del fatturato annuo mondiale, il valore più elevato.
- Violazione degli obblighi applicabili a fornitori, importatori, distributori e deployer di sistemi di IA ad alto rischio ai sensi degli articoli 8–15, 25–27, e degli obblighi di registrazione e documentazione: fino a 15 milioni di euro o il 3% del fatturato annuo mondiale, il valore più elevato.
- Fornitura di informazioni inesatte, incomplete o fuorvianti a organismi notificati o autorità competenti: fino a 7,5 milioni di euro o il 1% del fatturato annuo mondiale, il valore più elevato.
Per le PMI e le startup, le sanzioni sono limitate al valore inferiore tra il massimo assoluto e quello percentuale. Per le grandi multinazionali tecnologiche, il massimo percentuale sarà generalmente quello applicabile — e il 7% del fatturato annuo mondiale rappresenta una sanzione superiore alla maggiore multa della storia ai sensi del GDPR per qualsiasi azienda con un fatturato annuo superiore a circa 17 miliardi di euro.
L'Ufficio IA dispone di ulteriore giurisdizione applicativa sui fornitori di modelli GPAI ai sensi degli articoli 88–94, incluso il potere di condurre valutazioni dei modelli, emanare misure correttive vincolanti e irrogare sanzioni fino a 15 milioni di euro o il 3% del fatturato annuo mondiale per inosservanza degli obblighi GPAI.
Raccomandazioni pratiche per i giuristi d'impresa
1. Effettuate immediatamente un inventario dei sistemi di IA rispetto ai divieti dell'articolo 5 — non solo rispetto alla classificazione di alto rischio.
Le pratiche vietate sono eseguibili dal 2 febbraio 2025. Qualsiasi sistema di IA nel vostro portafoglio che riguardi utenti UE deve essere verificato rispetto a ciascuno degli otto divieti dell'articolo 5 prima di rimanere operativo. Un'attenzione particolare deve essere rivolta a: strumenti di riconoscimento delle emozioni utilizzati in contesti HR o orientati al cliente; sistemi di riconoscimento facciale o categorizzazione biometrica utilizzati in ambienti di vendita al dettaglio accessibili al pubblico, hub di trasporto o luoghi di intrattenimento nell'UE; e sistemi di IA che utilizzano tecniche di design persuasivo rivolte a gruppi vulnerabili. Costituite un team interfunzionale (legale, tecnologico, prodotto) per condurre la valutazione — l'analisi giuridica dipende dalla comprensione di ciò che il sistema di IA fa realmente a livello tecnico, non da quanto descrive la scheda di prodotto.
2. Mappate la vostra catena di approvvigionamento IA per determinare se siete fornitori, deployer o entrambi in ciascun contesto orientato all'UE.
Il regime di obblighi normativi differisce materialmente tra fornitori e deployer, e cambia quando si applicano i criteri di riclassificazione dell'articolo 25, paragrafo 1. Per ciascun sistema di IA che sviluppate, fornite o utilizzate in operazioni orientate all'UE, documentate: chi lo ha addestrato ed è titolare della documentazione tecnica; chi lo immette sul mercato UE o lo mette in servizio; se il fine-tuning, l'integrazione o il white-labeling da parte di qualsiasi soggetto nella catena ha costituito una modifica sostanziale; e chi sopporta gli obblighi a ciascun livello. Questo esercizio di mappatura deve essere aggiornato ogni volta che il sistema viene aggiornato o cambia il modello di distribuzione.
3. Nominate un rappresentante autorizzato nell'UE se siete un fornitore extra-UE di sistemi di IA ad alto rischio.
L'articolo 22 richiede ai fornitori extra-UE di sistemi di IA ad alto rischio di nominare un rappresentante autorizzato nell'UE prima di immettere i propri sistemi sul mercato UE. Il rappresentante autorizzato deve essere stabilito nell'UE, mandatato per iscritto e registrato nella banca dati IA dell'UE unitamente al sistema. Il rappresentante risponde solidalmente con il fornitore per la conformità all'AI Act. La scelta del rappresentante appropriato — dotato della capacità operativa di rispondere alle richieste delle autorità nazionali in tempi brevi e dell'esperienza giuridica per gestire la documentazione di conformità — deve essere affrontata con la stessa diligenza con cui ci si approccia alla scelta di un rappresentante GDPR nell'UE.
4. Integrate la sovrapposizione di conformità tra GDPR e AI Act in un unico quadro integrato di governance.
I sistemi di IA ad alto rischio che trattano dati personali sono soggetti contemporaneamente all'AI Act e al GDPR, con obblighi che si sovrappongono ma non sono identici. La DPIA richiesta dall'articolo 35 del GDPR per i trattamenti automatizzati che presentano un rischio elevato deve essere coordinata con il sistema di gestione dei rischi dell'AI Act ai sensi dell'articolo 9, la documentazione tecnica ai sensi dell'articolo 11 e — per i deployer — la valutazione dell'impatto sui diritti fondamentali ai sensi dell'articolo 27 dell'AI Act. Effettuare questi esercizi separatamente genera duplicazioni e rischi di incoerenza. I team legali dovrebbero progettare un protocollo unificato di governance dell'IA che affronti entrambi i quadri, con una chiara assegnazione della titolarità per ciascun obbligo e una mappatura condivisa dei flussi di dati che serva sia alla DPIA sia ai requisiti documentali dell'AI Act.
5. Preparatevi all'ondata applicativa dell'Allegato III del 2 agosto 2026 con un calendario specifico e una struttura di responsabilità.
Gli obblighi sui sistemi di IA ad alto rischio per i casi d'uso dell'Allegato III sono entrati in vigore il 2 agosto 2026. Per le organizzazioni che non hanno ancora completato le valutazioni di conformità, compilato la documentazione tecnica, registrato i sistemi nella banca dati IA dell'UE e implementato il sistema di gestione della qualità richiesto dall'articolo 17, l'urgenza è immediata. Designate un responsabile di progetto nominato per la conformità all'AI Act all'interno della funzione legale o di compliance, stabilite un calendario con scadenze ferme per ciascun deliverable, e stanziate un budget adeguato per la revisione esterna della documentazione tecnica e, ove richiesto, per la valutazione da parte di un organismo notificato. Il costo di un programma di valutazione della conformità conforme è sostanzialmente inferiore al costo di un'indagine regolatoria — e le AVM IA in tutta l'UE hanno segnalato intenzioni di applicazione attiva per l'ondata dell'Allegato III.
Conclusione
L'AI Act impone un'architettura di conformità complessiva a qualsiasi organizzazione — ovunque costituita — che partecipi allo sviluppo, alla fornitura o alla distribuzione di sistemi di IA i cui output raggiungono il mercato UE. Per le imprese extra-UE, le disposizioni extraterritoriali dell'articolo 2 eliminano la possibilità di una distanza regolatoria. Le pratiche vietate dell'articolo 5 sono già in vigore, gli obblighi GPAI degli articoli 51–56 sono operativi dall'agosto 2025, e la totalità degli obblighi sui sistemi di IA ad alto rischio ai sensi dell'Allegato III è ora eseguibile.
Il percorso di conformità è tecnicamente impegnativo ma strutturalmente chiaro: classificare ciascun sistema di IA rispetto ai livelli di rischio, determinare il ruolo fornitore/deployer all'interno di ciascuna catena distributiva, completare le valutazioni di conformità richieste prima della distribuzione, mantenere la documentazione tecnica per tutto il ciclo di vita del sistema e implementare le strutture di governance — gestione dei rischi, gestione della qualità, sorveglianza post-commercializzazione — che dimostrino una conformità continuativa piuttosto che una certificazione puntuale.
L'Ufficio IA dell'UE e le autorità nazionali di vigilanza del mercato dispongono degli strumenti investigativi, della base giuridica e dell'impegno istituzionale dichiarato per applicare tali obblighi nei confronti di soggetti extra-UE. La struttura sanzionatoria — calibrata come percentuale del fatturato annuo mondiale — garantisce che le dimensioni non conferiscano immunità regolatoria. Per il direttore legale o il responsabile della conformità che assiste consigli di amministrazione internazionali, l'AI Act non è un progetto futuro. È l'obbligo di conformità di oggi.
Avvertenza legale: Il presente articolo è fornito esclusivamente a scopo informativo ed educativo. Non costituisce consulenza legale e non instaura alcun rapporto professionale. L'analisi riflette il testo del Regolamento (UE) 2024/1689, le misure di attuazione e le linee guida pubblicamente disponibili alla data di pubblicazione. L'applicazione dell'AI Act a specifici fatti e sistemi richiede consulenza legale qualificata con expertise nella regolamentazione UE sull'IA. I lettori non dovrebbero agire sulla base del presente articolo senza aver previamente ottenuto una consulenza professionale indipendente adattata alle loro specifiche circostanze.
Avete bisogno di assistenza specializzata sulla conformità all'AI Act per la vostra impresa? Contattate il nostro team.
Need expert advice on this topic?
Our team at Morvantine specializes in exactly these issues. Get in touch for a consultation.
Get in Touch