Il regolamento UE 2024/1689 — più noto come AI Act — è entrato in vigore il 1° agosto 2024. Da quel giorno, nella testa di nove imprenditori italiani su dieci, è rimasto un file PDF aperto una volta, scorso per tre pagine, chiuso e dimenticato. "Mi riguarda? No, non sviluppo AI. Faccio logistica / studio legale / manifattura / e-commerce."
Questa è la prima cosa da smontare. L'AI Act non regola solo chi costruisce sistemi di intelligenza artificiale: regola anche chi li usa sotto la propria autorità aziendale. E la data che ti deve interessare non è il 2024. È il 2 agosto 2026: il giorno in cui scattano gli obblighi operativi sui sistemi ad alto rischio e, con loro, le sanzioni.
Abbiamo speso gli ultimi sei mesi a fare audit AI Act a PMI italiane tra i 20 e i 300 dipendenti. Il pattern che vediamo è sempre lo stesso: sistemi già in produzione che ricadono in Annex III, zero documentazione, zero registro, zero valutazione d'impatto. Qui sotto mettiamo in fila cosa succede davvero, senza il giuridichese che rende l'AI Act illeggibile.
1. Quello che è già in vigore (e che probabilmente stai violando)
Primo equivoco: il 2 agosto 2026 non è l'inizio. È il pezzo grosso di un'implementazione scaglionata. Due tappe sono già scattate e nessuno ci ha fatto caso.
2 febbraio 2025 — Pratiche vietate (Art. 5). Alcuni usi dell'AI sono vietati punto. Tra questi: sistemi di riconoscimento delle emozioni sul posto di lavoro e nelle scuole, social scoring, manipolazione subliminale, categorizzazione biometrica basata su dati sensibili (etnia, orientamento, opinioni politiche). Se hai un sistema di HR analytics che inferisce lo stato emotivo dei dipendenti dalle email, o un sistema di videosorveglianza che classifica i clienti per profilo etnico, sei già fuori legge dal febbraio scorso. Sanzione massima: 35 milioni di euro o il 7% del fatturato mondiale annuo, il maggiore dei due.
2 febbraio 2025 — Alfabetizzazione AI (Art. 4). Chi utilizza sistemi di AI deve garantire un "livello sufficiente di alfabetizzazione AI" al personale che li opera. Tradotto: formazione documentata. Non ci sono sanzioni dirette collegate a questo articolo, ma la violazione diventa un'aggravante nel caso di incidente.
2 agosto 2025 — GPAI e governance. Sono scattati gli obblighi per i modelli di uso generale (GPAI: GPT, Claude, Llama, Mistral e simili) — ma questi ricadono sui provider del modello, non sulle PMI che li usano. La parte che interessa te è che da agosto 2025 le autorità nazionali (in Italia, l'AgID in coordinamento con Garante Privacy e AGCOM) hanno iniziato a prepararsi per vigilare. Il team è operativo. Il 2 agosto 2026 non li troverà impreparati.
2. Il 2 agosto 2026: cosa è "alto rischio"
Questo è il cuore del problema. Il Capo III dell'AI Act classifica come "ad alto rischio" i sistemi AI elencati nell'Annex III. La lista è sorprendentemente ampia per una PMI che pensa di non fare AI. Ecco le otto categorie, filtrate su quello che vediamo davvero nelle aziende italiane.
Le categorie che ti riguardano (quasi certamente)
- Occupazione e gestione dei lavoratori. Screening CV automatico, sistemi di recruiting AI (tipo HireVue, Paradox, o tool interni), valutazione delle performance basata su AI, decisioni automatizzate su promozioni o licenziamenti, allocazione dei task in base a scoring algoritmico. Tutto Annex III. Se hai integrato un tool AI nell'ATS o nel sistema HR, leggi quella clausola del contratto prima di agosto.
- Accesso a servizi essenziali — credit scoring e pricing assicurativo. Qualsiasi sistema AI che valuta il merito creditizio (anche per posticipare fornitori, dilazionare pagamenti B2B con scoring automatico) o che determina prezzi assicurativi vita/salute. Riguarda banche, ma anche grandi e-commerce con finanziamento rateale AI-driven e aziende che offrono polizze integrate.
- Biometria. Controllo accessi con riconoscimento facciale in sede, sistemi di identificazione biometrica remota (anche per antitaccheggio retail), categorizzazione basata su caratteristiche sensibili. La linea tra "badge biometrico sicurezza" e "sistema alto rischio" è più sottile di quello che pensi.
- Istruzione e formazione. Per chi opera in questo settore: ammissioni automatiche, proctoring AI negli esami, valutazione apprendimento. Se fai formazione aziendale con tool di valutazione AI, potresti ricadere.
Le categorie che probabilmente non ti riguardano
- Infrastrutture critiche (rete elettrica, gas, acqua, trasporti, digitale — soprattutto utility)
- Law enforcement (polizia, dogane)
- Migrazione, asilo, controllo frontiere
- Amministrazione della giustizia e processi democratici
Se non ricadi in nessuna di queste otto categorie, il 2 agosto 2026 passa per te in modo silenzioso. Ma non dare per scontato che il tuo caso d'uso non sia alto rischio solo perché non ti sembra "pericoloso". Il test legale è nel testo dell'Annex III, non nell'intuizione.
3. Provider o deployer? Questa è la domanda da cui parte tutto
L'AI Act distingue tra ruoli e ognuno ha obblighi diversi. Per una PMI italiana che non sviluppa modelli propri, i due ruoli rilevanti sono:
- Provider (fornitore). Chi sviluppa un sistema AI e lo immette sul mercato — o lo integra in un prodotto venduto a terzi — sotto il proprio nome commerciale. Se prendi un modello open-weight, ci costruisci sopra un prodotto AI e lo rivendi, sei provider.
- Deployer (utilizzatore). Chi utilizza un sistema AI sotto la propria autorità nell'ambito di un'attività professionale. È il ruolo della stragrande maggioranza delle PMI italiane.
Attenzione a una trappola: se modifichi in modo sostanziale un sistema AI di terzi — per esempio fai fine-tuning pesante su un modello GPT per uso specifico in produzione — puoi diventare provider di quel sistema modificato. Gli obblighi cambiano drasticamente. Nel dubbio, la soglia è "cambio d'uso previsto" o "modifica che altera significativamente la conformità originale".
Una cosa è certa: non puoi scaricare la responsabilità sul vendor. Se usi un CRM che integra scoring AI di un lead senza sapere come funziona, sei tu il deployer. Sei tu che rispondi se quel sistema discrimina i lead per codice postale.
4. La checklist degli obblighi per il deployer (Art. 26–27)
Se sei deployer di un sistema ad alto rischio, il 2 agosto 2026 devi avere pronti — documentabili, in ordine, riferibili ad una persona — i seguenti punti.
- Istruzioni d'uso seguite. Il provider ti fornisce istruzioni d'uso del sistema. Devi documentare che le segui. Nessuna "creatività operativa".
- Sorveglianza umana (human oversight). Il sistema va supervisionato da persone competenti, con autorità e possibilità concreta di intervenire. Documenta chi, come, con quale formazione.
- Dati di input di qualità e rilevanti. Quando controlli i dati che entrano nel sistema (es. dati dei candidati per uno screening CV), questi devono essere rappresentativi e rilevanti rispetto allo scopo.
- Monitoraggio del funzionamento. Osservare i risultati del sistema in produzione. Se emergono segnali di malfunzionamento o rischio, sospendere, informare il provider, notificare le autorità.
- Log conservati. I log generati automaticamente dal sistema AI devono essere conservati per almeno 6 mesi (più, se lo richiede altra normativa — es. GDPR o settoriale).
- Informazione dei lavoratori. Se il sistema impatta lavoratori (recruiting, monitoraggio, valutazione), prima di attivarlo vanno informati i rappresentanti dei lavoratori e i lavoratori stessi.
- Valutazione d'impatto sui diritti fondamentali (FRIA — Art. 27). Obbligatoria per certe categorie di deployer — tipicamente enti pubblici, banche, assicurazioni. Si affianca alla DPIA GDPR, non la sostituisce.
- Registrazione nella banca dati UE. Per alcuni sistemi ad alto rischio, iscrizione nel registro pubblico europeo.
"Pensavamo che il vendor ci avesse già messo in regola. Abbiamo scoperto che il contratto ci nominava deployer e ribaltava ogni obbligo documentale su di noi. Tre mesi di lavoro retroattivo." — Responsabile IT di una media azienda manifatturiera, audit AI Act febbraio 2026.
5. Le sanzioni, senza sconti
L'AI Act stabilisce tre fasce sanzionatorie (Art. 99). I numeri sono l'importo massimo: in concreto le autorità applicano una proporzionalità, ma le cifre indicate servono a far capire la gravità percepita dal legislatore.
- Pratiche vietate (Art. 5): fino a 35 milioni di euro o il 7% del fatturato mondiale annuo, il maggiore dei due. È la sanzione più alta mai introdotta in un regolamento UE sull'AI — supera il 4% del GDPR.
- Non conformità su sistemi ad alto rischio (obblighi di cui sopra): fino a 15 milioni di euro o il 3% del fatturato.
- Informazioni scorrette o fuorvianti alle autorità: fino a 7,5 milioni di euro o l'1% del fatturato.
L'Art. 99(6) prevede esplicitamente la proporzionalità per le PMI e le startup: la viabilità economica dell'impresa va considerata. In pratica: una PMI da 10 milioni di fatturato non riceverà una sanzione da 35 milioni. Ma riceverà una sanzione comunque congrua — dove "congruo" è a discrezione dell'autorità competente.
E attenzione al precedente italiano. Il Garante Privacy, nella sua giurisdizione sul GDPR, negli ultimi anni ha sanzionato Replika, bloccato temporaneamente ChatGPT, multato Foodinho per scoring algoritmico dei rider. Non è un'autorità che dorme sull'AI. E da agosto 2025 collabora con AgID nell'applicazione dell'AI Act.
6. Cosa fare prima del 2 agosto 2026
Ti mancano meno di quattro mesi al momento in cui scriviamo. Un programma realistico di compliance, per una PMI italiana media, è strutturato così.
Mese 1 — Mappatura
Inventario di tutti i sistemi AI in uso in azienda. Non solo i tool "AI-first": anche le feature AI integrate in software esistenti (il tuo CRM, l'ERP, il gestionale HR, il CMS, la piattaforma marketing). La maggior parte delle sorprese arriva qui: strumenti che pensavi fossero "solo software" hanno silenziosamente attivato componenti AI nell'ultimo anno.
Mese 2 — Classificazione del rischio
Per ogni sistema mappato: ricade nell'Annex III? Sì / no / incerto. Sui casi incerti, parere legale. Non affidarti all'interpretazione del vendor — il vendor è parte in causa.
Mese 3 — Governance e documentazione
Per i sistemi ad alto rischio confermati: costruisci la documentazione d'uso, nomina i responsabili dell'oversight, definisci la procedura di monitoraggio, imposta i log, prepara l'informativa ai lavoratori, verifica se ti serve una FRIA. Se il sistema è rifornito da un provider extra-UE, verifica anche il doppio binario con il GDPR (vedi il nostro articolo sui trasferimenti extra-UE).
Mese 4 — Formazione e test
Alfabetizzazione AI (obbligatoria dal febbraio 2025, ma molti non l'hanno fatta). Simulazione di un incidente: cosa succede se il sistema sbaglia in produzione, chi interviene, come si documenta? Il 2 agosto deve trovarti con la procedura già rodata, non teorica.
Il nostro taglio: l'AI Act premia chi ha scelto infrastruttura tracciabile
C'è una cosa che non viene detta abbastanza. I requisiti più pesanti dell'AI Act — log, tracciabilità, human oversight, data governance — sono molto più facili da soddisfare se la tua AI gira su infrastruttura che controlli. Un sistema RAG on-premise come Celeris produce log strutturati con citazione delle fonti in chiaro, salvabili per anni, auditabili. Un sistema agent come Automata traccia ogni decisione dell'agente in un registro dedicato. Un firewall AI come Vigil osserva input e output e può bloccare in tempo reale prompt che violano policy.
Non è marketing: è una conseguenza diretta di aver progettato il software pensando che un'azienda italiana, un giorno, potrebbe dover aprire un faldone per un ispettore e mostrare dove sono finiti i dati dei clienti tre anni fa. Se la tua AI vive dentro un'API cloud di cui non controlli né log né retention, quella conversazione con l'ispettore è molto più difficile.
Non stiamo dicendo "vai on-premise". Stiamo dicendo: qualunque sia la scelta infrastrutturale, dal 2 agosto 2026 servono log, audit trail, human oversight documentata. Senza quelli, non hai conformità.
Il punto da ricordare
L'AI Act non è un regolamento tecnico per sviluppatori. È un regolamento di governance aziendale. Riguarda te come imprenditore nel momento in cui decidi di usare un sistema AI in azienda, nello stesso modo in cui il GDPR ti ha riguardato dal 2018 anche se non sviluppavi software.
La differenza rispetto al GDPR è che questa volta l'implementazione è stata scaglionata, la finestra di preparazione è stata lunga, e il 2 agosto 2026 è una data già scritta da due anni. Non è negoziabile, non arriverà una proroga, e dal giorno dopo le sanzioni sono operative.
La buona notizia, se si può chiamare così: preparare una PMI italiana a essere conforme non è un progetto impossibile. È quattro mesi di lavoro metodico, non quattro anni. Ma va fatto adesso — e va fatto con la stessa serietà con cui hai preparato il GDPR, non come un adempimento burocratico da spiccicare all'ultimo momento.