Vai al contenuto principale
EU AI Act|12 min|

EU AI Act e contratti: cosa cambia da agosto 2026 per consumatori e PMI

Il Regolamento UE 2024/1689 spiegato semplice: obblighi, sanzioni e diritti

Di Redazione controlla.me

Dal 2 agosto 2026 entra in vigore il cuore del Regolamento UE 2024/1689 — il cosiddetto EU AI Act — la prima legge al mondo che regola l'intelligenza artificiale in modo organico. Non e una questione astratta: riguarda chiunque firmi un contratto, chieda un prestito o venga valutato da un algoritmo per ottenere un lavoro.

Se sei un consumatore, hai nuovi diritti. Se sei una PMI, hai nuovi obblighi da rispettare. In entrambi i casi, ignorare questa normativa puo costare caro.

Cos'e l'EU AI Act (spiegato semplice)

Il Regolamento UE 2024/1689 classifica i sistemi di intelligenza artificiale in base al rischio che rappresentano per i cittadini. Piu il rischio e alto, piu le regole sono stringenti. La logica e a piramide:

I 4 livelli di rischio AI:

  • Vietato: l'AI non puo essere usata (manipolazione subliminale, social scoring)
  • Alto rischio: obblighi pesanti di documentazione, supervisione e spiegazione (AI che decide mutui, assunzioni)
  • Rischio limitato: obbligo di trasparenza (chatbot, deepfake, contenuti generati da AI)
  • Rischio minimo: nessun obbligo specifico (filtri antispam, raccomandazioni prodotti)

Molti sistemi AI usati nella vita quotidiana — dalla valutazione del credito alla selezione del personale, dal pricing assicurativo allo scoring degli inquilini — rientrano nella categoria alto rischio.

Il calendario: cosa e gia in vigore e cosa arriva

Le date chiave dell'implementazione graduale:

  • Febbraio 2025 — Gia in vigore: pratiche vietate (Art. 5) e obbligo di alfabetizzazione AI (Art. 4)
  • Agosto 2025 — Obblighi per i modelli AI di uso generale (GPT, Gemini, Claude)
  • Agosto 2026 — La data chiave: obblighi sui sistemi ad alto rischio, diritto alla spiegazione, sanzioni
  • Agosto 2027 — AI integrata in prodotti regolamentati (dispositivi medici, macchinari)

Cosa cambia per te come consumatore

Il diritto di sapere che stai parlando con un'AI

Dal 2 agosto 2026, se interagisci con un chatbot per assistenza clienti, per un preventivo o per informazioni su un contratto, l'azienda deve dirti che stai parlando con un'intelligenza artificiale (Art. 50, par. 1). Non basta una scritta microscopica nei termini di servizio.

Esempio pratico — contratto di locazione: stai cercando casa e un'agenzia immobiliare ti propone un chatbot per "pre-qualificarti" come inquilino. Quel chatbot ti fa domande su reddito, occupazione, animali domestici. Se e un'AI, devono dirtelo subito. E se quella valutazione influenza la tua possibilita di ottenere l'appartamento, siamo nel territorio dell'alto rischio.

Il diritto alla spiegazione delle decisioni

L'Art. 86 stabilisce che se un sistema AI ad alto rischio prende una decisione che ti riguarda con effetti giuridici, hai il diritto di ottenere una spiegazione chiara di come e stata presa.

Tre situazioni concrete dove questo diritto cambia tutto:

  • Mutuo rifiutato: la banca usa un algoritmo per decidere se concederti il prestito. Dal 2026 non basta un "domanda respinta" — devi sapere quali fattori hanno pesato
  • Premio assicurativo gonfiato: l'assicurazione usa AI per calcolare il tuo premio vita. Hai il diritto di capire perche paghi il doppio del tuo vicino
  • Candidatura scartata: l'azienda usa un software di screening CV. Se il tuo curriculum e stato filtrato da un algoritmo, hai il diritto di sapere perche

La garanzia di supervisione umana

L'Art. 14 impone che un essere umano possa sempre capire cosa fa il sistema, interpretare i risultati e decidere di non seguire la raccomandazione dell'AI. Tradotto: se un algoritmo dice alla banca di rifiutarti il prestito, un dipendente competente deve poter ribaltare quella decisione.

Cosa cambia per le PMI italiane

L'AI che usi in azienda potrebbe essere "ad alto rischio"

L'Allegato III del Regolamento elenca le attivita che rendono un sistema AI ad alto rischio. Molte PMI usano gia strumenti che rientrano in questa categoria senza saperlo:

Attivita ad alto rischio comuni nelle PMI:

  • Selezione del personale: screening CV, scoring colloqui, valutazione candidati (punto 4a)
  • Gestione lavoratori: monitoraggio prestazioni, promozioni, assegnazione turni basate su AI (punto 4b)
  • Valutazione creditizia dei clienti (punto 5b)
  • Pricing assicurativo vita e salute (punto 5c)

Esempio pratico — contratto di lavoro: la tua azienda usa un software che analizza i CV e assegna un punteggio ai candidati. Quel software e un sistema AI ad alto rischio. Devi documentare come funziona, assicurare la supervisione umana e informare i candidati che un'AI ha partecipato alla selezione. Se un candidato scopre di essere stato scartato da un algoritmo con bias, le sanzioni sono pesanti.

I 6 obblighi concreti per chi usa AI ad alto rischio

Se sei un deployer — cioe un'azienda che usa un sistema AI ad alto rischio sviluppato da altri — ecco cosa devi fare (Art. 26):

I 6 obblighi per i deployer:

  • Usare il sistema secondo le istruzioni del fornitore
  • Assegnare personale competente per la supervisione umana
  • Verificare che i dati forniti all'AI siano pertinenti e rappresentativi
  • Monitorare il funzionamento e segnalare rischi
  • Conservare i log per almeno 6 mesi
  • Informare i lavoratori prima di usare AI sul posto di lavoro

Le sanzioni (non sono simboliche)

Le sanzioni massime per tipo di violazione:

  • Pratiche vietate (Art. 5): 35 milioni EUR o 7% del fatturato
  • Obblighi alto rischio e trasparenza: 15 milioni EUR o 3% del fatturato
  • Informazioni false alle autorita: 7,5 milioni EUR o 1% del fatturato

Nota per le PMI (Art. 99, par. 6): le sanzioni sono calcolate sull'importo piu basso tra la percentuale e la cifra fissa. Una PMI con 2 milioni di fatturato rischia al massimo 60.000 EUR per violazione degli obblighi, non 15 milioni. E comunque una cifra significativa.

L'Italia si e mossa per prima: Legge 132/2025

L'Italia e il primo paese UE ad aver adottato una legge nazionale sull'AI: la Legge 132 del 23 settembre 2025. Alcuni punti specifici:

Punti chiave della Legge 132/2025:

  • Professionisti (Art. 13): l'AI e consentita solo come strumento di supporto. Un avvocato puo usare l'AI per analizzare un contratto, ma deve comunicarlo al cliente e l'attivita intellettuale umana deve sempre prevalere
  • Lavoro (Art. 11-12): obbligo di trasparenza e formazione per i datori di lavoro che usano AI
  • Autorita di controllo: AgID e ACN in Italia, con Banca d'Italia, CONSOB e IVASS per i settori finanziari

Cosa fare adesso: checklist per consumatori

Checklist per consumatori:

  • Chiedi sempre se stai interagendo con un'AI, specialmente per decisioni importanti
  • Se ti rifiutano un prestito o un'assicurazione, dal 2 agosto 2026 hai il diritto formale di chiedere spiegazioni
  • Conserva le comunicazioni con chatbot e sistemi automatizzati — possono servire come prova
  • Fai controllare i tuoi contratti prima di firmare

Cosa fare adesso: checklist per PMI

Checklist per PMI:

  • Fai un inventario di tutti i sistemi AI che usi (screening CV, chatbot, CRM con scoring, credit check)
  • Verifica se qualcuno rientra nell'Allegato III (alto rischio)
  • Prepara la documentazione: log del sistema, istruzioni d'uso, procedure di supervisione
  • Forma il personale che supervisiona i sistemi AI
  • Rivedi i contratti che la tua azienda propone ai clienti: se contengono clausole generate o influenzate da AI, verifica che siano conformi

L'AI Act riguarda anche le piccole aziende?

Si. Non c'e esenzione per dimensione. Se usi AI ad alto rischio, gli obblighi si applicano anche con 5 dipendenti. Le sanzioni sono proporzionate, ma gli obblighi sono gli stessi.

Se uso ChatGPT per scrivere email ai clienti, devo preoccuparmi?

No per l'alto rischio. Ma se pubblichi quei contenuti come informazione al pubblico, devi dichiarare che sono generati da AI (Art. 50).

Il mio avvocato puo usare l'AI?

Si, ma la legge italiana (L. 132/2025, Art. 13) impone che sia solo uno strumento di supporto. Deve comunicarti l'uso di AI e l'attivita intellettuale umana deve prevalere.

Cosa succede se un'azienda non si adegua entro agosto 2026?

Le autorita nazionali (AgID e ACN) possono avviare ispezioni e comminare sanzioni. Le denunce dei consumatori possono accelerare i controlli su aziende specifiche.

Il Regolamento UE 2024/1689 (EU AI Act) e stato pubblicato sulla Gazzetta Ufficiale dell'Unione Europea il 12 luglio 2024. La Legge italiana 132/2025 e stata pubblicata sulla Gazzetta Ufficiale il 25 settembre 2025. Questo articolo ha natura informativa e non costituisce consulenza legale.

Vuoi verificare se il tuo contratto contiene clausole rischiose — magari scritte o influenzate da un'AI? Analizzalo gratis su controlla.me: l'analisi AI confronta ogni clausola con la normativa vigente, comprese le nuove regole sull'AI. Le prime 3 analisi sono gratuite.

Verifica il tuo contratto gratuitamente

Carica il tuo documento su controlla.me: 4 agenti AI lo analizzeranno in meno di 60 secondi. Le prime 3 analisi sono gratuite.

Analizza gratis

Tag

EU AI ActRegolamento UE 2024/1689intelligenza artificialeobblighi PMIalto rischiodiritto spiegazionesanzioniLegge 132/2025