Con l’adozione del Regolamento (UE) 2024/1689 – noto come AI Act, l’Unione Europea ha percorso una strada pionieristica nel diritto dell’intelligenza artificiale, istituendo un quadro giuridico armonizzato per tutti gli Stati membri. In Italia, la risposta normativa si è concretizzata nella Legge n. 132 del 2025, che integra e declina sul piano nazionale obblighi, tutele e sanzioni legate all’uso dell’IA.

L’intento comune dell’AI Act e della normativa italiana è quello di coniugare innovazione tecnologica e protezione dei diritti fondamentali, promuovendo un utilizzo dell’IA etico, trasparente e sicuro.

1. AI Act: il primo regolamento europeo sull’intelligenza artificiale

Cos’è l’AI Act?

Il Regolamento UE 2024/1689 rappresenta la prima disciplina organica a livello mondiale per l’IA. Si applica a qualsiasi sistema di IA sviluppato, commercializzato o utilizzato nell’UE, con effetti diretti in tutti gli Stati membri senza necessità di recepimento nazionale.

2. Principi fondamentali dell’AI Act

Il Regolamento Europeo sull’Intelligenza Artificiale, approvato nel 2024 e in vigore dal 2026, ha l’obiettivo di:
– Promuovere un uso etico e sicuro dell’IA;
– Salvaguardare i diritti fondamentali dei cittadini europei;
– Creare un ecosistema normativo favorevole all’innovazione tecnologica e alla concorrenza leale.

L’AI Act classifica i sistemi di IA in base al rischio:
– Rischio inaccettabile (vietati): es. manipolazione cognitiva, punteggio sociale.
– Rischio alto: sistemi utilizzati in ambito sanitario, giustizia, istruzione, forze dell’ordine.
– Rischio limitato o minimo: chatbot, sistemi di raccomandazione.

Pertanto, l’AI Act si basa sui seguenti principi cardine:

a. Classificazione dei sistemi IA per livello di rischio
| Livello | Esempi | Regole principali |
|———|———|——————|
| Rischio inaccettabile (vietato) | Sistemi di punteggio sociale, manipolazione cognitiva | Divieto assoluto |
| Rischio alto | IA in sanità, giustizia, trasporti critici | Obblighi di trasparenza, controllo umano, gestione dati |
| Rischio limitato | Chatbot generici | Obbligo di informazione minima |
| Rischio minimo | Filtri immagine, giochi | Nessun obbligo aggiuntivo |

3. Obblighi principali per chi sviluppa o utilizza AI secondo l’AI Act

a. Governance dei dati e qualità

– I dati utilizzati per addestrare IA devono essere rappresentativi, adeguati e non discriminatori.
– È vietato il training su dataset bias o non verificati.

b. Trasparenza e spiegabilità
– Gli utenti devono sapere quando interagiscono con un sistema IA.
– Devono essere fornite informazioni comprensibili sul funzionamento, limiti e rischi.

c. Sorveglianza umana
– I sistemi ad alto rischio devono prevedere un monitoraggio umano continuo per evitare decisioni autonome non controllate.

4. Sanzioni e enforcement nell’AI Act UE

Il Regolamento prevede sanzioni pecuniarie molto elevate per le violazioni:

– fino a 6% del fatturato mondiale annuo o
– fino a €30 milioni,
a seconda di quale valore sia maggiore, per violazioni gravi quali:
– mancata gestione del rischio,
– addestramento con dati qualitativamente inadeguati,
– mancata trasparenza nei sistemi ad alto rischio.

5. La Legge Italiana n. 132/2025 sul fronte nazionale

La Legge Italiana n. 132/2025: cosa prevede?

In attuazione dell’AI Act, l’Italia ha approvato la Legge n. 132/2025, che:
– Istituisce l’Autorità Nazionale per l’Intelligenza Artificiale, con funzioni di vigilanza e sanzione;
– Definisce sanzioni per violazioni del Regolamento europeo, fino a 30 milioni di euro o il 6% del fatturato globale;
– Prevede misure di supporto per PMI e startup per l’adeguamento normativo;
– Tutela i lavoratori in ambito produttivo soggetti a sistemi automatizzati decisionali;
– Rafforza le tutele in ambito di privacy e protezione dati personali.

In sintesi:

a. Finalità della legge

La Legge 132/2025 assicura:
– l’adeguamento dell’ordinamento italiano al Regolamento UE 2024/1689;
– la tutela dei diritti fondamentali in relazione agli impatti delle tecnologie IA;

b. Autorità Nazionale per l’Intelligenza Artificiale

La legge istituisce un organismo di vigilanza nazionale con poteri di:
– monitoraggio dei sistemi IA impiegati in Italia;
– verifica della conformità ai requisiti dell’AI Act;
– irrogazione di sanzioni amministrative nei casi previsti.

6. Ambiti di applicazione e tutele integrate

a. Diritto alla privacy e AI
L’utilizzo dell’IA deve rispettare il Regolamento UE 2016/679 (GDPR), soprattutto quando i sistemi:
– effettuano profilazione automatica,
– elaborano dati biometrici,
– determinano effetti giuridici o significativamente impattanti sulle persone.

Implementazioni IA in ambiti sanitari, finanziari o di selezione del personale sono soggette a standard ancora più stringenti.

privacy e IA, GDPR IA, profilazione automatica

b. Non discriminazione e IA

I sistemi di IA non possono generare discriminazioni ingiustificate basate su:
– sesso,
– etnia,
– religione,
– orientamento,
– condizioni sociali.

Ciò si collega ai principi di uguaglianza sostanziale della Carta dei Diritti Fondamentali dell’UE.

7. Responsabilità giuridica e catena del valore dell’IA

Il quadro normativo europeo e italiano chiarisce anche la responsabilità giuridica dei soggetti coinvolti:
– fornitori di modelli o componenti IA;
– operatori che integrano il sistema in prodotti/servizi;
– enti utilizzatori finali, soprattutto in settori ad alto rischio.

La legge prevede un regime di responsabilità che può includere:
– responsabilità contrattuale,
– responsabilità extracontrattuale,
– responsabilità amministrativa.

8. Impatto su imprese, pubblica amministrazione e professionisti

a. Per le imprese
Adeguarsi all’AI Act richiede investimenti in:
– gestione dei dati,
– audit tecnici,
– governance interna dei sistemi IA.

b. Per la pubblica amministrazione
È prevista l’integrazione di sistemi IA con:
– trasparenza amministrativa,
– equità nei servizi pubblici automatizzati,
– sicurezza dei cittadini.

c. Per i professionisti legali
Gli avvocati devono aggiornarsi sui nuovi rischi giuridici e sui profili di contrattualistica digitale.

9. Conclusioni: IA regolata per garantire innovazione e diritti

La combinazione tra AI Act UE e Legge italiana 132/2025 crea un quadro di regole robuste, orientate a:
– difendere i diritti dei cittadini;
– promuovere l’innovazione responsabile;
– favorire un mercato tecnologico sicuro e competitivo.

Per operatori, aziende e professionisti della tecnologia e del diritto, la comprensione di questo nuovo quadro giuridico è ormai imprescindibile.

L’AI Act e la Legge italiana 132/2025 pongono le basi per un uso responsabile, trasparente e sicuro dell’intelligenza artificiale, tutelando cittadini e imprese. Per aziende, pubbliche amministrazioni e professionisti, diventa cruciale adeguarsi alle nuove regole, anche con l’assistenza di un avvocato esperto in diritto dell’IA e nuove tecnologie.

Per maggiori informazioni o per una consulenza legale sul tema, contatta uno studio legale specializzato in diritto dell’innovazione.

Lo studio

Lo studio legale Guarnera offre consulenza specializzata in diritto civile, amministrativo e internazionale, con un’attenzione particolare alla gestione condominiale. professionalità, esperienza e un approccio su misura per privati e aziende