EDITORIALE – Con l’approvazione definitiva al Senato e la successiva pubblicazione in Gazzetta Ufficiale (Legge n. 132 del 23 settembre 2025 entrata in vigore lo scorso 10 ottobre), l’Italia è diventata il primo Paese dell’Unione Europea a dotarsi di un quadro normativo nazionale sull’Intelligenza Artificiale (IA). La legge, intitolata “Disposizioni e deleghe al governo in materia di intelligenza artificiale”, si pone l’ambizioso obiettivo di governare la rivoluzione tecnologica, affiancando e integrando il Regolamento europeo (AI Act).
Come sottolineato in un commento su Il Sole 24 Ore del 25 settembre scorso da Marilisa D’Amico, ordinario di Diritto Costituzionale all’Università Statale di Milano, l’Italia sta proponendo una “terza via”. Se l’approccio europeo può essere visto come “di prevenzione e difesa” e quello americano come una strategia “di guerra”, il nostro Paese sceglie di interpretare l’intelligenza artificiale come una strategia “di sviluppo”. Ma cosa significa concretamente?
Un approccio “antropocentrico” in linea con l’Europa
Il cuore della nuova legge è il principio “antropocentrico”: la tecnologia deve rimanere uno strumento al servizio dell’essere umano, il cui potere decisionale e la cui responsabilità non possono essere sostituiti da un algoritmo. Questo pilastro si riflette in tutti i settori strategici toccati dalla norma: sanità, lavoro, pubblica amministrazione e giustizia. Ad esempio, in ambito sanitario, l’IA è un supporto, ma la decisione finale e la responsabilità restano saldamente nelle mani del medico.
La legge italiana, come evidenziato da D’Amico, si allinea pienamente all’AI Act europeo, richiamando principi fondamentali come trasparenza, proporzionalità, sicurezza, protezione dei dati personali e non discriminazione. In particolare, l’articolo 3 sottolinea la necessità di garantire la “sorveglianza e dell’intervento umano” sui sistemi di IA.
Le specificità della via italiana
Pur muovendosi nel solco europeo, il legislatore italiano ha introdotto elementi originali e significativi. Secondo i commentatori più attenti, due aspetti meritano particolare attenzione.
• Tutela della democrazia: La legge si preoccupa esplicitamente dei rischi che l’IA può comportare per la vita democratica, richiedendo garanzie contro interferenze illecite nel dibattito pubblico e a tutela della sovranità nazionale.
• Accessibilità per le persone con disabilità: Un altro punto qualificante è l’attenzione al pieno accesso ai sistemi di IA per le persone con disabilità, in linea con il principio di eguaglianza e con la Convenzione di New York del 2006.
La legge interviene anche su aspetti non coperti dall’AI Act, come il diritto penale, introducendo l’aggravante per i reati commessi tramite IA e una specifica fattispecie per la diffusione illecita di contenuti manipolati come i “deepfake”.









































