Nuovo Regolamento Europeo sull’IA (AI Act)
Il 2025 rappresenta un anno cruciale per le aziende europee che sviluppano o utilizzano soluzioni basate sull'intelligenza artificiale.
Con l'entrata in vigore dell'AI Act—il Regolamento Europeo sull'Intelligenza Artificiale approvato nel 2024—l'Unione Europea introduce un quadro normativo pionieristico a livello globale, volto a garantire un utilizzo sicuro, trasparente ed etico dell'IA nei mercati digitali
Un approccio basato sul rischio
L'AI Act adotta un approccio regolatorio basato sul rischio, classificando i sistemi di intelligenza artificiale in quattro categorie: rischio inaccettabile, alto, limitato e minimo. I sistemi ad alto rischio, come quelli impiegati nella sanità, nella giustizia o nella selezione del personale, sono soggetti a requisiti stringenti, tra cui la gestione dei rischi, la qualità dei dati, la documentazione tecnica e la supervisione umana.
Tempistiche e obblighi per le aziende
Il regolamento prevede un'applicazione graduale delle sue disposizioni:
• Dal 2 febbraio 2025: entrano in vigore i divieti su pratiche AI considerate troppo rischiose, come la manipolazione subliminale, il social scoring e l'identificazione biometrica in tempo reale
• Dal 2 agosto 2025: si applicano le norme di governance e gli obblighi specifici per i modelli di IA ad uso generale, con particolare attenzione alla trasparenza e alla gestione dei dati.
• Dal 2 agosto 2026: diventano obbligatori i requisiti per i sistemi di IA ad alto rischio, inclusa la necessità di valutazioni di conformità e la supervisione post-commercializzazione .
Valutazioni di conformità e sanzioni
Le aziende che sviluppano o utilizzano sistemi di IA ad alto rischio devono effettuare valutazioni di conformità per dimostrare il rispetto dei requisiti del regolamento. Queste valutazioni possono essere condotte internamente o da organismi notificati esterni, a seconda del tipo di sistema e del livello di rischio associato.
Il mancato rispetto delle disposizioni dell'AI Act può comportare sanzioni significative, con multe che possono raggiungere i 35 milioni di euro o il 7% del fatturato globale annuo dell'azienda, a seconda di quale valore sia maggiore.

Un altro aspetto fondamentale introdotto dall'AI Act è l'obbligo di garantire un adeguato livello di alfabetizzazione sull'intelligenza artificiale per chiunque utilizzi o gestisca sistemi di IA, indipendentemente dal livello di rischio della tecnologia impiegata. L'obiettivo è assicurare che il personale sia in grado di comprendere il funzionamento, i rischi e le opportunità legate all'uso dell'IA, riducendo così al minimo la possibilità di usi impropri o non consapevoli.
Implicazioni per le aziende italiane
Per le imprese italiane, l'AI Act rappresenta sia una sfida sia un'opportunità. Adeguarsi al nuovo regolamento richiede un'attenta analisi dei sistemi di IA utilizzati, l'implementazione di processi di conformità e la formazione del personale.Tuttavia, rispettare questi requisiti può anche offrire un vantaggio competitivo, dimostrando un impegno verso l'uso responsabile e sicuro dell'intelligenza artificiale.
L’AI Act segna un passo significativo verso la regolamentazione dell'intelligenza artificiale in Europa. Le aziende devono prepararsi proattivamente per garantire la conformità e sfruttare le opportunità offerte da un utilizzo etico e trasparente dell'IA.