Pubblicato in Gazzetta Ufficiale dell’Unione europea il 12 luglio scorso, entra in vigore a partire dal 2 agosto il Regolamento Ue 2024/1689, meglio conosciuto come AI Act. Secondo quanto comunicato dal Parlamento europeo, obiettivo del Regolamento è «proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore».
Alla base del Regolamento, esito del lavoro pluriennale dei tavoli di lavoro europei, vi è infatti la necessità di trovare un bilanciamento tra la promozione dell’innovazione e dello sviluppo digitale, che inevitabilmente coinvolge e coinvolgerà sempre più le tecnologie legate all’intelligenza artificiale, e la necessità di regolamentare questo strumento in rapido sviluppo, per garantire la sicurezza dei dati e la tutela dei diritti fondamentali.
Il testo prevede quattro livelli di rischio secondo cui suddividere le applicazioni IA: minimo, limitato, alto e inaccettabile. Tra gli impieghi vietati si trovano le tecnologie per manipolare i comportamenti delle persone, la sorveglianza biometrica, la raccolta massiccia e illimitata di foto di volti da internet, il riconoscimento delle emozioni sul posto di lavoro o a scuola, i sistemi di punteggio sociale o la polizia predittiva, per i quali i divieti scatteranno già a partire dall’inizio del 2025.
Inoltre, tra i molti aspetti affrontati dal Regolamento, una delle novità stabilite dal testo è l’attivazione di misure a supporto dell’innovazione e in particolare delle PMI, comprese le start-up, con l’obiettivo di supportarne la crescita affinché esse possano sviluppare in autonomia i propri sistemi di IA. Nell’ottica degli adempimenti alle nuove regole, l’entrata in vigore dell’AI Act può comportare anche delle sfide, in termini dei costi da sostenere per soddisfare un lungo elenco di requisiti a garanzia della sicurezza del sistema.
Next steps (fonte: Sole 24 Ore)
- 2 febbraio 2025: le pratiche vietate di intelligenza artificiale devono essere ritirate dal mercato.
- 2 maggio 2025: saranno pronti i codici di condotta.
- 2 agosto 2025: I Gpai (sistemi di intelligenza artificiale per scopi generali) devono conformarsi alle nuove regole. Dovrà essere istituita una struttura di governance (Ufficio AI, Comitato europeo per l’intelligenza artificiale, autorità nazionali di vigilanza del mercato, ecc.).
- 2 febbraio 2026: la Commissione Ue adotterà un provvedimento attuativo recante disposizioni dettagliate che stabiliscono un modello per il piano di monitoraggio post-commercializzazione e l’elenco degli elementi da includere nel piano.
- 2 agosto 2026: diventano applicabili tutte le norme dell’AI Act, compresi gli obblighi per i sistemi ad alto rischio definiti nell’allegato III (elenco dei casi d’uso ad alto rischio). Gli Stati membri assicurano che le loro autorità competenti abbiano istituito almeno un ambiente di sperimentazione normativa operativa sull’IA a livello nazionale.
- 2 agosto 2027: si applicano gli obblighi per i sistemi ad alto rischio definiti nell’allegato I (elenco delle norme di armonizzazione dell’Ue)