Venerdì 8 Dicembre i legislatori dell’Unione Europea hanno trovato l’intesa per un nuovo quadro normativo per regolamentare l’intelligenza artificiale. Si tratta di uno dei primi tentativi al mondo di limitare l’uso di una tecnologia in rapida evoluzione che ha implicazioni etiche, sociali ed economiche di grandissima portata.
Con l’AI Act l’Europa si pone in una posizione pionieristica sul tema della regolamentazione dell’intelligenza artificiale anche se negli Stati Uniti l’amministrazione Biden ha già emesso un ordine esecutivo incentrato in parte sugli effetti dell’intelligenza artificiale sulla sicurezza nazionale. Gran Bretagna, Giappone e altre nazioni hanno adottato un approccio più distaccato, mentre la Cina ha imposto alcune restrizioni sull’uso dei dati e sugli algoritmi di raccomandazione.
La “legge”, chiamata AI Act , stabilisce un nuovo punto di riferimento globale per i paesi che cercano di sfruttare i potenziali benefici della tecnologia, cercando al tempo stesso di proteggersi dai suoi possibili rischi, come l’automazione dei lavori, la diffusione di disinformazione online e la messa in pericolo della sicurezza nazionale. La legge deve ancora compiere alcuni passaggi finali per l’approvazione, ma l’accordo politico significa che le sue linee guida sono state fissate.
L’accordo raggiunto a Bruxelles ha richiesto tre giorni di negoziati, inclusa una sessione iniziale di 22 ore iniziata mercoledì pomeriggio e proseguita fino a giovedì.
La regolamentazione dell’IA è diventata urgente dopo il rilascio di ChatGPT lo scorso anno, che ha fatto scalpore in tutto il mondo dimostrando le capacità di avanzamento dell’IA.
L’Europa ha iniziato a lavorare su quello che sarebbe diventato l’AI Act già nel 2018. Negli ultimi anni, i leader dell’UE hanno cercato di portare un nuovo livello di supervisione sulla tecnologia, simile alla regolamentazione del settore sanitario e bancario.
Una prima bozza della legge sull’intelligenza artificiale è stata pubblicata nel 2021. Ma i politici si sono trovati a riscrivere la legge con l’avvento delle nuove scoperte tecnologiche. La versione iniziale non faceva menzione di modelli di intelligenza artificiale generici come quelli che alimentano ChatGPT.
I Policy Makers europei si sono concentrati sugli usi più rischiosi dell’IA da parte di aziende e governi, compresi quelli per l’applicazione della legge e il funzionamento di servizi cruciali come l’acqua e l’energia.
I creatori dei più grandi sistemi di intelligenza artificiale generica, come quelli che alimentano il chatbot ChatGPT, si troveranno ad affrontare nuovi requisiti di trasparenza.
Secondo i funzionari dell’UE e le precedenti bozze di legge, i chatbot e i software che creano immagini manipolate come i “deepfake” dovrebbero esplicitare che ciò che le persone vedono è stato generato da un’intelligenza artificiale.
L’uso del software di riconoscimento facciale da parte della polizia e dei governi sarebbe limitato al di fuori di alcune esenzioni relative alla sicurezza e alla sicurezza nazionale. Le aziende che violano le norme rischiano multe fino al 7% delle vendite globali.
I politici hanno trovato l’intesa su quello che hanno definito un “approccio basato sul rischio” per regolamentare l’intelligenza artificiale, in cui un insieme definito di applicazioni deve affrontare il maggior numero di controlli e restrizioni.
Le aziende che realizzano strumenti di intelligenza artificiale che rappresentano il maggior danno potenziale per gli individui e la società, ad esempio nel settore delle assunzioni e dell’istruzione, dovrebbero fornire alle autorità di regolamentazione prove delle valutazioni dei rischi, analisi dei dati utilizzati per addestrare i sistemi e garanzie che il software abbia funzionato e non causare danni come perpetuare pregiudizi razziali.
Alcune pratiche, come lo scraping indiscriminato di immagini da Internet per creare un database di riconoscimento facciale, sarebbero completamente vietate.
Le nuove normative saranno attentamente monitorate a livello globale. Interesseranno non solo i principali sviluppatori di intelligenza artificiale come Google, Meta, Microsoft e OpenAI, ma anche altre aziende che dovrebbero utilizzare la tecnologia in settori quali l’istruzione, la sanità e il settore bancario.
Abbiamo chiesto al Presidente dell’Ente Nazionale per la Trasformazione Digitale, Pasquale Aiello, cosa ne pensasse del nuovo AI Act.
Queste le parole del noto esperto in Innovazione e Trasformazione Digitale: “l’AI Act rappresenta uno sforzo significativo da parte dell’Unione Europea per regolamentare l’Intelligenza Artificiale e affrontare le sfide etiche, economiche, sociali e di sicurezza associate. La sua efficacia dipenderà fortemente dall’impegno continuo nell’applicare e far rispettare le norme stabilite. Un dialogo costruttivo e un confronto continuo con i principali attori nel campo dell’Intelligenza Artificiale, nonché con altri paesi, sono essenziali per garantire una regolamentazione adeguata e aggiornata alle evoluzioni tecnologiche. Inoltre, quello sull’intelligenza artificiale non è un framework regolatorio che puoi definire oggi e far partire tra 2 anni.”