Attualità

L’Intelligenza Artificiale e le regole UE

Numerosi autori, studiosi e ricercatori hanno descritto la scoperta dell’Intelligenza Artificiale (IA) come una rivoluzione per l’umanità, in grado di generare cambiamenti di portata superiore a quelli innescati dalla rivoluzione industriale. L’uso pervasivo dell’IA, tuttavia, ha sollevato preoccupazioni in merito a sicurezza, privacy, etica, disinformazione e mancanza di responsabilità. Per far fronte a queste sfide, l’Unione Europea ha recentemente approvato l’AI Act, la normativa che regolamenta l’uso dell’IA in Europa.

Un quadro normativo globale

Il 9 dicembre 2023, dopo un negoziato durato 36 ore che ha coinvolto il Parlamento europeo, la Commissione e il Consiglio, è stata raggiunta un’intesa politica sull’AI Act, acronimo di Artificial Intelligence Act. Questa legge costituisce il primo quadro giuridico globale sull’IA, un vantaggio per il mondo. Si verifica, infatti, in un momento in cui la comunità scientifica internazionale sta cercando di comprendere e regolamentare l’uso di questa tecnologia avanzata, il cui potenziale impatto sulle nostre vite rimane ancora parzialmente sconosciuto.

Un approccio risk-based

Il fulcro della normativa è la distinzione delle applicazioni di IA in base al rischio che presentano per i diritti fondamentali. Sistemi a rischio minimo, come i sistemi di raccomandazione o i filtri spam sull’IA, godranno di deroghe. I sistemi ad alto rischio, invece, dovranno rispettare requisiti rigorosi e integrare una documentazione dettagliata, sorveglianza umana e un elevato livello di cybersicurezza. Si tratta ad esempio delle infrastrutture dei settori dell’acqua, del gas e dell’elettricità, dispositivi medici e sistemi utilizzati nell’ambito delle attività di contrasto e del controllo delle frontiere. I sistemi a rischio inaccettabile, che ledono de facto i diritti fondamentali, saranno vietati. Tra questi figurano i sistemi di IA volti a manipolare il comportamento umano, quelli che permettono a governi o imprese di assegnare un “punteggio sociale”, e certe applicazioni di polizia predittiva. Anche l’identificazione biometrica, la categorizzazione biometrica e il riconoscimento delle emozioni rientrano nella categoria dei sistemi a rischio elevato.

ChatGPT nel mirino

La normativa stabilisce vincoli per le grandi IA Generative, tra cui ChatGPT di OpenAI. Queste AI dovranno assicurare trasparenza nei processi di addestramento e condividere le documentazioni tecniche dei materiali usati prima di essere immessi sul mercato. Queste preoccupazioni sono state rimarcate in particolare dal New York Times. Recentemente, il giornale ha citato in giudizio OpenAI e Microsoft per la presunta violazione del diritto d’autore nell’utilizzo di milioni di suoi articoli per addestrare ChatGPT. Ciò ha evidenziato una certa opacità riguardo al modus operandi delle IA Generative, sottolineando al contempo le crescenti preoccupazioni in merito alla tutela dei diritti d’autore dei professionisti del settore.

Bilancio tra Innovazione e Diritti

L’accordo politico dovrà ora ricevere l’approvazione formale del Parlamento europeo e del Consiglio. La legge sarà applicabile due anni dopo la sua entrata in vigore. Nonostante i dubbi sollevati sulla sua efficacia a lungo termine, considerando la rapida evoluzione dell’IA, la normativa rappresenta comunque un passaggio rilevante. Evidenzia, innanzitutto, il tentativo encomiabile da parte dell’UE di bilanciare innovazione tecnologica e tutela dei diritti fondamentali dei cittadini, affermando, così, la sua leadership nell’etica e nella sicurezza dell’IA. Infine, potrebbe rappresentare un’opportunità per rilanciare l’industria IT europea, un settore attualmente monopolizzato da Cina e Stati Uniti d’America.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *