Il Parlamento Europeo ha recentemente approvato ufficialmente l’AI Act, ovvero il testo che racchiude le nuove regole Ue per l’intelligenza artificiale e per combattere la disinformazione tramite deep fake. In una storica votazione, questa mattina l’aula di Strasburgo ha approvato con un’ampia maggioranza (499 voti a favore, 28 contrari e 93 astenuti) la sua posizione sulla legge sull’intelligenza artificiale. Nel processo di discussione e negoziazione dell’AI Act, è stato però bocciato un emendamento presentato dal PPE (Partito Popolare Europeo) che proponeva l’inserimento di alcune eccezioni per l’utilizzo delle telecamere per il riconoscimento facciale nelle strade e ai confini dell’Unione Europea per motivi di sicurezza nazionale o nei casi di minori scomparsi. Tuttavia, durante il processo di valutazione del documento, è stato deciso che tali eccezioni potrebbero comportare rischi significativi per la privacy e per i diritti fondamentali delle persone. Di conseguenza, l’emendamento è stato respinto, confermando il principio generale dell’AI Act che vieterebbe l’uso di sistemi di sorveglianza di massa, compresi quelli basati sul riconoscimento facciale, ai fini di privacy. Sono stati inoltre bocciati anche i cosiddetti sistemi di polizia predittiva, che integrerebbero la profilazione di un soggetto, la sua ubicazione o la registrazione dei suoi comportamenti criminali passati.
Come affermato anche dal relatore dell’AI act, Brando Benifei, l’opposizione da parte dei parlamentari si baserebbe su diverse ragioni: innanzitutto, si ritiene che i sistemi di polizia predittiva non siano efficaci, come confermano i dati. Inoltre, questi sistemi andrebbero contro il principio di innocenza, in quanto basano le previsioni su comportamenti passati senza tener conto del contesto attuale o della possibilità di cambiamento delle persone nel tempo. L’AI act era stato inizialmente presentato come una proposta legislativa dalla Commissione Europea il 21 aprile 2021, come parte di un pacchetto di iniziative per rendere l’Europa un leader globale e affidabile nell’intelligenza artificiale. L’obbiettivo principale, che man mano si è andato a delineare sempre di più, era quello di garantire che l’IA fosse sviluppata e utilizzata in modo sicuro, etico e trasparente, preservando i diritti fondamentali delle persone ma promuovendo un’innovazione responsabile. La Commissione aveva quindi proposto una regolamentazione basata sul “livello di rischio”, stilando una classifica dei vari sistemi di intelligenza artificiale in base ai rischi che possono comportare.
Il concetto di “rischio”, si riferisce alla valutazione del potenziale impatto negativo che un sistema di IA può avere sulla sicurezza. Ad esempio, i sistemi di intelligenza artificiale ad “alto rischio”, come quelli utilizzati in settori critici come la salute, la sicurezza, i trasporti e la gestione dell’energia, sarebbero soggetti a requisiti normativi più stringenti. Questi requisiti includerebbero l’obbligo di conformità alle norme di sicurezza e privacy, la documentazione di prove tecniche per dimostrare la conformità e l’istituzione di processi di valutazione della conformità da parte di organismi di certificazione indipendenti. Considerati i progressi tecnologici degli ultimi due anni e le varie controversie generate da Twitter, sono stati aggiunti in questa categoria i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti). Infine, sistemi come i chatbot, primo fra tutti ChatGPT, sarebbero classificabili come “rischio limitato” in quanto i modelli di linguaggio di questo tipo possono generare testo comprensibile e coerente, ma non sono in grado di influenzare direttamente il mondo fisico, di causare danni significativi o impatti negativi di ampia portata.