Traduci

BIG DATA E AI LE SFIDE

Sistemi di IA in Italia. Gli impegni della PA nel contesto nazionale ed europeo

 In Italia i sistemi IA più utilizzati sono quelli di Intelligent Data Processing che si rivelano particolarmente efficaci per la loro capacità di elaborare dati acquisiti rilevando anomalie e formulando previsioni sul loro andamento (sono utilissimi, ad esempio, nella rilevazione delle frodi). Seguono i sistemi di Chatbot, dotati della capacità di comprendere le domande che vengono poste e di rispondere alle stesse in modo appropriato compulsando rapidamente una enorme quantità di dati, ragione per cui si considerano atti a divenire suscettibili di inadeguatezza[1].

A fronte dei tanti vantaggi derivanti dall’applicazione dell’IA (in parte descritti nel paragrafo precedente) molto dibattute sono le “nostrane” criticità, talune endemiche e altre esogene. E’ risaputo che nel nostro Paese la scienza lavora alacremente malgrado la scarsità di finanziamenti pubblici che storicamente penalizza la ricerca universitaria, la difficoltà delle aziende pubbliche e private di sviluppare nel proprio seno le competenze necessarie ad adottare le IA e, non ultime seppure in misura più contenuta, le opinioni su apocalittici scenari (volutamente illustrate nelle note che corredano questo articolo per la variegata gamma delle tesi che si contendono il panorama del dibattito in materia).

Spezzando una lancia nell’obbiettiva consapevolezza che la tecnologia è ormai  parte integrante della nostra identità di cittadini del futuro e che proprio per questo ha una enorme importanza politica, economica e sociale (che deve essere costantemente “negoziata” tra tutela dei diritti e ricerca)l’IA rappresenta senza dubbio un enorme mercato per le big tech ed è, nel contempo, abilitante per  l’efficientamento dei servizi pubblici e privati se l’Italia non solo la adotta ma si impegna anche a produrla, studiarla e implementarla in modo da rendersi indipendente dai colossi di matrice estera e   a renderla possibilmente competitiva.

Questo dovrà essere l’impegno per l’Italia, il cui target di eccellenza scientifica riesce ad essere notevole se opportunamente presente nelle politiche di finanziamento da parte dei governi. È noto che i padroni del mondo digitale[2] continuano ad arricchirsi con le tecnologie e, non dimentichiamolo, a dominare le “gabbie” di dati in funzione di scelte autoreferenziali.   Malgrado l’iniziale indifferenza le istituzioni – e si fa riferimento alle pubbliche amministrazioni – più duttili al cambiamento e alla sburocratizzazione (come, ad esempio, le agenzie fiscali) hanno dimostrato di conseguire risultati apprezzabili in termini di buon andamento, contenimento dei costi di gestione, ottimizzazione dei risultati.

La nostra pubblica amministrazione, sebbene ancora lontana dai traguardi di qualità reclamati dai cittadini, negli ultimi decenni ha, infatti, molto investito nell’informatizzazione per sburocratizzarsi adeguandosi a standard più competitivi, si propone oggi sempre più interessata all’adozione dell’IA, sinonimo di nuovi modelli di efficienza.

In tale prospettiva l’Italia il 24 novembre 2021 ha adottato il “Programma Strategico di Intelligenza Artificiale 2022-2024”. Relativamente alle pubbliche amministrazioni, ha assunto l’impegno che l’uso e l’impatto dell’IA nel settore pubblico deriveranno da un approccio duale, seguendo la logica del govern IA and govern with IA. Il passaggio al nuovo paradigma tecnologico basato sull’IA influenzerà, dunque, fortemente il processo di modernizzazione consentendo di sfruttare le grandi basi dati per ampliare i servizi del settore pubblico e le opportunità di integrazione con i privati (per esempio nei settori della fiscalità, della sanità, della mobilità).

Di conseguenza, è fondamentale rendere i dati esistenti fruibili dalle pubbliche amministrazioni nel rispetto delle regole del GDPR e dei principi di privacy by design, ethics by design e human centred design creando forme di aggregazione dei dati. Per fare ciò, saranno necessari competenze, procedure e strumenti adeguati e, per tale ragione, gli apparati dovranno sperimentare una sua implementazione misurandosi con il difficile connubio tra possibilità operative, costi, vantaggi e rischi.

Se nell’opinione pubblica generano inquietudine le innovazioni che la  transizione tecnologico/robotica sta portando nelle professioni e nel lavoro, pressanti diatribe giuridiche si incentrano sulle ricadute  in tematiche come la sorveglianza, il riconoscimento facciale, la polizia predittiva, la lotta al crimine prodotto da contenuti falsi o manipolati[3], le fake news e le molte conseguenze nefaste nel contesto economico internazionale, segnatamente europeo,  derivanti dall’assenza di una regolamentazione comune.

Per porre un primo immediato argine al dilagare di situazioni regolate diversamente da Stato a Stato il Parlamento europeo, facendo seguito alla Dichiarazione europea sui diritti e i principi digitali per il decennio digitale (2023/C 23/ 01)[4] – emanata il 23 gennaio 2023  congiuntamente con Commissione europea, Consiglio dell’UEil 14 giugno 2023 ha approvato, per primo al mondo, l’Artificial Intelligence Act (AI Act), il progetto di normativa sull’IA, proposto dalla Commissione europea nell’aprile del 2021, imponendo una serie di obblighi per i providers di sistemi di IA[5] . L’impegno in sede europea ha condotto alla legge sull’IA (https://artificialintelligenceact.eu/).

La legge sull’IA – per la cui  pubblicazione si attende il 12 luglio 2024 –  fa parte di un più ampio pacchetto di misure politiche a sostegno dello sviluppo di un’IA affidabile, che comprende anche il pacchetto sull’innovazione in materia di IA e il piano coordinato sull’IA.

Le “euronorme” mirano a garantire che l’IA, sviluppata e utilizzata in Europa, sia conforme con i diritti e i valori dell’Unione europea e per tale ragione sono previsti divieti sugli usi intrusivi e discriminatori dell’IA[6].

Nel testo approvato dal Parlamento europeo[7]  la classificazione delle applicazioni ad alto rischio include anche i sistemi di IA ritenuti dannosi[8] per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente. 

Particolarmente “attenzionati” sono i sistemi di IA generativa che si basano su modelli, quali ChatGPT i quali, secondo il legislatore dell’AI Act, sono obbligati a rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall’IA), a fornire garanzie per evitare la produzione di contenuti illegali e a pubblicare le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento[9].

La nuova legge classifica, in particolare,  diversi tipi di intelligenza artificiale in base al rischio. I sistemi di IA che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, mentre i sistemi di IA ad alto rischio sarebbero autorizzati, ma soggetti a una serie di requisiti e obblighi per ottenere l’accesso al mercato dell’UE. I sistemi di intelligenza artificiale come, ad esempio, la manipolazione cognitivo comportamentale e il punteggio sociale saranno banditi dall’UE perché il loro rischio è ritenuto inaccettabile. La legge vieta inoltre l’uso dell’intelligenza artificiale per politiche predittive basate sulla profilazione e sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale.

La legge sull’IA affronta anche l’uso di modelli di intelligenza artificiale per scopi generali (GPAI). I modelli GPAI che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio per quanto riguarda la trasparenza, ma quelli con rischi sistemici dovranno rispettare regole più severe.

Gli intenti implementati nei primi interventi normativi di indirizzo hanno trovato un’evidenza nella “Prima Relazione sullo stato del decennio digitale” pubblicata il 27 settembre 2023. La Relazione reca un’analisi globale dei progressi compiuti verso la realizzazione di una trasformazione digitale “volta a rafforzare la sovranità digitale, la resilienza e la competitività dell’UE” (ossia  gli obiettivi e i traguardi della strategia 2030 dell’Europa) concentrandosi su quattro pilastri principali: competenze digitali, infrastrutture digitali, digitalizzazione delle imprese, compreso l’uso dell’intelligenza artificiale (IA), e digitalizzazione dei servizi pubblici.[10]

Il Piano nazionale di ripresa e resilienza (PNRR) in Italia ha raccolto la sfida prevedendo ingenti investimenti per progetti volti a razionalizzare la spesa delle pubbliche amministrazioni centrali e, in particolare, per la transizione digitale delle infrastrutture[11]. In tale ottica Sogei, partner della PA centrale nei processi di digital trasformation, fornisce supporto strategico e operativo nei processi di erogazione dei servizi infrastrutturali (PSN), oltre a iniziative in ambito di cybersecurity.

Il fermento istituzionale, l’attesa diffusa negli ipotetici fruitori di servizi prodotti dalle IA e gli interventi normativi sono notevoli mantengono attuale “la doppia lettura”, che storicamente ha caratterizzato l’iter fenomenico della rivoluzione tecnologica fin dai primordi. Al centro dell’acceso dibattito tra diverse specificità e linguaggi – il fattore umano e quello dei computer in mano alla robotica – c’è il rischio della sorveglianza, dello sfruttamento, del furto di dati e dei sistemi di conservazione degli stessi dati[12], di identità, dei costi ma c’è anche la possibilità creare servizi intelligenti, di realizzare obbiettivi fino ad oggi non raggiunti ovvero raggiunti in misura inadeguata. Proprio tale ultimo aspetto anima l’interesse delle amministrazioni pubbliche che nel panorama generale sono da sempre quelle maggiormente ostracizzate perché il costo di gestione non garantisce un livello di qualità dei servizi erogati. 

Conclusioni

Concludo l’analisi condotta sui vantaggi e rischi connessi all’utilizzo dell’IA prendendo abbrivio dalla sua evoluzione storica e approdando ai sistemi adottati in Italia, segnatamente nella pubblica amministrazione con particolare approfondimento incentrato su quella fiscale, nella fiducia di aver trasmesso a chi legge, una visione compiuta della fenomenologia connessa e spunti di riflessione sui suoi nodi cruciali, rappresentati fondamentalmente dalla necessità indifferibile per i legislatori di armonizzarsi nell’adozione di un codice etico internazionale e di mantenere alto il livello di controllo sulla tutela dei diritti e la deterrenza del crimine mafioso. Nel panorama generale il modello Italia esprime, come ho inteso dimostrare, livelli di eccellenza laddove si è investito e si continua ad investire per elaborare i parametri di automazione secondo standard che siano di eccellenza anche per sicurezza e tutela dei diritti. Il preciso impegno che il governo dovrà assumersi sta nel  porre il sostegno economico alla ricerca nelle sue priorità perché l’autoproduzione di IA oltre che rappresentare una risorsa economicamente apprezzabile mette al riparo il Paese dalle strategie – si è visto non sempre lecite – dei colossi esteri della digitalizzazione.

Fine

(fonte: A. Giordano, Big Data e IA le sfide del Fisco nella lotta all’evasione, in Rivista della

Guardia di Finanza n. 2/2024)


[1]Ne è un esempio la tanto discussa ChatGPT, la tecnologia sviluppata da OpenAI,che rappresenta un prototipo evoluto di chatbot che simula le conversazioni umane basato sull’IA e il machine learning. Da quando è stata resa accessibile ad un pubblico indifferenziato (dal novembre 2022) è stata oggetto di critiche per la sua applicazione ai corpus di testo, contingentati in un tempo perimetrato (dunque, inaffidabili) e con palesi profili di illiceità. L’attuale versione di ChatGPT (la 3.5) è stata, infatti, bloccata dal Garante della Privacy italiano con provvedimento del n. 112 del 30 marzo 2023 https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832 e poi ripristinata, il successivo 15 maggio,  con la riserva rappresentata dall’impegno di monitorare l’adempimento delle non conformità eccepite. Tra tutte le questioni sollevate dal Garante della Privacy quello della protezione dei dati personali è, come si dirà nell’articolo, il più spinoso e controverso soprattutto nel diritto tributario, in quanto deputato a controbilanciare le esigenze di contrasto all’evasione fiscale e quelle di tutela dei dati personali.

[2] Tra i più ricchi del mondo nomi come Elon Musk con Tesla, Space X, Jeff Bezos con Amazon, Larry Ellison
con Oracle, Bill Gates e Steve Ballmer con  Microsoft, Mark Zuckenberg fondatore di Facebook e oggi AD di Meta, Larry Page fondatore di Google, indicizzati non solo per la esponenziale crescita dei cespiti patrimoniali ma assai spesso per l’utilizzo non etico delle piazze digitali di proprietà. Ex multis lo scandalo dei cosiddetti facebook files quando Frances Haugen, ingegnera informatica, dopo aver lavorato per Google, Yelp, Pinterest e Facebook, nel 2021 ha divulgato decine di migliaia di documenti alla Securities and Exchange Commission e al Wall Street Journal, denunciando la complicità di Facebook nella radicalizzazione della violenza politica in tutto il mondo. (cfr: Frances Haugen, Il dovere di scegliere. La mia battaglia per la verità contro Facebook, Garzanti editore)

[3] Vedi nota n. 4.

[4] La Dichiarazione  (https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:32023C0123(01)) firmata dai presidenti della Commissione, del Parlamento europeo e del Consiglio, rispecchia l’impegno politico di promuovere  una transizione digitale basata interamente sui valori europei, così da garantire ai cittadini il potere di godere appieno delle opportunità offerte dal decennio digitale. I diritti e i principi digitali proposti nella dichiarazione riflettono i valori fondanti dell’UE e promuovono una trasformazione digitale antropocentrica all’insegna della sostenibilità.
Nuovi ed ulteriori principi e diritti cd “digitali” andranno ad aggiungersi, integrandoli, ai diritti esistenti ed ampiamente garantiti all’interno dell’ordinamento unionale, quali la protezione dei dati, l’ePrivacy e la Carta dei diritti fondamentali. Tali diritti prenderanno a modello di riferimento l’esperienza del pilastro europeo dei diritti sociali e orienteranno sia le istesse istituzioni europee, che i singoli Stati membri, nel processo di adeguamento alla transizione digitale.
Sei sono i temi su cui i principi si focalizzano:

  1. Porre al centro della trasformazione digitale le persone e i loro diritti
  2. Sostenere solidarietà ed inclusione
  3. Garantire la libertà di scelta online
  4. Promuovere la partecipazione allo spazio pubblico digitale
  5. Aumentare la sicurezza, la sicurezza e l’empowerment degli individui
  6. Promuovere la sostenibilità del futuro digitale

[5] https://artificialintelligenceact.eu/the-act/

[6] I divieti sugli usi intrusivi e discriminatori dell’IA riguardano: l’uso di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico; i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; e l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).     

[7] Nel momento in cui viene scritto questo articolo sono in corso i negoziati interistituzionali con i rappresentanti del Consiglio Ue (che ha adottato la sua posizione a dicembre 2022) per la stesura finale del testo. L’obiettivo di raggiungere un accordo entro la fine di quest’anno. perché l’AI Act possa diventare infine legge entro la prima metà del 2024.

[8] Sono considerati ad alto rischio anche i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).   

[9] L’adozione di misure specifiche di tutela è motivata dalle recenti problematiche incentrate sulla tanto discussa ChatGPT che rappresenta il modello (cosiddetto generativo) di cui maggiormente, nel bene e nel male, si sono occupati i media per la sua applicazione ai corpus di testo contingentati in un tempo perimetrato e dunque, inaffidabili e con palesi profili di illiceità. L’attuale versione di ChatGPT (la 3.5) è stata, infatti, bloccata dal Garante della Privacy italiano con provvedimento del n. 112 del 30 marzo 2023 https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832 e poi ripristinata, il successivo 15 maggio,  con riserva con l’impegno di monitorare l’adempimento di tutte le non conformità eccepite. Tra tutte le questioni sollevate dal garante della privacy il problema della protezione dei dati personali è, come si dirà nell’articolo, quello più spinoso e controverso in diritto tributario, deputato a controbilanciare le esigenze di contrasto all’evasione fiscale e quelle di tutela dei dati personali.

[10] La Relazione 2023, prevedendo anche il monitoraggio della dichiarazione europea sui diritti e i principi digitali, che riflette l’impegno dell’UE a favore di una trasformazione digitale sostenibile e sicura, è  la prima di una serie di relazioni annuali, invita gli Stati membri all’azione collettiva per colmare le attuali carenze di investimenti, accelerare la trasformazione digitale in Europa e intensificare gli sforzi per conseguire gli obiettivi del programma strategico per il decennio digitale (DDPP).

Il programma strategico per il decennio digitale (DDPP) fissa tra gli obiettivi per promuovere la digitalizzazione delle imprese l’adozione da parte di almeno il 75% delle imprese di servizi di cloud computing, big data e/o intelligenza artificiale (IA).

[11] Il 27% delle risorse totali del Piano nazionale di ripresa e resilienza  sono dedicate alla transizione digitale: da un lato sono previsti interventi per le infrastrutture digitali e la connettività a banda ultra larga, dall’altro quelli volti a trasformare e innovare la Pubblica Amministrazione (PA) in chiave digitale.

PA digitale 2026 è l’iniziativa promossa dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei Ministri per le Pubbliche amministrazioni che potranno richiedere i fondi del PNRR dedicati alla digitalizzazione, rendicontare l’avanzamento dei progetti e ricevere assistenza. I 7 investimenti previsti dal PNRR per la digitalizzazione della PA sono messi a disposizione attraverso 14 misure, per un totale di oltre 6 miliardi di euro. (cfr: https://www.agid.gov.it/it/agenzia/attuazione-misure-pnrr)

[12] Il problema degli archivi dei dati è tutt’altro che secondario e non tanto perché la rivoluzione digitale ne modifica i principi. I criteri di conservazione sono un vulnus non sottacibile. Mi si consenta un brevissimo cenno in questa sede. La memoria umana e quella digitale hanno in comune solo il referente unico, ma mentre la memoria umana è una costante ridefinizione e riorganizzazione del passato, quella digitale è un processo di conservazione senza interpretazione. L’archivio è uno strumento di esternalizzazione della memoria, che comunque conserva il carattere umano di apertura e sottopone i suoi documenti a una costante reinterpretazione e attualizzazione che aiuta a rimediare l’immaginazione preservando il passato e insieme reinventandolo a ogni passo. Come esseri umani siamo dipendenti dal processo di esternalizzazione tecnico che consente di preservare e attualizzare la memoria non solo nella forma genotipica ma anche in quella epigenetica e filogenetica. Le tecniche usate per conservare la memoria sono parte integrante della nostra identità, ma proprio per questo hanno una enorme importanza politica, che deve essere costantemente negoziata tra tutela dei diritti, immaginazione e creatività.

Negli ambienti accademici ci si chiede quale futuro ci potrebbe essere per gli archivi che scelgono e conservano la memoria in cloud dislocate in luoghi geopoliticamente strategici e come possiamo pensare in modo nuovo la relazione tra la conservazione intelligente della nostra storia umana, sociale e collettiva e la capacità dell’intelligenza digitale di riconfezionare contenuti a partire da quelli che costituiscono il suo corpus di addestramento.  

Quale futuro per la tutela della proprietà intellettuale che si propone di difendere l’opera dell’ingegno umano se queste opere non sono più il frutto della capacità puramente umana, ma sono il prodotto di un complesso sistema di archiviazione e riorganizzazione dei contenuti governati da software prodotti da umani, ma su cui è difficile mantenere la visibilità? Che cosa intendere per fair use quando la definizione di beni comuni archivistici serve a nutrire algoritmi di addestramento per la produzione artificiale di testi? Come pensare all’archivio come il luogo della produzione dell’immaginario collettivo e quindi accessibile da tutte e tutti, ma evitarne lo sfruttamento da parte di sistemi sociotecnici che si appropriano dei suoi dati per la produzione di contenuti la cui controllabilità è impossibile? La scienza si sta impegnando per progettare un futuro aperto, democratico, abilitante e inclusivo per l’archivio nell’era della sua riproducibilità tecnica, le cui caratteristiche rischiano, senza regole, di prestarsi a un processo di astrazione e estrazione da parte di attori tecno-politici nella forma del free-riding dei beni comuni. Ma ciò che manca è una nuova politica per l’archivio e la memoria capaci di dialogare con le innovazioni tecnologiche digitali e i sistemi di intelligenza artificiale senza tradire la funzione pubblica, inclusiva, collettiva della conservazione della memoria.

________________________________________________________________________________________________________________

Data:

9 Luglio 2024

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *