Traduci

BIG DATA E AI LE SFIDE DELL’ITALIA – I^Parte

ABSTRACT

L’intelligenza artificiale si rivela sempre più un sistema di apprendimento ed elaborazione di dati complessi efficace per il conseguimento di ottimi traguardi nell’ambito delle politiche sociali e ambientali, dell’imprenditoria, della giustizia, della medicina, della pubblica amministrazione e, segnatamente, in ambito tributario. Molti sono i vantaggi ma molti anche i rischi di un suo utilizzo non etico.

Artificial intelligence is increasingly an effective learning and data processing system for achieving excellent goals in the areas of social and environmental policies, business, justice, medicine, public administration and, notably, taxation. There are many advantages but also many risks of its unethical use.

L’AI tra vantaggi e rischi

L’Intelligenza Artificiale (di seguito, AI) è ormai quasi quotidianamente oggetto di studi e dibattiti. Compulsando i media, anche i più qualificati, si è posti di fronte ad una miriade di notizie (e, purtroppo, talvolta anche di fake news), tutte incentrate sulle possibilità di impiego nell’attuale infosfera[1] della “nuova” tecnologia robotica e sui connessi rischi e vantaggi.

Si ha la percezione, assai spesso, che si moltiplichi una narrativa insistente nel voler fornire una sorta di  informativa incalzante all’opinionismo dilagante sul tema/problema dell’automatismo che, nel giro di un tempo imprevedibile (ma senz’altro breve), in tutti gli ambiti in cui troverà applicazione sovvertirà le attuali dinamiche con sue “specifiche peculiarità”.[2]

L’analisi obbiettiva delle evidenze scientifiche non può escludere che ciò possa accadere e, quanto si dirà nel prosieguo, sta a dimostrare che il potenziale tecnologico rivoluzionario innescato dalle A non può essere fermato sicuramente ma ciò che può e si deve escludere è la mancanza di armonizzazioni normative internazionali di controllo sulla gestione delle AI stesse. In altre parole, si rende necessario e indifferibile un codice di condotta che, in buona sostanza, proibisca gabbie autoreferenziali di raccolta ed uso illegittimo dei dati, atti a divenire strumentalizzabili per fini antieconomici aggravando le disuguaglianze sociali e attentando alla democrazia[3] nonché che per intenti criminali da parte di consorterie mafiose.[4]

Allo stato il dibattito è acceso e denso di spunti di riflessione. Eppure, un primo modello di IA era apparso già negli anni ’50 senza provocare eccessive eco mediatiche e, al di là di sparute narrative di interesse sociologico, nessuna risonanza ebbe in ambienti extra-accademici che potesse andare a corroborare una minima attenzione all’interno di quegli apparati istituzionali (che sono attualmente i maggiori fruitori di programmi digitali per le proprie attività core).  

Non sono in molti, infatti, a conoscere il programma di scacchi ideato nel 1950 da Claude Shannon e assai meno sono coloro che sanno che, prima ancora, il matematico britannico Alan Turing nel 1936 aveva elaborato il funzionamento di un dispositivo informatico (noto in ambito scientifico come “macchina di Turing”) in grado di eseguire algoritmi, cui seguì, tra l’autunno 1939 e la primavera del 1940, la macchina (progettata insieme al gruppo di matematici di Bletchley Park),
detta “Bombe” capace di decifrare, durante la Seconda guerra mondiale, i codici crittografici tedeschi[5] e, per restare in argomento, che nel 1950 pubblicò Computing machinery and intelligence , un articolo in cui anticipava la realizzazione di un’intelligenza artificiale elaborando un test per mettere a confronto il pensiero umano e quello artificiale.

Il richiamo storico è doveroso perché Turing fu il pioniere della “macchina pensante”, prototipo delle tecnologie di elaborazione del linguaggio neurale e di apprendimento automatico sviluppate negli anni a venire, come, ad esempio, il programma LogicTheorist[6] sviluppato, nel 1956, dai ricercatori informatici Allen Newell e Herbert Simon e quello (noto come il “percettone”) di Frank Rosenblatt, messo a punto nel 1958.  Fu allora che università e aziende informatiche (tra le tante, la IBM) si impegnarono nello studio di nuovi programmi e software che riuscissero a dimostrare i teoremi sempre più complessi che portarono alla nascita di LISP (List Processor), il primo linguaggio informatico dedicato alla programmazione di sistemi di Intelligenza Artificiale[7].

La svolta nell’uso dell’IA avviene nel 1969, quando alcuni studenti e ricercatori del Carnegie Institute of Technology realizzarono, in ambito biologico, il programma Dendral, in grado di ricostruire una molecola semplice a partire dalle informazioni ottenute dallo spettrometro di massa. 

Sarà negli anni ’80 che si svilupperà il primo sistema di AI a scopo commerciale, ampliando l’interesse verso questa tematica non solo negli Stati Uniti ma anche il Giappone e l’Europa, per giungere nel 2015, nel nostro Paese, alla rete neurale ResNet capace di una prestazione del 96,5% superiore a quella di un essere umano attestata al 90-95%.

L’ excursus storico – descritto in linee essenziali – sullo strabiliante sviluppo dell’ robotica sta a dimostrare che, nell’arco di pochi decenni, essa si è evoluta dotandosi di un grado di autonomia, diversificandosi in molte tipologie e passando dall’applicazione limitata all’ambito matematico accademico al progresso di algoritmi sempre più raffinati capaci di processare una enorme mole di dati e di replicare meccanismi logici umani: in buona sostanza,  indirizzando la ricerca nello studio di risoluzioni di problematiche più umane, come lo studio di parametri variabili di auto-apprendimento attraverso la realizzazione di percorsi semantici[8] per le macchine. In buona sostanza un linguaggio che permetta di programmare le diverse possibilità proprie di un ragionamento, semplice o complesso che sia.

Oggi l’obiettivo scientifico dell’AI mira a realizzare sistemi in grado di risolvere problemi sempre più complessi con una prestazione simile o superiore a quella dell’uomo e, mentre l’interesse da parte delle istituzioni pubbliche e delle realtà private è altissima, si fa più urgente l’adozione di normative di tutela della collettività, pericolosamente esposta al rischio di procedure non etiche o confliggenti con i diritti umani.

È sotto gli occhi di tutti quanto le metodologie di AI trovino applicazioni sempre più estese con ricadute altrettanto dirompenti. Ed è comprensibile quanto possa essere determinante il tipo di modello e la profondità della rete neurale[9], ossia il particolare modello matematico che, ispirandosi ai neuroni e alle reti neurali umane, punta alla soluzione dei diversi problemi tramite l’analisi tra gli input ricevuti e la correttezza dei risultati ottenuti in relazione alle scelte effettuate.   Ciò significa che, all’interno di una rete neurale, ogni azione del sistema intelligente è sempre il risultato dell’elaborazione di calcoli volti a verificare i parametri e a definire le incognite che circoscrivono le funzioni stesse. Considerando, inoltre, che le IA in quanto software in grado di rispondere a quesiti le cui risposte non sono già state programmate durante il loro sviluppo esse sono, in buona sostanza, autonome nel loro ambito specifico di applicazione.

In concreto le IA vengono, infatti, “informate” con una mole di dati catalogati ed etichettati, i data set. Questi dati vengono quindi processati con un sistema di deep learning per creare dei profili statistici (che diventano il fondamento di tutto ciò che l’AI è in grado di concepire e manipolare) e sono codificati, in una maniera assolutamente non intuitiva per un essere umano, nel latent space, ovvero in uno spazio topologico multidimensionale.

Fermo restando quanto detto a proposito dei rischi di un utilizzo spregiudicato, è proprio grazie alla capacità di apprendimento di enormi quantità di dati e alla loro automatica elaborazione, che le IA possono trovare applicazioni di successo in moltissimi settori.  È una percezione presente anche nel pensiero di molti “addetti ai lavori” e di illustri saggisti che già in tempi non sospetti preconizzavano le ricadute della diffusione delle tecnologie nella società umana. Avanzò dubbi lo stesso Alan Turing quando, nel 1951, ebbe a dichiarare che “una volta avviato lo sviluppo di macchine intelligenti, non ci vorrà molto perché superino i nostri deboli poteri. A un certo punto dovremo aspettarci che le macchine prendano il controllo”. In tempi più recenti del tema si sono occupate le Reith Lectures, le quattro lezioni nelle quali Stuart Russell, uno dei massimi esperti di intelligenza artificiale, matematico e informatico britannico, professore alla Berkeley University ha ribadito quanto affermato anche in altre occasioni circa l’urgenza di progettare, per il bene dell’umanità,  un’IA controllabile perché il rischio non sta in una futura super AI che possa raggiungere l’autocoscienza e minacciare la sopravvivenza della nostra specie quanto nella possibile incapacità dell’essere umano di gestire questa tecnologia in modo etico e per il bene del mondo. L’appello al senso di responsabilità politica e all’intelligenza umana di Russell agli scienziati e ai decisori politici è chiaro: “dobbiamo interrogarci adesso, finché abbiamo tempo, su qual è il buon futuro per noi, per le nostre famiglie e per il mondo[10] .

(Continua)

(articolo tratto da: A. Giordano, Big Data e IA le sfide del Fisco nella lotta all’evasione, in Rivista della Guardia di Finanza n. 2/2024)

——————————————————————————————————————–

[1] “Infosfera” è la definizione coniata dal filosofo Luciano Floridi per definire il nuovo ambiente culturale prodotto dalla rivoluzione digitale (di cui l’AI è l’elemento prioritario) con cui le tecnologie influiscono nella attuale società dei big data “trasformandoci spesso in spettatori di una realtà che sta altrove, dove siamo presenti ma al contempo assenti, in compagnia ma soli, in connessione più che in relazione”. Secondo la visione di Floridi i confini tra la vita online e quella offline tendono a sparire e siamo tutti ormai connessi gli uni con gli altri senza soluzione di continuità, diventando progressivamente parte integrante di un’“ infosfera” globale (cfr: Luciano Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina editore).

Una visione prospettica, quella di Russell, lucida e per nulla apocalittica, quale quella che foriera di allarme sociale attraverso altri generi espressivi (si pensi, per citarne uno tra i tanti, al film “Transcendence” ) alimentando una vexata quaestio dell’estinzione del genere umano che da decenni divide l’opinione pubblica.

Sul punto Umberto Eco nel suo libro Apocalittici e integrati del 1964 aveva affrontato l’argomento descrivendo le due diverse reazioni delle masse rispetto alle nuove forme di comunicazione legate alle tecnologie emergenti: da una parte, “gli integrati” ne accoglievano con entusiasmo i vantaggi ritenuti utili anche ai fini dell’ampliamento dei confini culturali; dall’altra, “gli apocalittici”, ne denunciavano i pericoli per il futuro dell’umanità. All’epoca la diatriba si incentrava nel settore della comunicazione di massa, rappresentato soprattutto dalla radio e dalla televisione. Contestualizzando le riflessioni di Umberto Eco al dibattito sull’utilizzo dell’IA sorprende che la stessa dicotomia di argomentazioni tra apocalittici e integrati si riproponga al giorno d’oggi. 

[3] L’IA senza controllo può, infatti, standardizzare le preferenze, polarizzare le scelte rendendole prevedibili per l’algoritmo e facendo sì che possano essere sfruttate non solo commercialmente ma anche politicamente.

[4] Le mafie più moderne possono sviluppare sistemi basati sull’intelligenza artificiale per la manipolazione dei mercati dove riciclare i proventi del crimine. L’uso dell’intelligenza artificiale può fungere, ad esempio, da moltiplicatore di guadagni per le attività di riciclaggio di danaro sporco. L’intelligenza artificiale, dunque, può fare da “banca dati” metterli insieme in maniera “intelligente” per l’utilizzo criminale da parte di organizzazioni mafiose che operano a livello transnazionale. Basti considerare che i ricercatori di “Check Point Research” in Israele hanno individuato almeno tre casi in cui i cyber criminali hanno utilizzato l’intelligenza artificiale per scopi criminali: 1) la creazione di software “stealer”; 2) la crittografia di dati; 3) la creazione di un marketplace del dark web per lo scambio di dati di conti bancari e carte di pagamento rubati, strumenti malware, droghe, armi e persino organi umani. 

[5] Fu grazie alla Bomba (da cryptological bombe, nome inglese derivato dal polacco bomba kryptologiczna) che vennero salvate migliaia di vite umane.

[6] È oggi considerato il primo programma progettato di intelligenza artificiale.  Newell e Simon fondarono uno dei primi laboratori di intelligenza artificiale presso il Carnegie Institute of Technology sviluppando una teoria unificata della cognizione e una serie di programmi, tra cui il General Problem Solver e Soar.

[7]  LISP, sviluppato nel 1958 nel contesto del MIT Artificial Intelligence Project, da John McCarthy, pose le basi di un linguaggio per lo studio di equazioni di ricorsione in un modello computazionale. In particolare, LISP viene pensato per applicazioni di IA nel contesto del Dartmouth Summer Research Project on Artificial Intelligence, ovvero il primo progetto di ricerca organico sui temi dell’IA. Dopo il Fortran (FORmula TRANslation), uno dei primi linguaggi di terza generazione, adottato dal mondo accademico e dalla comunità scientifica nel triennio compreso tra il 1954 e il1957, grazie al lavoro del team IBM guidato da John Backus e poi adottato da Micro-Soft che ne fece una propria versione nel 1977 – il LISP è il più vecchio linguaggio di programmazione di alto livello ancora in uso.

[8] La piena realizzazione di un ragionamento semantico (proprio dell’intelligenza umana) è oggetto della ricerca più avanzata. L’automa possiede una capacità sintattica, ossia la capacità di realizzare – seguendo le istruzioni definite dai programmatori – una procedura (algoritmo) capace di processare moli di dati per arrivare a un risultato, senza “coscienza di capire che cosa fa e che significato ha il processo in atto. L’intelligenza umana è, invece, semantica perché non necessita di programmazione per fare una determinata azione, di cui ha sempre capacità di essere (salvo i casi di fisiologicamente patologici) consapevole.

[9] Il nome di rete neurale deriva dal fatto che questo modello matematico è caratterizzato da una serie di interconnessioni tra tutte le diverse informazioni necessarie per i diversi calcoli. Matematicamente, una rete neurale viene definita come una funzione composta, ossia dipendente da altre funzioni a loro volta definibili in maniera differente a seconda di ulteriori funzioni dalle quali esse dipendono.

[10] L’IA si rivela un ausilio importante nella giustizia penale perché premetterebbe di elaborare più velocemente grandi volumi di dati, valutare con più accuratezza i rischi di fuga dei detenuti, prevedere e prevenire crimini e attacchi terroristici.

——————————————————————————————————————–

 

Data:

1 Luglio 2024
Tagged:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *