Era il 2014 e in un’intervista alla BBC il fisico Stephen Hawking, famoso per i suoi studi sui buchi neri e l’origine dell’Universo, espresse tutte le sue preoccupazioni riguardo la nascita dell’ai. Secondo quanto affermò Hawking “lo sviluppo di una piena intelligenza artificiale” avrebbe potuto “innescare la fine del genere umano”. “Gli umani, che sono limitati da una lenta evoluzione biologica, non potrebbero più competere e sarebbero soppiantati”, spiegò l’astrofisico e scienziato scomparso nel 2018. Sarebbero dunque i nostri limiti evolutivi a permettere alle macchine di prendere il sopravvento, anche se questo scenario non si presenterà in tempi brevi. Oggi, a circa 9 anni dalle parole di Hawking, arrivano le dichiarazioni, con tanto di avvertimento, di Sam Altman, CEO di OpenAI e del chatbot ChatGpt, di Geoffry Hinton e Yoshua Bengio, i due informatici canadesi vincitori del premio Turing 2018 per il loro lavoro sull’apprendimento profondo delle macchine e considerati i pionieri dell’intelligenza artificiale, e di Demis Hassabis, omologo di Google DeepMind, secondo cui l’intelligenza artificiale potrebbe portare all’estinzione dell’umanità.
I timori sull’intelligenza artificiale e della sua veloce e incontrollata evoluzione, erano stati paventati persino da Elon Musk e Steve Wozniak qualche mese fa che avevano chiesto una pausa di riflessione nella progettazione dell’ai per definire regole comuni. È paradossale che a chiedere di “mitigare il rischio di estinzione da parte dell’ai” siano proprio i creatori, i padri e i maggiori sostenitori di questa nuova tecnologia. Le parole all’interno di un documento pubblicate dal Center for AI Safety, società non profit di San Francisco, si soffermano anche su ciò che “dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”, ovvero si volgiono invitare non solo gli esperti e i leader mondiali ma anche l’opinione pubblica intera, a prendere coscienza che nel settore ci sono molte persone che vedono nell’ia una tecnologia pericolosa per le sorti dell’umanità. Come spesso accade di fronte a previsioni di tal genere, c’è chi prospetta un futuro della razza umana simile a uno scenario in stile Terminator, con sistemi di intelligenza artificiale che, diventando sempre più evoluti, non seguono più il volere umano e si rendono autonomi. Altri invece pensano che tali previsioni siano forse troppo pessimistiche annotando come esempio la difficolta per l’intelligenza artificiale di coordinare compiti banali come guidare un’automobile. Su un dato però tutti sembrano concordare, ovvero la possibilità che i sistemi di intelligenza artificiale siano una minaccia in determinati ambiti: consentono la sorveglianza di massa e possono facilitare la diffusione di disinformazione.
Siamo allora condannati ad estinguerci senza nessuna possibilità di salvezza? Le macchine, come era stato prospettato dalla letteratura distopica, sostituiranno l’uomo, magari annientandolo? C’è ancora tempo per trovare soluzioni che permettano di metterci in guardia dai possibili effetti collaterali della tecnologia, con una serie di soluzioni concrete attraverso cui i sistemi di Ai potrebbero essere gestiti in modo responsabile. Cooperazione, ricerca e condivisione di idee potrebbero essere basi di partenza da cui poi valutare le implicazioni e lo sviluppo di strumenti come l’elaborazione di protocolli di sicurezza condivisi da applicare all’intelligenza artificiale avanzata. Rimane però il sospetto che se proprio gli imprenditori e i creatori coinvolti nel settore dell’ai stiano evocando scenari apocalittici, allora vuol dire che un simile allarme sui rischi di strumenti digitali dall’intelligenza così elevata in grado di, tra l’altro, raccogliere montagne di dati personali online in violazione della privacy delle persone e senza nessuna forma di trasparenza, può giustificare apprensione, preoccupazione e paure su menti digitali che neanche i loro creatori riescono a comprendere e controllare.