L’Intelligenza Artificiale sta gradualmente entrando a far parte delle vite, progredendo ogni giorno che passa e potrebbe diventare la tecnologia più rivoluzionaria che gli esseri umani abbiano mai sviluppato. Infatti, la nuova piattaforma di OpenAI chiamata Sora permette di creare video di realismo impressionante, partendo anche da un solo semplice prompt. Ma nonostante siano molteplici e affascianti i lati positivi dell’IA, ci sono anche molti dubbi e molti punti ancora oscuri che suscitano la preoccupazione non solo dei politici, ma anche ricercatori o utenti comuni, oltre agli stessi sviluppatori ed esperti di IA. Una delle domande più ricorrenti è: come possiamo controllare questa nuova tecnologia? Secondo una proposta che emerge da un documento di diverse istituzioni accademiche, tra cui il Leverhulme Centre dell’Università di Cambridge, l’Oxford Internet Institute e la Georgetown University, e alcuni ricercatori di ChatGpt (tramite il sito The Register), la risposta potrebbe risiedere in vari metodi, tra cui un pulsante “kill switch” per interrompere un sistema di IA quando ce ne fosse bisogno.
Il “Kill switch” o i blocchi remoti integrati nell’hardware sarebbero simili a quelli già sviluppati per fermare il lancio non autorizzato di armi nucleari. Nel documento si propone che ciò venga ottenuto mediante coprocessori integrati che agiscono come salvaguardia dell’hardware, il che comporterebbe il controllo di un certificato digitale che dovrebbe essere periodicamente rinnovato e la disattivazione o la riduzione delle prestazioni dell’hardware se la licenza fosse trovata essere illegittimo o scaduto. Un hardware fisico sarebbe quindi intrinsecamente più facile da controllare: Rispetto ad esso, altri input e output dello sviluppo dell’intelligenza artificiale (dati, algoritmi e modelli addestrati) sono beni immateriali facilmente condivisibili e non rivali, che li renderebbero più difficili da controllare. Infatti, una volta che un modello viene pubblicato, allo scoperto o trapelato, non sarebbe fattibile tornare sui propri passi e fermare la diffusione in rete.
Questo strumento però, come ricordano gli stessi ricercatori, potrebbe ritorcersi contro impedendo, se usato male o nelle mani sbagliate, lo sviluppo dell’intelligenza artificiale. Nel frattempo, sul fronte commerciale, il Dipartimento del Commercio ha continuato a rafforzare le restrizioni, limitando la performance degli acceleratori venduti alla Cina. Infine, per affrontare queste limitazioni, i ricercatori hanno proposto di implementare un registro globale per le vendite di chip di intelligenza artificiale che li monitorerebbe nel corso del loro ciclo di vita, anche dopo che hanno lasciato il paese di origine. Un registro di questo tipo, suggeriscono, potrebbe incorporare un identificatore univoco in ciascun chip, il che potrebbe aiutare a combattere il contrabbando di componenti.