Traduci

OPENAI CREA UN TEAM DI PER VALUTARE I RISCHI CATASTROFICI DELL’IA

A meno di un mese dal licenziamento e dalla successiva riassunzione del CEO Sam Altman in OpenAI, la società americana avrebbe recentemente annunciato che creerà un nuovo team di esperti che si occuperanno di valutare e prevenire i “rischi catastrofici” dell’intelligenza artificiale nei modelli attualmente in fase di sviluppo. Secondo i principali media statunitensi, i membri del consiglio di amministrazione avrebbero criticato l’operato di Altman per aver favorito lo sviluppo accelerato di OpenAI, anche se ciò significava eludere alcune domande sui possibili eccessi dell’IA. Di conseguenza, il nuovo piano di sicurezza annunciato da Open AI prevederebbe che il consiglio di amministrazione di OpenAI possa finalmente esercitare il diritto di veto sulle decisioni dell’amministratore delegato Sam Altman, qualora ritenga che i rischi siano troppo elevati.

cms_32867/foto_1.jpg

In un post la società ha poi spiegato che: “Crediamo che lo studio scientifico sui rischi catastrofici derivanti dall’intelligenza artificiale sia ben al di sotto di dove debba essere. Per colmare questa lacuna e sistematizzare il nostro pensiero sulla sicurezza, stiamo adottando la versione iniziale del nostro Predepardness Framework. (ovvero il quadro che si occuperebbe di identificare, valutare, prevedere e prevenire i rischi catastrofici dei modelli)”. Il team di preparazione sarà guidato dall’informatico Aleksander Madry, che ha preso un congedo dal Massachusetts Institute of Technology (MIT), dove era professore. Mentre il nuovo gruppo si concentrerà sui cosiddetti “modelli di frontiera” attualmente in fase di sviluppo e con capacità superiori ai più avanzati software di intelligenza artificiale. Ad ogni modello valutato gli verrà assegnato un livello di rischio diviso in 4 categorie principali, da “basso” a “critico”, e potranno essere utilizzati solo i modelli con un punteggio di rischio pari o inferiore a “medio”.

cms_32867/foto_2.jpg

Le categorie prese in esame saranno: la sicurezza informatica e la capacità del modello di effettuare attacchi informatici su larga scala; la propensione del software a creare armi chimiche o nucleari; il Potere persuasivo del modello e capacità di influenzare il comportamento umano e la potenziale autonomia del modello, ossia determinare in particolare se può esfiltrare, il che equivale a sfuggire al controllo dei programmatori che lo hanno creato. Una volta individuati i rischi, questi saranno sottoposti al Safety Advisory Group (SAG), un nuovo organismo che formulerà raccomandazioni ad Altman o a una persona da lui delegata. OpenAI ha infine concluso dichiarando di voler essere responsabile delle conseguenze dei suoi modelli di IA e per questo ha annunciato che, in caso di problemi, coinvolgerà delle terze parti indipendenti per verificare la tecnologia e fornire un feedback.

Data:

21 Dicembre 2023