OpenAI ha recentemente introdotto una serie di importanti modifiche alle sue politiche di sicurezza, annunciando la creazione di un nuovo comitato di supervisione indipendente. Questa decisione segna un notevole cambiamento rispetto alla precedente struttura organizzativa, introdotta solo quattro mesi fa, a maggio. Il nuovo comitato sarà infatti guidato da Zico Kolter, direttore del dipartimento di apprendimento automatico presso la scuola di informatica della Carnegie Mellon University. Tra i membri figurano anche Adam D’Angelo, cofondatore di Quora e membro del consiglio di amministrazione di OpenAI, Paul Nakasone, ex capo dell’NSA, e Nicole Seligman, ex vicepresidente esecutivo di Sony. È da notare l’assenza del CEO di OpenAI, Sam Altman, una scelta che sembrerebbe voler sottolineare la separazione tra la supervisione della sicurezza e gli interessi aziendali, in risposta alle recenti critiche ricevute. Come entità indipendente, il nuovo comitato avrà maggiori poteri rispetto al precedente e sarà incaricato di supervisionare “i processi di sicurezza che guidano l’implementazione e lo sviluppo del modello di OpenAI”, ha dichiarato la società. Dopo una revisione di 90 giorni, il gruppo ha presentato cinque raccomandazioni principali, che includono la creazione di una governance indipendente per la sicurezza, il miglioramento delle misure di protezione, la trasparenza sui progressi dell’azienda, la collaborazione con entità esterne e l’unificazione dei quadri di sicurezza interni. I report del comitato verranno resi pubblici successivamente attraverso un post sul blog ufficiale di OpenAI. Inoltre, il comitato, insieme al consiglio di amministrazione, avrà la facoltà di ritardare il lancio di nuovi modelli di intelligenza artificiale fino a quando i problemi di sicurezza non saranno adeguatamente risolti. Questa riorganizzazione arriva in un momento molto delicato per OpenAI, che è stata recente oggetto di critiche per lo scioglimento del team “Superalignment”, un gruppo chiave impegnato nella gestione dei rischi a lungo termine dell’IA. Infatti, lo smantellamento di questo team, avvenuto appena un anno dopo la sua creazione, avrebbe portato alle dimissioni di due figure centrali, Ilya Sutskever e Jan Leike, e in un post su X, Leike avrebbe dichiarato che “la cultura e i processi di sicurezza di OpenAI sono passati in secondo piano rispetto ai prodotti più brillanti”. Oltre all’istituzione del nuovo comitato, OpenAI ha anche annunciato un rafforzamento del proprio team di cybersecurity, definito come “una componente critica della sicurezza dell’IA”. La società continuerà quindi a seguire un approccio basato sulla valutazione del rischio, adattando le sue misure di sicurezza in base ai cambiamenti nei modelli di minaccia e nei profili di rischio. Parallelamente alle modifiche sulla sicurezza, OpenAI sta affrontando un cambiamento strutturale significativo: secondo Forbes, l’azienda prevederebbe di abbandonare il suo modello no-profit entro il prossimo anno. OpenAI, fondata nel 2015 come organizzazione senza scopo di lucro, ha inizialmente finanziato la sua ricerca attraverso donazioni, ma presto si è resa conto che questo approccio non era sostenibile per sostenere i costi crescenti legati all’infrastruttura tecnologica e al reclutamento di talenti. Il passaggio a un modello a scopo di lucro, sempre secondo Forbes, consentirebbe a OpenAI di accedere a risorse finanziarie più consistenti, necessarie per alimentare la sua crescita e i suoi ambiziosi progetti futuri. Questo cambiamento potrebbe anche influenzare le aspettative degli investitori, spostando l’attenzione dalla sostenibilità e responsabilità sociale verso i rendimenti economici. Infine, OpenAI ha precisato che l’entità no-profit continuerà a esistere e a svolgere un ruolo fondamentale nella missione aziendale, anche se resta da vedere come il nuovo modello influenzerà le future decisioni e strategie di OpenAI
Traduci