Traduci

BIDEN SI ACCORDA CON 7 BIG TECH PER LA SICUREZZA DELLE IA

Nei giorni scorsi, il Consiglio di sicurezza delle Nazioni Unite aveva convocato una riunione per affrontare il tema dell’intelligenza artificiale generativa. Il Segretario Generale Antonio Guterres e i delegati dei 15 paesi avevano evidenziato l’impressionante velocità di diffusione dell’intelligenza artificiale generativa, citando l’esempio di ChatGPT che ha raggiunto 100 milioni di utenti in soli due mesi. Ha anche sottolineato l’impatto economico significativo previsto per questa tecnologia, stimando che potrebbe generare 10-15 trilioni di dollari entro il 2030. Tuttavia, il Segretario Generale ha avvertito che, nonostante le conseguenze positive sull’economia e sulla vita dei cittadini, l’IA generativa porta con sé rischi politici, legali, etici e umanitari. Un punto di particolare preoccupazione è il potenziale utilizzo dell’IA generativa per eseguire attacchi informatici contro infrastrutture critiche, che potrebbe avere gravi ripercussioni sulla sicurezza globale. Successivamente, la Casa Bianca ha rilasciato un comunicato in seguito a un incontro tra l’amministrazione Biden e le principali aziende tecnologiche, in particolare con sette di esse che hanno formalmente accettato di rispettare gli standard di sicurezza e consentire l’accesso alle tecnologie a esperti indipendenti.

cms_31310/foto_1.jpg

Nel comunicato in questione, l’amministrazione Biden-Harris ha ribadito il suo impegno a garantire la sicurezza dei cittadini americani riguardo all’IA, promuovendo soluzioni responsabili, sicure e affidabili. Le sette società coinvolte nell’incontro (ovvero Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI) si sarebbero volontariamente assunte degli impegni significativi per mitigare i rischi legati all’IA. Tra cui la possibilità di permettere ad esperti di sicurezza indipendenti di testare i loro sistemi prima del loro lancio al pubblico, nonché la condivisione di dati sulla sicurezza con governi e accademici. Però, all’atto pratico per i consumatori, l’impegno che più di ogni altro avrà delle ripercussioni è la promessa da parte delle grandi aziende di sviluppare dei sistemi di watermarking che consentiranno di distinguere i contenuti multimediali come prodotti da un software di intelligenza artificiale generativa. Inoltre, attraverso la creazione di API (interfacce di programmazione applicativa), sarà possibile identificare da quale specifico sistema di intelligenza artificiale è stato generato un particolare contenuto multimediale.

cms_31310/foto_2.jpg

Nick Clegg, presidente dei global affairs di Meta, ha anche affermato: “Questi impegni sono un importante primo passo per assicurare paletti responsabili che possano essere un modello da seguire anche per altri governi”. Le misure adottate in questo incontro rappresentano un importante successo per la Casa Bianca, dimostrando una chiara volontà di non sottovalutare le potenziali implicazioni della tecnologia e di agire in anticipo per garantire la sicurezza e i diritti dei cittadini. L’accordo promuoverebbe anche l’utilizzo dei primi sistemi avanzati di intelligenza artificiale per scopi benefici, come la ricerca scientifica per la prevenzione del cancro o per affrontare il cambiamento climatico. Infine, la collaborazione con gli alleati internazionali, tra cui l’Italia, per garantire la coerenza e l’uniformità nell’approccio all’IA a livello globale, sottolineerebbe l’importanza di affrontare i rischi e le opportunità legate all’intelligenza artificiale in modo collettivo e collaborativo, sfruttando a pieno le potenzialità dell’IA ma senza venire meno alla privacy.

Pubblicità

Data:

25 Luglio 2023