Traduci

CEO DI GOOGLE: “L’AI PUÒ ESSERE MOLTO DANNOSA”

cms_30174/0.jpgSundar Pichai, CEO di Google, è stato recentemente intervistato al programma 60 Minutes della CBS dove ha parlato di intelligenza artificiale e dei suoi possibili rischi. Nell’intervista Pichai ha messo in evidenza che l’IA può essere “molto dannosa” se usata in modo sbagliato e che “servirebbero norme simili a quelle dei trattati usati per regolare l’utilizzo delle armi nucleari”. Lo spiazzante monito di Pichai potrebbe anche essere più che altro la spiegazione di una strategia aziendale: ovvero, non abbiamo corso per fare le cose per bene, chi ci aspetta (come Samsung) non si preoccupi. Le parole del CEO di Google vanno a rafforzare la lettera aperta che Elon Musk ed altri 1000 manager avevano firmato qualche tempo fa per chiedere uno “stop” di sei mesi nello sviluppo dei sistemi di intelligenza artificiale avanzati così da consentire lo sviluppo di protocolli di sicurezza condivisi.

cms_30174/foto_1.jpg

Secondo Pichai, uno dei principali pericoli dell’IA sarebbero i deepfake: video in cui le persone possono essere raffigurate mentre dicono parole che in realtà non hanno mai detto; dovrebbero esserci delle conseguenze per la creazione di tali video deepfake. Ha poi affermato che l’intelligenza artificiale avanzata sarebbe stata la principale la causa della perdita di posti di lavoro dei cosiddetti “lavoratori della conoscenza”, come scrittori, contabili, architetti e ingegneri del software. Inoltre, ha parlato anche del problema della disinformazione e delle fake news che rischia di ingigantirsi esponenzialmente causando danni incalcolabili.

cms_30174/foto_2.jpg

Nel corso dell’intervista, poi, il CEO ha detto che Google in questo frangente sta lavorando a molti progetti (tra cui Magi, un nuovo ecosistema che sfrutterà proprio l’IA) ma che nel portarli avanti l’azienda cercherà sempre di tenere sempre a mente l’impatto che queste novità avranno sull’umanità, facendo fede al loro motto sin dal 2004 “Don’t be evil” (non essere cattivo). Proprio per questo Pichai, ha dichiarato che non sarebbero ancora state rilasciate al pubblico nuove versioni di Google Bard, cosicché la gente possa abituarsi alla novità mentre le aziende abbiano tempo necessario per sviluppare adeguati sistemi di sicurezza. Ma “non spetta a un’azienda decidere” ha infine aggiunto, dicendosi convinto che per lo sviluppo dell’AI servano non solo competenze tecniche ma anche etiche, con “scienziati della società, esperti di etica e filosofi”.

Data:

18 Aprile 2023