OpenAI, la società che ha sviluppato il famoso chatbot ChatGPT, potrebbe essere citata in giudizio per diffamazione. Infatti, l’intelligenza artificiale avrebbe associato a Brian Hood, neosindaco di Hepburn Shire in Australia, una pena detentiva per corruzione, mai avvenuta. Hood avrebbe scoperto il fatto grazie ad alcuni suoi cittadini che lo avrebbero contattato dopo aver usato ChatGPT per sapere informazioni sul suo conto. Secondo il chatbot, Hood sarebbe stato implicato in uno scandalo di corruzione che coinvolgeva una filiale della Reserve Bank of Australia nei primi anni 2000 riguardante tangenti pagate a funzionari in Malesia, Indonesia e Vietnam. La cosa curiosa è che Hood ai tempi aveva effettivamente lavorò come CEO in una filiale della Reserve Bank, la Note Printing Australia, ma fu lui stesso a svelare la tangentopoli interna alla filiale, e non fu mai stato accusato di alcun reato. Come riportato anche dal sito Artisana Ai, quando è stato chiesto al chatbot di fornire delle fonti, ChatGPT ha risposto con tre link riportanti a notizie di ABC News, The Guardian e Reuters; e anche se i titoli degli articoli e i link sembravano verosimili ed a primo impatto corretti, in realtà gli url erano inesistenti e non portavano ad alcuna pagina web.
1
Gli avvocati di Hood hanno quindi inviato una lettera a OpenAI il 21 marzo, dove davano 28 giorni di tempo per correggere l’errore, altrimenti sarebbero ricorsi per vie legali. Ad oggi sembrerebbe che OpenAI non abbia ancora risposto alla lettera. Un legale del sindaco ha affermato a Reuters che queste informazioni false potrebbero influire negativamente sulla reputazione e sulla carriera politica di Hood, motivo per cui ha deciso di adire le vie legali. Inoltre, in Australia, il risarcimento per diffamazione dipende dal numero di persone che hanno avuto accesso alle informazioni false e non può superare i 400.000 dollari australiani. Non si sa quante persone abbiano avuto accesso alle informazioni false sul sindaco diffuse da ChatGPT, ma i legali di Hood hanno ipotizzato una somma un risarcimento di oltre 200.000 dollari australiani per la gravità delle affermazioni.
Hood potrebbe intentare una causa contro ChatGPT accusandoli di aver dato un falso senso di accuratezza senza le note a piè di pagina sulla mancanza di veridicità delle informazioni. Se così fosse, sarebbe la prima volta che una persona denuncia ChatGPT per diffamazione, ma non sarebbe la prima volta che ChatGPT riferisce informazioni inesatte e a volta assolutamente inventate. Infatti, la versione di Chat Gpt integrata su Bing, non restituirebbe lo stesso risultato. È quindi fondamentale che le aziende che utilizzano chatbot siano trasparenti e forniscono informazioni chiare sul loro funzionamento e sulle limitazioni delle risposte fornite, evitando così di creare aspettative o situazioni irrealistiche nei loro utenti. Infine, è importante considerare l’impatto sociale e psicologico che queste tecnologie possono avere sulla società e sui singoli individui, garantendo sempre che gli algoritmi e le risposte fornite siano etiche.