Traduci

CHAT GPT: AVVOCATO PRESENTA UN FASCICOLO CON INFORMAZIONI INVENTATE DALL’IA

cms_30693/0.jpgSe nel campo della medicina i primi risultati ottenuti dell’intelligenza artificiale sembrano decisamente promettenti, quello legale dimostra quanto essa sia ancora acerba e necessiti di essere utilizzata con sapienza, senza affidarcisi a occhi chiusi. È il caso di un avvocato di New York che è stato accusato di aver utilizzato ChatGPT per presentare un fascicolo contenente dei casi avvenuti in passato ma completamente inventati nell’ambito di una causa contro una compagnia aerea colombiana. Infatti, secondo quanto recentemente riportato da CNN Business, un cliente della compagnia aerea Avianca Airlines di nome Roberto Mata avrebbe citato in giudizio il gruppo dopo essere stato colpito a un ginocchio da un carrello di metallo durante un volo da El Salvador a New York. Alla compagnia che ha chiesto l’archiviazione contestando anche la scadenza dei termini (essendo un caso risalente al 2019), Steven Schwartz, l’avvocato di Mata dello studio legale Levidow, si sarebbe opposto alla richiesta di archiviazione utilizzando ChatGPT per compiere delle ricerche legali per fornire dei precedenti che avvalorassero la difesa.

cms_30693/foto_1.jpg

I sette casi presentati però, dal caso Martinez contro Delta Airlines a quello Zicherman contro Korean Air, risulterebbero essere tutti frutto della fantasia del chatbot. Quando il giudice Kevin Castel ha dunque chiesto a Schwartz quali fossero gli estremi dei casi, l’avvocato ha detto che aveva ciecamente affidato la gestione del caso a ChatGPT e, interrogandola nuovamente ha fornito le date dei procedimenti, i tribunali coinvolti e persino fornire il numero delle sentenze. Ma, nonostante ciò, il giudice non ha trovato nulla. Di fronte alla richiesta di presentare il testo completo degli atti citati, il chatbot ha finalmente confessato di aver inventato tutto. Inoltre, si è sinceramente scusata per il disagio causato. Schwartz si è giustificato dicendo che non aveva mai usato il programma prima e non sapeva della possibilità che il contenuto potesse essere falso, mostrando anche le chat di dialogo in cui chiedeva se le cause fossero reali o meno con risposta positiva da parte dell’IA.

cms_30693/foto_2.jpg

Sarebbe bastato anche semplicemente confrontare i dati dell’IA grazie a un motore di ricerca per scoprire la verità. Questa però è un ulteriore conferma di come ChatGPT e le intelligenze artificiale odierne, essendo un modello probabilistico basato su un meccanismo statistico e su uno sterminato database che comprende tutto ciò (buono e cattivo) che circola in Internet, possono essere solo un aiuto per l’uomo ma non potranno mai sostituirlo in toto. È molto probabile che l’avvocato Schwartz si imbatterà in possibili sanzioni legali per quanto accaduto. Infine, per prevenire eventi simili, adesso la stessa ChatGPT, se interrogata con su eventi giuridici risponde: “Mi dispiace, ma non sono in grado di fornire informazioni specifiche su eventi giuridici o casi specifici, in quanto sono un modello di linguaggio addestrato per fornire informazioni generali e rispondere a domande di natura generale”.

Data:

30 Maggio 2023