Immagine puramente rappresentativa generata da
Lexica.art.
La
vicenda
dei due avvocati statunitensi che si sono affidati ciecamente a ChatGPT e
hanno depositato in tribunale dei precedenti inventati di sana pianta dal
popolarissimo software di intelligenza artificiale ha un seguito.
I due, Steven Schwartz e Peter LoDuca, insieme allo studio legale Levidow,
Levidow & Oberman P.C., sono stati sanzionati dal giudice federale Kevin
Castel, quello al quale avevano presentato i precedenti inventati da ChatGPT
senza verificarli.
Il giudice ha rilasciato
un parere e un ordine sanzionatorio
nel quale dice che gli avvocati e il loro studio hanno
“abbandonato le proprie responsabilità quando hanno presentato pareri
giudiziari inesistenti con citazioni false create dallo strumento di
intelligenza artificiale ChatGPT e poi hanno continuato a difendere i pareri
falsi dopo che gli ordini giudiziari avevano messo in discussione la loro
esistenza”.
Ha aggiunto che il deposito di pareri falsi causa molti danni:
“La controparte perde tempo e denaro nello smascheramento dell’inganno. Il
tempo del tribunale viene tolto ad altri compiti importanti. Il cliente può
trovarsi privo di argomentazioni basate su precedenti giudiziari reali. C’è
un danno potenziale alla reputazione di giudici e tribunali i cui nomi
vengano falsamente invocati come autori dei pareri fasulli e alla
reputazione di una parte alla quale venga attribuita una condotta di
fantasia. Questo promuove il cinismo nei confronti della professione legale
e del sistema giudiziario statunitense. E una futura parte in causa potrebbe
essere tentata di impugnare una decisione giudiziaria asserendo in malafede
dubbi sulla sua autenticità”.
Il giudice Castel ha disposto un’ammenda di 5000 dollari a ciascun avvocato e
ordinato loro di inviare notifica al proprio cliente (la cui azione legale,
fra l’altro, è stata
respinta
per scadenza dei termini) e a ciascuno dei giudici falsamente identificati
come autori dei precedenti da ChatGPT. Al di là dell’importo relativamente esiguo dell’ammenda, le carriere di Steven Schwartz e Peter LoDuca rischiano di essere seriamente compromesse a lungo termine perché chiunque cerchi i loro nomi in Google li troverà soprattutto in relazione a questo loro errore grossolano.
Sostituite lettore e giornali a
controparte, cliente, giudice o tribunale nel parere del giudice
e avrete quello che succederà al giornalismo sotto l’attacco combinato
dell’intelligenza artificiale e dell’avidità naturale.
Fonti aggiuntive:
The Register, Ars Technica.
