USA: i rischi legati all’uso di ChatGTP nella redazione di atti processuali

Il chatbot di OpenAI è tornato a far parlare di sé questa volta negli Stati Uniti dove una coppia di avvocati di New York ha ammesso di averlo utilizzato per ricercare precedenti analoghi al coso di un loro assistito, ignorando che gli elaborati forniti dal software potessero contenere informazioni false.

Cos’è ChatGTP?

E’ software basato su intelligenza artificiale e apprendimento automatico in grado di rispondere alle domande poste dagli utenti utilizzando un linguaggio naturale, simile a quello umano e imitare vari stili di scrittura. I testi forniti però – come per stessa ammissione della piattaforma – potrebbero contenere imprecisioni.

Il problema è che oltre a non citare le proprie fonti, spesso le risposte rese sono frutto dell’elaborazione dell’intelligenza artificiale e non hanno nessuna attinenza con la realtà.

La vicenda

Un passeggero ha citato in giudizio una compagnia aerea richiedendo il risarcimento del danno subito nel 2019 quando un carrello di servizio l’ha colpito mentre era a bordo dell’aeromobile. I suoi difensori, nel redigere gli atti di causa hanno utilizzato il chatbot per cercare precedenti giurisprudenziali che si sono poi rivelati inesistenti.

L’episodio fa scalpore soprattutto se considerato che nell’ordinamento statunitense, vige il principio dello “stare decisis”, in base al quale il giudici nel caso in cui la fattispecie portata in esame sia identica a quella già discussa è obbligato a conformarsi alla decisione adottata in una precedente sentenza.

Vista l’esistenza di tale principio, sia gli avvocati della compagni aerea, sia il giudice hanno ricercato – senza successo – i precedenti citati. Il motivo era semplice: i casi citati erano inventati.

Messi davanti ai fatti, i legali hanno quindi ammesso in una dichiarazione giurata di aver impiegato il chatbot e di ignorare il fatto che il software potesse citare fatti inventati. I due adesso rischiano sanzioni.



Lascia un commento