APPROFONDIMENTO – QUANDO L’IA NON BASTA

APPROFONDIMENTO – QUANDO L’IA NON BASTA

Quando l’IA non basta: il caso del Tribunale di Torino e i rischi per i legali

Nel settembre 2025, il Tribunale di Torino ha acceso i riflettori su una questione destinata a diventare centrale nella pratica legale: l’uso dell’intelligenza artificiale nella redazione degli atti processuali.

Con la sentenza n. 2120/2025 del 16 settembre 2025, il suddetto Tribunale, nell’ambito di un giudizio di opposizione a ingiunzione di pagamento, ha condannato la parte ricorrente per lite temeraria ai sensi dell’art. 96 c.p.c., ritenendola responsabile di aver presentato un ricorso generato da un sistema di intelligenza artificiale.

Secondo il giudice, l’atto si presentava come «un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio – eccezioni tutte manifestamente infondate». Tale difetto di coerenza e di riferibilità al caso concreto ha portato alla condanna della parte ricorrente al pagamento di 500 euro a ciascuna delle parti resistenti e di ulteriori 500 euro a favore della Cassa delle ammende.

Pur potendo sembrare sorprendente, non si tratta di un episodio isolato. Già nel marzo 2025 il Tribunale di Firenze aveva affrontato una situazione analoga, seppur senza applicare sanzioni.

Ciò dimostra come l’uso dell’IA nella pratica forense stia emergendo come un tema concreto e di crescente rilevanza, con implicazioni dirette anche sulla responsabilità professionale degli avvocati.

La pronuncia torinese offre spunti importanti sul ruolo e sui limiti dell’intelligenza artificiale nel contesto giuridico.

In linea con quanto stabilito dalla legge italiana sull’IA, approvata dal Senato il 17 settembre 2025, i sistemi di intelligenza artificiale possono certamente fornire supporto al professionista, ma non devono sostituire il giudizio, la sensibilità e l’intelletto umano.

Il caso ribadisce inoltre che il professionista resta il garante della correttezza e della qualità degli atti processuali, anche quando questi siano stati redatti con l’ausilio dell’IA.

L’intelligenza artificiale può potenziare e semplificare il lavoro dei legali, velocizzare la ricerca di precedenti, la gestione documentale e l’analisi dei dati giurisprudenziali. Tuttavia, nulla può sostituire l’esperienza, la competenza e la responsabilità personale dell’avvocato: ogni atto deve essere verificato, interpretato e calibrato sul caso concreto.

Il caso del Tribunale di Torino rappresenta quindi un monito chiaro e concreto: l’innovazione tecnologica è un alleato prezioso, ma l’affidamento passivo all’IA può trasformarsi in un rischio legale e deontologico.

La prudenza, la verifica costante e il rigore professionale rimangono strumenti imprescindibili per evitare errori e responsabilità.

Più che una condanna della tecnologia, questa vicenda appare come un invito alla misura. L’intelligenza artificiale non è una minaccia, ma uno strumento potente che richiede consapevolezza e responsabilità.

La professione forense, fondata sulla capacità critica, sull’argomentazione e sull’intuizione, non può essere ridotta a una mera combinazione di testi generati algoritmicamente.



Lascia un commento