In un’epoca in cui l’intelligenza artificiale è sempre più presente anche nell’attività forense, si moltiplicano le occasioni in cui strumenti come ChatGPT vengono utilizzati per cercare riferimenti normativi e giurisprudenziali. Tuttavia, proprio l’affidamento cieco a questi strumenti può comportare seri rischi, come dimostra la recente Ordinanza n. 11053/2024 del Tribunale delle Imprese di Firenze.
Nel caso in esame, uno dei difensori aveva depositato una comparsa contenente riferimenti a presunte sentenze della Corte di Cassazione, il cui contenuto risultava perfettamente in linea con la tesi difensiva sostenuta. Tuttavia, nel corso del procedimento, la controparte ha scoperto che tali sentenze erano in realtà inesistenti: si trattava di “allucinazioni” generate da ChatGPT, ossia di risultati plausibili nella forma ma totalmente inventati nella sostanza. A seguito della segnalazione, il Tribunale ha concesso alle parti di depositare note scritte sulla sola questione dei riferimenti giurisprudenziali falsi.
Il difensore ha chiarito che le sentenze erano state reperite da una collaboratrice di studio tramite l’intelligenza artificiale, senza che egli ne fosse a conoscenza, e ha chiesto lo stralcio di quei passaggi. Il reclamante ha invece invocato la responsabilità aggravata ai sensi dell’art. 96 c.p.c., sostenendo che si trattasse di un uso scorretto dello strumento processuale, potenzialmente idoneo a influenzare il giudizio del Collegio.
Il Tribunale ha però rigettato la domanda di condanna, ritenendo che:
- non vi fosse stata malafede né colpa grave da parte del difensore;
- l’errore derivasse da una mancata verifica di contenuti generati da un sistema di IA, il cui utilizzo, pur disattento, non era finalizzato ad alterare la realtà o influenzare indebitamente il giudice;
- non fosse stato dimostrato alcun danno concreto derivante da tale comportamento.
Ciò non toglie, però, che il caso sollevi interrogativi seri sul piano deontologico e professionale. Un avvocato ha infatti il dovere di agire con diligenza, correttezza e competenza, e la citazione di precedenti giurisprudenziali inesatti – ancorché frutto di errore involontario o delegato – può comportare conseguenze. Sul piano deontologico, l’omessa verifica della veridicità delle fonti potrebbe integrare una violazione dell’art. 9 del Codice Deontologico Forense, che impone al professionista il rispetto dei doveri di probità, lealtà e verità. Sul piano civilistico, qualora l’errore incida negativamente sull’esito della controversia, il cliente potrebbe persino agire per responsabilità professionale, qualora si provi il danno e il nesso causale.
Questo episodio rappresenta quindi un’importante lezione pratica: non si può mai prescindere dal controllo umano. È buona regola, anzi essenziale, verificare sempre ogni riferimento giurisprudenziale prima di citarlo in atti giudiziari, a prescindere dalla fonte: che provenga da un’intelligenza artificiale, da un motore di ricerca giuridico o persino da una rivista cartacea. Il nome della Cassazione non basta a garantire l’autenticità e la pertinenza di un precedente.
L’uso della tecnologia, anche nella professione legale, è certamente un’opportunità. Ma resta uno strumento, non un sostituto del giudizio critico dell’avvocato. E, come insegna il caso fiorentino, anche gli errori in buona fede possono mettere a rischio la credibilità dell’avvocato e la fiducia del cliente. Meglio perdere qualche minuto in più a controllare una sentenza, che dover giustificare un’intera linea difensiva costruita… su una fantasia dell’intelligenza artificiale.