Skip to main content

ChatGPT negli atti difensivi: attenzione all’uso improprio

 

Con un’ordinanza del 14 marzo 2025, la Sezione Imprese del Tribunale di Firenze si è espressa per la prima volta sull’utilizzo improprio dell’intelligenza artificiale negli atti giudiziari, in particolare sul possibile uso scorretto di ChatGPT da parte di un avvocato.

Il caso nasce da una causa per la tutela di marchi e diritto d’autore. Il legale di una società, accusata di aver commercializzato merce contraffatta, aveva inserito nelle memorie difensive riferimenti giurisprudenziali errati, generati da ChatGPT. Il reclamante ha chiesto la condanna per lite temeraria ex art. 96 c.p.c., sostenendo che tali errori rivelassero mala fede e abuso del processo.

Tuttavia, il Tribunale ha chiarito che i riferimenti sbagliati derivavano da una ricerca automatica condotta da una collaboratrice tramite IA e che l’avvocato non ne era a conoscenza. I giudici hanno riconosciuto che si trattava di “allucinazioni dell’intelligenza artificiale”, cioè risposte verosimili ma inventate, tipiche di questi strumenti.

Nonostante l’uso scorretto dell’IA, il Tribunale ha escluso la responsabilità aggravata: la strategia difensiva era coerente fin dal primo grado, non era basata sulla mala fede, e non era stata fornita prova concreta del danno subito.

Conclusione:
Il Tribunale ha rigettato la richiesta di condanna, ma ha lanciato un monito: l’intelligenza artificiale può essere utile, ma non sostituisce il controllo umano. Gli avvocati devono sempre verificare le fonti, perché errori di questo tipo, pur non bastando da soli a giustificare una condanna, possono compromettere la credibilità della difesa.

Fonte: giuricivile.it


Luca Volpe
28 Marzo 2025