IA Fuori Controllo: ChatGPT Fabbrica Sentenze False, il Dramma di Firenze
Firenze, 17 aprile 2025 – Un’aula di tribunale, un avvocato, una causa per contraffazione. E un’intelligenza artificiale che, invece di illuminare, trascina tutti nel caos. A Firenze, quello che sembrava un normale processo si è trasformato in un caso giudiziario senza precedenti: ChatGPT, il celebre modello di IA, ha inventato di sana pianta sentenze della Cassazione, mai esistite, mandando in tilt un procedimento legale e gettando un’ombra inquietante sull’uso dell’IA in ambito giuridico.
Il fatto risale al 14 marzo, quando il Tribunale delle Imprese di Firenze si è trovato a esaminare un caso di presunta violazione del diritto d’autore. L’avvocato difensore, nel tentativo di rafforzare la propria tesi, ha presentato riferimenti a sentenze della Cassazione, pescate con fiducia cieca da una ricerca condotta tramite ChatGPT. Ma il colpo di scena è stato devastante: quelle sentenze non esistevano. L’IA, in preda a quella che i giudici hanno definito un’“allucinazione giurisprudenziale”, aveva generato documenti falsi, trasformando un’udienza in un dramma processuale.
“È colpa della mia collaboratrice, non ne sapevo nulla”, si è difeso l’avvocato, proponendo di cancellare i riferimenti errati. Ma la controparte non ha lasciato correre, gridando all’“abuso dello strumento processuale” e invocando una condanna per responsabilità aggravata, accusando il legale di aver agito con mala fede o colpa grave. I giudici, con un tratto di matita rossa, hanno stralciato le finte sentenze, chiarendo di non esserne stati influenzati. Tuttavia, hanno riconosciuto che l’intento dell’avvocato non era fraudolento, ma mirava solo a rafforzare la difesa. Un errore, sì, ma dalle conseguenze potenzialmente catastrofiche.
Definito un “caso-scuola” in Italia, l’episodio fiorentino non è isolato. Negli Stati Uniti, un errore simile è costato a un avvocato una multa di 5.000 dollari. La vicenda solleva un allarme: l’IA, osannata come la frontiera del progresso, può trasformarsi in una trappola pericolosa. Fidarsi ciecamente di strumenti come ChatGPT, soprattutto in ambiti delicati come quello legale, rischia di generare non solo “figuracce”, ma veri e propri disastri giudiziari.
Mentre il tribunale fiorentino chiude il caso con un monito, una domanda resta sospesa: fino a che punto possiamo affidarci a un’intelligenza che, invece di guidarci, ci conduce nell’abisso dell’errore? Per ora, una cosa è certa: l’IA non è pronta a indossare la toga. E i cittadini, intrappolati tra tecnologia e giustizia, meritano di sapere che il loro destino non può dipendere da un’allucinazione digitale.uu
fonte: Byoblu.com