Misc ChatGPT, le risposte non hanno valore di prova in giudizio Laura Biarella 12 March 2026 Risposte di chat GPT e prove in giudizio. Inammissibile il ricorso basato su “allucinazioni” dell’intelligenza artificiale. Il Giudice richiama l’AI Act: necessaria la supervisione umana e la verifica delle fonti giuridiche. Il Tribunale di Ferrara, con un’ordinanza destinata a fare giurisprudenza, ha dichiarato inammissibile un ricorso ex art. 696-bis c.p.c. relativo a un sinistro stradale mortale, stroncando l’uso improprio dell’intelligenza artificiale nel processo civile. Al centro della decisione del Giudice non c’è solo la dinamica del sinistro, bensì la validità dei documenti prodotti: tra questi, una conversazione con ChatGPT utilizzata come supporto probatorio. Il caso, tra nebbia e responsabilità autostradali La vicenda trae origine da un tragico scontro avvenuto nel gennaio 2021 lungo l’autostrada Padova-Bologna, nel territorio di Poggio Renatico. Un automobilista aveva perso la vita tamponando un autoarticolato fermo in coda a causa di un precedente sinistro. Il fratello della vittima aveva citato in giudizio l’ente gestore dell’autostrada, contestando l’assenza di segnaletica adeguata in condizioni di fitta nebbia. Tuttavia, il Tribunale ha rilevato che sulla stessa vicenda era già intervenuta una sentenza passata in giudicato, che attribuiva l’esclusiva responsabilità alla condotta della vittima (velocità inadeguata e mancata distanza di sicurezza). Lo stop ai “documenti” prodotti dall’IA L’aspetto più innovativo dell’ordinanza riguarda il cosiddetto “doc. 10” allegato dal ricorrente: una conversazione con l’intelligenza artificiale ChatGPT. Il giudice ha definito tale produzione “tamquam non esset” (come se non esistesse), sottolineando diversi punti critici: inattendibilità delle fonti: le sentenze citate dal chatbot sono risultate totalmente inconferenti o errate, allucinazioni dell’IA: il magistrato ha richiamato il fenomeno delle “allucinazioni”, in cui l’algoritmo inventa risultati inesistenti presentandoli come veritieri, mancanza di trasparenza: non è stato prodotto il quesito (prompt) posto all’IA, rendendo il risultato parziale e potenzialmente fuorviante. Richiamo all’AI Act e alla Legge n. 132/2025 Il provvedimento ferrarese cita espressamente il Regolamento UE 2024/1689 (AI Act) e la recente normativa italiana (L. n. 132/2025), che impongono il principio della supervisione umana (human oversight). Secondo il Tribunale, i professionisti legali hanno l’obbligo di un approccio responsabile: le risposte dei chatbot non possono assurgere a prova, nemmeno atipica, della fondatezza di una pretesa giuridica. Condanna alle spese Oltre a dichiarare l’inammissibilità del ricorso per finalità puramente esplorative, il Tribunale ha condannato il ricorrente alla rifusione delle spese di lite (oltre 1.700 euro). La lezione per il mondo legale è chiara: l’intelligenza artificiale resta uno strumento di supporto, ma la responsabilità della verifica e la qualità degli scritti difensivi devono rimanere saldamente nelle mani dei professionisti.