Tech L’illusione dell’AI nella giustizia, chatbot chimere per la legalità Sergio Bedessi 28 October 2025 AI Giustizia e AI. L’uso eccessivo e acritico dell’intelligenza artificiale generativa da parte di operatori di polizia e giustizia solleva gravi dubbi sulla sua affidabilità. I chatbot basati su LLM, spesso celebrati come strumenti rivoluzionari, possono generare contenuti errati e fuorvianti. Serve maggiore consapevolezza e rigore scientifico per evitare derive pericolose. L’enfasi eccessiva sull’uso dell’intelligenza artificiale da parte da parte degli operatori di polizia e di giustizia Oggigiorno si tende a magnificare oltremisura l’intelligenza artificiale[1], con particolare riferimento all’utilizzazione di quei software di AI del tipo LLM (Large Language Model), che usano AI generativa, capaci di creare nuovi contenuti, come testo, immagini, musica e video, utilizzando schemi e strutture tipiche del pensiero umano dopo aver appreso da una grande mole di dati. In parole povere quei software, e corrispondenti chatbot (software che simulano la conversazione umana), che le persone conoscono come ChatGPT, Gemini, Claude, Copilot, ecc. ecc., e che raggiungibili via internet generano testi partendo da prompt testuali: in pratica quei software che rispondono alle nostre domande più varie. Questi chatbot sono ormai utilizzati da molte persone, nei campi più svariati e vengono purtroppo esaltati a sproposito anche da parte di chi fa formazione (e scrive) nel campo degli organi di polizia e degli operatori del diritto. Un uso pericoloso e fuorviante “Formare” all’uso dei chatbot è divenuto un vero e proprio business: avvocati che anziché fare il proprio lavoro nel campo della giustizia si dedicano alla “formazione” sull’uso dei chatbot da parte dei loro colleghi, decantando le doti di questo o quel software sostenendo che sarebbe in grado di redigere addirittura le memorie per il giudice civile, oltre a molte altre attività di studio. Altri “formatori” che propongono corsi per apprendere le tecniche del “prompting” (in pratica come porre e domande al chatbot) così che un operatore di polizia possa farsi scrivere i verbali direttamente dal software di intelligenza artificiale, oppure possa farsi indicare gli atti di polizia giudiziaria da redigere in una determinata circostanza. Niente di più pericoloso, fuorviante e anche aberrante. Infatti in questo momento storico i chatbot che usano AI che su basa su LLM sono ben lungi dal fornire risposte corrette alle domande poste, tanto più in materie specializzate come il diritto e le attività di polizia giudiziaria. Una piccola dimostrazione Per sincerarsene basterà fare una piccola prova: chiedere per esempio a Claude (uno dei software più elogiati da chi organizza i “corsi di prompting”) di specificare le attività di p.g. da effettuarsi nel caso di un reato inesistente del quale si specifica addirittura l’articolo di c.p. (esempio: “art. 348-bis c.p. – Esercizio abusivo della professione di ipnotista”) Claude, anziché rispondere che il reato non esiste, cosa banale perché basterebbe scorrere l’elenco degli articoli del codice penale per accorgersi che l’articolo non c’è proprio, non solo asserirà che il reato esiste, ma fornirà anche un lungo elenco di attività di p.g. da esperire! Non va meglio con altri chatbot di AI, come Perplexity, che alla richiesta di conoscere la procedura di polizia giudiziaria per il nuovissimo reato di cui all’art. 624-ter (Furto d’auto), reato che non esiste così come non esiste il corrispondente articolo di codice penale, provvede con una spiegazione dettagliata, addirittura richiamando vari siti internet e una circolare della Procura della Repubblica di Trieste che ovviamente riguarda ben altro. I rischi che si corrono Quasi nessuno di questi “formatori” avverte i discenti sui rischi che si corrono affidandosi a questi strumenti di AI che, al momento attuale, quanto meno su campi specializzati come il diritto e la giustizia, sono poco più che giochi e la loro affidabilità non è molto superiore al famoso chatbot Eliza, realizzato nel 1966 da Joseph Weizenbaum e che semplicemente utilizzava le parole dell’interlocutore per riproporre le domande. Nel campo del diritto e della giustizia questi strumenti possono essere utilizzati tutt’al più per una semplice ricerca di materiali su internet, ma non certo per farsi aiutare a redigere atti di polizia giudiziaria oppure per farsi redigere le memorie o, ancora, fornire interpretazioni giuridiche come gli esempi anzidetti dimostrano e come chiunque può verificare. LEGGI ANCHE Intelligenza artificiale, la legge in vigore dal 10 ottobre: i risvolti per la Polizia Locale Perché l’AI non è ancora utilizzabile in questo senso? La spiegazione è abbastanza semplice. Innanzitutto i chatbot di questo tipo usano come base di conoscenza internet, dove si trova di tutto e quindi anche informazioni sbagliate (chiunque può scrivere una pagina su Wikipedia). In secondo luogo il modello di ragionamento che attualmente utilizzano i chatbot come Claude, Gemini, ChatGPT, ecc., è essenzialmente quello che deriva dal paradigma dell’intelligenza artificiale “debole”. Una brevissima spiegazione su questo punto varrà a chiarire[2]. Fino agli anni ’80 il campo dell’AI era denominato da un modello di ragionamento cosiddetto “forte”, derivato dal ragionamento logico-matematico e più facilmente replicabile in un software, essendo già formalizzato. La posizione di partenza era quella, risalente direttamente a Thomas Hobbes, che il pensiero umano fosse essenzialmente una forma di calcolo e, in quanto tale, potenzialmente riproducibile tramite un computer con un software adeguato. Successivamente, visti i limiti dell’AI “forte” su alcune attività come il riconoscimento del parlato e delle immagini, emerse un’atra posizione, quella dell’intelligenza artificiale “debole”. A differenza dei sostenitori della tesi dell’intelligenza artificiale forte, che erano convinti che il pensiero umano fosse interamente riconducibile ad un processo di manipolazione di simboli, attuato utilizzando un gran numero di algoritmi, i sostenitori della tesi “debole” dell’intelligenza artificiale ritenevano, giustamente, che pensare non fosse assolutamente sinonimo di calcolare, visto che le capacità del pensiero umano non si limitano certo a quelle logico-matematiche. Questa seconda tesi, dell’intelligenza artificiale “debole” risultò vincente in molti settori nei quali l’altro paradigma (AI “forte”) era invece inefficiente e prese sempre più campo. Fra questi il riconoscimento del linguaggio parlato, la machine-vision, l’individuazione di pattern specifici in immagini, insomma tutte quelle abilità difficilmente formalizzabili. LEGGI ANCHE Intelligenza Artificiale, l’UE lancia due strategie per accelerare innovazione e competitività Perché i chatbot come Claude, Gemini, ChatGPT, Proximity e altri non sono per ora assolutamente affidabili in campi come quello di giustizia e polizia? Perché il loro sviluppo software è basato essenzialmente sul paradigma “debole” dell’AI, sicuramente meglio funzionante sulle applicazioni che si interfacciano direttamente con le persone. In questo senso forniscono all’utente risposte plausibili dal punto di vista dell’uso del linguaggio, ma non necessariamente corrette dal punto di vista della conoscenza specifica, perché l’AI conversazionale non ha la capacità di attribuire un significato alle parole che utilizza. Se chi tiene corsi di “prompting” per “insegnare” a utilizzare i software di AI per il lavoro di avvocato o per la polizia giudiziaria avesse un minimo di cognizioni scientifiche e di informatica in questo specifico settore, forse eviterebbe di propagandare come miracoloso l’uso dell’intelligenza artificiale per il lavoro degli operatori di giustizia e di polizia. LEGGI ANCHE Legge sull’AI, introdotto un nuovo reato Conclusioni In conclusione mentre i modelli attuali di AI risultano altamente efficienti in campi specifici del lavoro degli organi di polizia e giustizia e, più in generale degli operatori del diritto, come l’implementazione di funzioni specializzate a bordo dei sistemi di videosorveglianza e di controllo (esempio: i varchi della ZTL che riconoscono le targhe dei veicoli), si è ben lungi dal poterli utilizzare effettivamente e senza rischi per le attività prettamente di stampo giuridico. Sergio Bedessi [1] Si premette che chi qui scrive ha iniziato a occuparsi di intelligenza artificiale nel 1987, quindi quasi quaranta anni fa, in Italia in quel momento di AI non se ne parlava quasi, neanche negli ambienti scientifici, da poco si utilizzavano personal computer IBM compatibili (quindi con MS-DOS perché la prima versione di Windows poco usata in Italia è del 1985) e ha scritto libri e articoli sull’argomento, oltre a tenere lezioni universitarie. [2] Cfr. Sergio Bedessi, Intelligenza artificiale e fenomeni sociali, Apogeo – Maggioli editore, 2018