Legal Tech RAFA 2030, l’Intelligenza Artificiale entra nella Corte Suprema del Brasile. Supporto burocratico o rischio ideologico? Angela Iacovetti 19 March 2026 Agenda 2030 AI Il Supremo Tribunale Federale del Brasile ha adottato un sistema di intelligenza Artificiale, denominato RAFA 2030 (Redes Artificiais Focadas na Agenda 2030) per integrare l’attività giudiziaria con gli obiettivi di sostenibilità delle Nazioni Unite. Lanciata ufficialmente nel 2022, RAFA 2030 è uno strumento di Deep Learning che analizza migliaia di azioni legali e le classifica automaticamente in base ai 17 Obiettivi di Sviluppo Sostenibile (SDG) dell’Agenda 2030. Se una causa riguarda, ad esempio, il diritto alla salute o la tutela delle foreste, RAFA 2030 la “etichetta” immediatamente come rilevante per gli obiettivi internazionali. Come ragiona RAFA 2030? Questa tecnologia non è un semplice motore di ricerca, ma svolge attività di analisi semantica, cercando le parole chiave e comprendendo il contesto del testo giuridico; non solo: è stata istruita ad analizzare migliaia di sentenze pregresse, collegando le fattispecie legali agli obiettivi ONU. Tuttavia, nonostante il sistema abbia raggiunto una precisione superiore al 90%, è sempre richiesta la supervisione finale di un operatore umano, per evitare errori grossolani. Il dilemma, stiamo passando dalla legge al calcolo politico? Al di là dell’efficienza tecnica, il progetto solleva interrogativi profondi: se un algoritmo classifica un processo non in base al reato o al diritto violato, ma in base alla sua utilità per raggiungere gli Obiettivi di Sviluppo Sostenibile (SDG), cosa accade all’imparzialità? La preoccupazione principale, infatti, riguarda la neutralità. Se un’IA è addestrata per dare priorità agli obiettivi dell’Agenda 2030, esiste il rischio concreto che il contenuto della sentenza venga distorto per soddisfare parametri politici? L’IA potrebbe, ad esempio, etichettare una causa industriale sotto l’SDG 13 (Lotta contro il cambiamento climatico) o una controversia sulle assunzioni sotto l’SDG 5 (Parità di genere): se dare ragione ad una delle due parti nel contenzioso “aiuta” il Brasile a scalare le classifiche dell’Agenda 2030, l’IA potrebbe spingere il giudice verso una decisione politica. Si corre il rischio che il giudice da interprete della legge diventi esecutore di obiettivi globali. Tra burocrazia e umanità Tuttavia, sebbene il Consiglio Nazionale di Giustizia (CNJ) garantisca che il giudice resterà l’unico autore del verdetto, non possiamo non considerare anche il rischio di automation bias (la tendenza umana a fidarsi ciecamente della macchina): di fronte a migliaia di fascicoli, un magistrato potrebbe fidarsi del “bollino” messo dalla macchina. E se RAFA 2030 segnala un caso come “priorità climatica”, quel processo riceverà un trattamento diverso dagli altri? Si creerà una corsia preferenziale, una gerarchia dei diritti, basata non sulla gravità del danno, ma sull’etichetta ONU? Per contro, i fautori di questa tecnologia sostengono che l’algoritmo possa finalmente garantire coerenza. Spesso, di fronte a casi identici, giudici diversi emettono sentenze opposte. L’IA non ha “giornate no”, non è influenzata dalla stanchezza e può garantire una coerenza statistica che l’essere umano fatica a mantenere. Un’IA ben programmata potrebbe rinvenire precedenti simili e suggerire criteri uniformi, riducendo l’arbitrarietà del singolo magistrato. L’IA deve fermarsi alla porta del tribunale? RAFA 2030 rappresenta una sfida epocale. Da un lato, promette una giustizia più veloce, trasparente e uniforme. Dall’altro, evoca lo spettro di una giustizia algoritmica dove il “fine” politico giustifica i “mezzi” legali. La tecnologia dovrebbe limitarsi a compiti puramente logistici: archiviare, catalogare, smistare. Quando l’IA inizia a suggerire “obiettivi” che hanno un sapore politico, invade il campo della libertà di giudizio. La giustizia non è una somma algebrica e non può essere guidata da una valutazione programmata in un software. Il Brasile sta facendo da laboratorio mondiale: vedremo se RAFA 2030 sarà uno strumento di modernizzazione o il primo passo verso una giustizia piegata a interessi, visioni di parte e statistiche. La valutazione umana, il convincimento del giudice, nel diritto, non è un lusso, ma la garanzia che ogni cittadino sia giudicato per ciò che ha fatto, e non per quanto la sua sentenza sia utile a un’agenda politica. La vera sfida per il futuro tecnologico in materia, sarà la capacità di preservare l’ambito umano, nel giudizio, che permette a un giudice di vedere la persona oltre il codice, garantendo che l’algoritmo resti un assistente e non diventi mai il sovrano del tribunale. Angela Iacovetti