AI e potere amministrativo, chi decide davvero?

AI e potere amministrativo, chi decide davvero?

AI e Pubblica Amministrazione, un binomio in divenire anche in virtù dell’evoluzione normativa. 

La decisione invisibile

Nell’ordinamento italiano, la decisione amministrativa è ancora, formalmente, umana: un responsabile del procedimento istruisce, un dirigente firma, un atto viene notificato.

Tuttavia, la Pubblica Amministrazione si avvale, in alcuni casi, di sistemi di analisi automatizzata, che:

  • selezionano i casi “meritevoli” di attenzione,
  • attribuiscono punteggi di rischio,
  • segnalano anomalie,
  • suggeriscono priorità operative.

In tali casi, ciò che precede quella firma non è più interamente umano.

Questo significa che il potere decisionale non è stato (ancora) delegato all’Intelligenza Artificiale, ma a quest’ultima si è iniziato a delegare la selezione della realtà su cui esercitare quel potere.

Questo fa sorgere una domanda: chi esercita davvero il potere amministrativo quando il campo delle scelte è costruito da una macchina?

Dalla discrezionalità amministrativa a quella algoritmica

Nel diritto amministrativo è centrale il concetto discrezionalità: valutare interessi pubblici, ponderare circostanze, scegliere tra più opzioni legittime.

L’Intelligenza Artificiale trasformerebbe tale discrezionalità in una “discrezionalità algoritmica” che potremmo definire indiretta, poiché:

  • non adotta l’atto,
  • non compare nella motivazione,
  • non è immediatamente sindacabile,

ma condiziona in modo strutturale l’esercizio del potere discrezionale.

Se ciò su cui deve decidere il funzionario è il risultato di una pre – selezione automatizzata, la libertà di giudizio resta, ma su uno scenario già costruito.

I casi concreti italiani: dove l’IA orienta davvero le decisioni

Agenzia delle Entrate: il potere di selezionare chi controllare

L’Agenzia delle Entrate utilizza da anni sistemi avanzati di:

  • analisi del rischio fiscale
  • incrocio massivo di dati (fatture elettroniche, patrimoni, spese, flussi finanziari),
  • individuazione di profili anomali.

L’Intelligenza Artificiale non svolge la funzione di accertamento, ma seleziona i contribuenti da sottoporre a controllo.

È questa selezione che attiva il potere amministrativo di controllo, secondo una certa intensità e frequenza, che produce effetti giuridici ed economici nella vita del cittadino.

“Initium est dimidium facti” (Orazio, Epistole): l’inizio è già metà dell’azione.
Chi decide l’inizio, esercita già una forma di potere.

INPS: sistemi antifrode e sospensione delle prestazioni

L’INPS utilizza strumenti automatizzati per:

  • individuare anomalie nelle prestazioni assistenziali,
  • incrociare dati su reddito, residenza, composizione del nucleo familiare,
  • segnalare posizioni imperfette

L’attivazione del controllo nasce da un avviso algoritmico, anche se i provvedimenti di sospensione o revoca sono emanati da un funzionario.

Nei casi in cui la sospensione o la revoca della prestazione derivi dall’accertamento di una violazione oggettiva e verificabile (es. la dichiarazione di un reddito inferiore a quello effettivo, per ottenere un beneficio) il diritto di difesa del cittadino non risulta in concreto compromesso, perché quest’ultimo può dimostrare quello che afferma, se l’ente si fosse sbagliato.

Quando, invece, l’attivazione del controllo e l’esito del procedimento si fondano su valutazioni di tipo probabilistico o comportamentale, il sistema mostra la sua criticità.

Es. In un nucleo familiare composto da un adulto e un bambino, il sistema rileva spese per l’immobile fatte da un’altra persona, il cui veicolo compare tutte le sere a quell’indirizzo.

Il sistema assegna un punteggio di rischio elevato di nucleo familiare di tre persone di fatto non dichiarato.

Non sarà facile dimostrare che la terza persona è un partner non convivente dell’adulto, per esempio, che sostiene le spese per affetto e si reca in visita tutte le sere…

Forze di polizia e Polizia Locale: l’allocazione algoritmica dell’attenzione

In Italia non esiste una polizia predittiva in senso forte, ma esistono sistemi in cui l’algoritmo decide dove guardare di più, grazie all’analisi dei dati relativi ai reati, alle denunce e ai luoghi più a rischio, che suggeriscono priorità di pattugliamento.

Ma è pur vero che dove si guarda di più, si trova di più e si rafforza l’idea di rischio, con i conseguenti problemi di allocazione delle risorse, che potrebbero essere sbilanciate sul territorio, ad opera di una profezia che si autoavvera, resa più efficiente dalla tecnologia.

Comuni: controlli automatizzati e avvio dei procedimenti

Sempre più enti locali utilizzano software che incrociano dati anagrafici, tributari e di utenza, segnalando posizioni anomale, da verificare.

In queste ipotesi, l’AI dà inizio al procedimento, non lo conclude.

E l’inizio del procedimento amministrativo è già esercizio di potere, perché produce obblighi, controlli, richieste documentali.

Gli effetti sistemici: il potere diventa opaco

L’uso crescente dell’AI nella pubblica amministrazione produce quattro effetti critici:

a) Responsabilità attenuata

Il decisore firma, ma non governa l’intero processo cognitivo, dato l’intervento determinante dell’algoritmo.

b) Motivazioni formalmente corrette ma sostanzialmente incomplete

La parte algoritmica resta spesso fuori dalla motivazione (invece, secondo il nostro modesto parere, andrebbe inclusa per ragioni di garantismo, trasparenza e ruolo importante nel procedimento; ma, soprattutto, per il fatto che l’AI Act obbliga a progettare sistemi che consentano agli utenti di comprendere come e perché una decisione sia stata presa dall’algoritmo).

c) Difficoltà di sindacato giurisdizionale

Ciò che non è manifestato in maniera esplicita non è facilmente contestabile (la finalità della motivazione di un atto amministrativo è anche il sindacato giurisdizionale).

d) Neutralità apparente

L’algoritmo appare oggettivo, ma incorpora scelte di valore e può incorporare bias non equi.

Potremmo dire, in sintesi, che più il potere diventa tecnico, più diventa difficile da vedere.

Come porre rimedio

Il problema non è l’uso dell’AI, ma il modo in cui essa viene governata.

Proponiamo, di seguito, degli spunti per un utilizzo più corretto e giuridicamente conforme alla normativa già in vigore.

a) Motivazione “a doppio livello” e spiegazione effettiva.

Ogni decisione assistita dovrebbe indicare se è stato utilizzato un sistema automatizzato, in che modo e che ruolo ha assunto nella fase d’istruzione del procedimento.

Inoltre, in linea con GDPR e AI Act, specificare i criteri prescelti, le tipologie di dati trattati e i limiti del sistema.

b) Formazione giuridica dei decisori

Chi esprime la volontà di un ente, deve essere formato a conoscere e riconoscere i bias algoritmici, la responsabilità amministrativa “ampliata”, il dovere di scostamento motivato. L’IA deve consigliare, non orientare silenziosamente. Il funzionario deve poter dissentire senza essere penalizzato.

c) Audit indipendenti periodici

Sono verifiche necessarie per evitare effetti discriminatori, cristallizzazione delle disuguaglianze e coerenza costituzionale, in modo da migliorare l’organizzazione e le performance delle procedure e del lavoro.

Conclusione: restare sovrani degli strumenti

Il rischio insito nella rivoluzione tecnologica (e che rivoluzione, quella dell’Intelligenza Artificiale!) non è che le macchine decidano al posto degli esseri umani, ma che gli esseri umani smettano di decidere, limitandosi a ratificare quello che ha stabilito una macchina, ancorché opportunamente istruita.

Ecco perché la domanda iniziale, posta nel titolo di quest’articolo, investe non solo aspetti giuridici della nostra vita in comune, ma anche sociali e politici, toccando il cuore della democrazia: chi esercita il potere se la decisione nasce prima della firma?

Angela Iacovetti