Tech Legal Le linee guida AGID per l’uso di AI nella P. A., responsabilità e obblighi Sergio Bedessi 26 February 2025 AI Device Italia AGID ha avviato la consultazione delle prime Linee Guida per l’impiego dell’AI nella PA. È possibile inviare commenti, suggerimenti e proposte di modifica o di integrazione fino al 20 marzo prossimo. Pubblicata sul web-site AGID la “Bozza di linee guida per l’adozione di IA nella pubblica amministrazione” Sono state pubblicate sul web-site AGID le linee guida, per ora in bozza, relative all’utilizzo di applicazioni di intelligenza artificiale da parte delle pubbliche amministrazioni e di soggetti a questa assimilabili (art. 2 c. 2 del codice dell’amministrazione digitale) come i gestori di servizi pubblici. Tenuto conto che tutti i sistemi che usano tecnologie video incorporano tecnologie che utilizzano intelligenza artificiale (magari per il tracciamento del movimento, o per il riconoscimento di targhe, ecc.) e viste le definizioni contenute nella direttiva, che replicano quanto già previsto dal Regolamento EU 2024/1689 del Parlamento europeo e del Consiglio (AI-Act) è evidente che la Polizia Locale e, più in generale, il Comune, sarà tenuto al rispetto della direttiva. Obblighi, responsabilità e sanzioni L’ente locale è infatti, a tutti gli effetti, un deployer dal momento che le linee guida forniscono per questa figura la seguente definizione: “soggetto che utilizza un sistema di IA, anche integrandolo nei propri sistemi, senza modificarne in modo significativo il funzionamento”. Pena sanzioni che vanno fino a 35.000.000 di euro, ne derivano per la Polizia Locale e per il Comune una serie di cogenti adempimenti da effettuarsi previa accurata analisi dei propri sistemi informatici al fine di classificarli in una delle seguenti categorie: sistemi di AI vietati (rischio inaccettabile per i diritti fondamentali delle persone); sistemi di AI ad alto rischio; sistemi di AI a rischio limitato; sistemi di AI a rischio minimo o nullo. Innanzitutto di raccolta, documentazione e aggiornamento delle informazioni fondamentali in relazione a: conformità all’AI Act; gestione e qualità dei dati; protezione dei dati personali; sicurezza cibernetica; garantendo che il personale incaricato, ai vari livelli, possieda le competenze necessarie per gestire le applicazioni che utilizzano intelligenza artificiale. La necessità di valutazione di impatto sui diritti fondamentali delle persone (FRIA) per la videosorveglianza La bozza di direttiva AGID propone poi un modello di valutazione di impatto sui diritti fondamentali delle persone (FRIA – Fundamental Rights Impact Assessment) da applicarsi per tutti i sistemi IA con rischio diverso da “rischio minimo o nessun rischio” (per i quali è comunque consigliata un’analisi anche se semplificata), così come definito dall’AI Act. Tale modello di valutazione di impatto sui diritti fondamentali delle persone è strutturato come una sorta di check list suddivisa in sei schede e due appendici. Particolare attenzione va posta al punto C2.1 che permette di identificare, ai sensi dell’AI-Act, il livello di rischio del sistema di AI rispetto ai diritti fondamentali. Un esempio varrà a chiarire meglio gli adempimenti che fanno carico al Comune in relazione alle attività della Polizia Locale. Linee Guida per l’AI, un esempio pratico Ormai tutti i Comuni, dal più grande al più piccolo, hanno un impianto di videosorveglianza cittadino. Il sistema consente sempre, a meno che non si tratti di materiale veramente obsoleto, di individuare determinati movimenti di persone, oppure targhe o altri elementi visivi, in maniera automatica, senza dover guardare manualmente i flussi video per ore e ore. Spesso il sistema possiede capacità ben superiori a quelle anzidette, che magari l’utente neanche conosce e tutte queste potenzialità utilizzano intelligenza artificiale e dunque possono potenzialmente andare a inerire ai diritti fondamentali delle persone. Si ponga il caso che si stia ricercando, nei flussi video dell’impianto di videosorveglianza, una persona che ha commesso un reato predatori. Inoltre, alcuni testimoni hanno indicato che era maschio, di carnagione scura, con la barba. Ammettiamo che alcuni punti di ripresa dell’impianto si trovino nei pressi di una moschea. Tenuto conto che molti uomini che professano la religione islamica portano la barba, una ricerca video di questo tipo, magari ripetuta per più giorni, potrebbe essere vista come in conflitto coi diritti fondamentali delle persone. Conclusioni Da qui la necessità, a priori, della valutazione di impatto non su questo specifico aspetto, bensì su tutte le situazioni che potenzialmente possono aversi in relazione all’uso di strumenti di AI ad alto rischio non previste come sicuramente consentite dal Regolamento EUROPEO (sempio: reato punito con pena massima di almeno quattro anni). La FRIA (Fundamental Rights Impact Assessment) deve essere redatta da chi ha competenze non solamente legali, ma anche tecniche, con particolare riferimento alle tecnologie di intelligenza artificiale . Producendo così un documento che attesti che nel caso di utilizzo di sistemi di AI ad alto rischio i diritti fondamentali delle persone sono sicuramente salvaguardati, così tutelando l’ente da pesanti sanzioni. Sergio Bedessi