Tech Legal Intelligenza artificiale e AI Act: quali novità in vista? Anna Capoluongo 28 November 2023 AI Extra UE UE A livello mondiale si sta tentando di predisporre una normazione più estesa possibile dell’Intelligenza Artificiale. La cooperazione internazionale Da ultimo la corsa al primato della “prima normazione in materia” vede partecipi l’Europa, ma anche l’America e la Cina, nel comune sforzo di bilanciare lo sviluppo con l’etica, la sicurezza, la libertà e i diritti umani. In tal senso, il problema maggiore sembra rinvenirsi nello scontro tra l’esigenza di una necessaria collaborazione e gestione collettiva dei rischi derivanti dall’uso di tali sistemi, cui si contrappone la brama di vincere la gara per la supremazia tecnologica (soprattutto tra US e Cina). Con riferimento al primo punto, è bene evidenziare che proprio qualche giorno fa è stata firmata la Dichiarazione di Bletchley per lo sviluppo sicuro dell’intelligenza artificiale. Non vanno dimenticati neppure gli sforzi dell’ONU, che a luglio 2023 ha annunciato al creazione di un nuovo Ente votato a raccogliere competenze sull’intelligenza artificiale e a metterle a disposizione della comunità internazionale. Nella stessa direzione anche l’approvazione di un Codice di condotta internazionale (volontario) sull’IA da parte del G7. A livello nazionale L’Italia, dal canto suo, si sta muovendo in tal senso con una proposta di legge sull’AI (“Legge sulla Trasparenza dei Contenuti Generati da Intelligenza Artificiale” ), che dovrebbe avere come focus principale la trasparenza, la chiara identificazione dei contenuti editoriali e la riconoscibilità degli stessi mediante sistemi di etichettatura (label) e filigrana (watermark). AI Act: nuove modifiche Non vi è dubbio, però, che in materia i fari (e le aspettative) siano fortemente puntati sul Regolamento europeo sull’AI, che si sta avviando verso la fase finale dei negoziati per finalizzare l’AI Act. Da una parte, si sta assistendo alla spinta del Parlamento europeo per l’imposizione di obblighi più severi per i “modelli di fondazione” (es. GPT), anche in chiave di proprietà intellettuale, dall’altra la Commissione punta ad una regolamentazione incentrata sul rischio derivante dal sistema di AI (divieto per i rischi inaccettabili, regime rigoroso per sistemi ad alto rischio). In particolare modo, con riferimento ai sistemi di identificazione biometrica vale la pena un approfondimento. Se originariamente la Commissione era propensa ad autorizzare il riconoscimento biometrico a distanza in tempo reale solo in casi specifici (es. ricerca di vittime di reato o prevenzione di una minaccia specifica), il Parlamento – dal canto suo – aveva votato per un divieto assoluto dello stesso per timore di una sorveglianza di massa. Nel testo emendato a giugno 2023 si era, infine, optato per l’eliminazione del riconoscimento in tempo reale, lasciando aperta solo l’opzione di identificazione biometrica a posteriori previa autorizzazione giudiziaria. Da ultimo, invece, dopo gli ultimi incontri tecnici, pare si stia propendendo per un ritorno all’uso dell’identificazione a fronte della presenza di circostanze eccezionali. Oltre a ciò, nell’ultima versione risulterebbero introdotte ulteriori modifiche, quali: un’estensione dei sistemi di AI vietati, aggiungendo il divieto per “i sistemi di IA che creano o espandono database di riconoscimento facciale attraverso lo scraping non mirato e su larga scala di immagini facciali da internet o da filmati di telecamere a circuito chiuso“; l’introduzione di un divieto per i sistemi di categorizzazione biometrica per dedurre informazioni sensibili sulle persone; la previsione di esenzioni per le forze dell’ordine (per i dati operativi sensibili), oltre alla possibilità (in circostanze eccezionali) per le forze dell’ordine e gli enti di protezione civile di utilizzare IA ad alto rischio anche se non ancora sottoposte a valutazione di conformità; la non applicazione dell’AI Act all’ambito militare, di difesa o sicurezza nazionale. Anna Capoluongo