Tech Europa: c'è l'accordo sulla prima legge sull'IA al mondo Emiliano Ragoni 12 December 2023 AI Notizie correlate Tech Verso una legge sull’intelligenza artificiale: l’Europa vuole un’AI affidabile Tech Legal Intelligenza artificiale e AI Act: quali novità in vista? Smart Road Enforcement Nelle smart city gli italiani amano l’auto più di prima ll Consiglio e il Parlamento raggiungono un accordo sulle prime regole per l’IA. C’è la base per la prima legge sull’intelligenza artificiale al mondo. Dopo colloqui di tre giorni, la presidenza del Consiglio e i negoziatori del Parlamento europeo hanno raggiunto un accordo provvisorio sulla proposta di norme armonizzate sull’intelligenza artificiale (AI), il cosiddetto atto sull’intelligenza artificiale. Il progetto di regolamentazione mira a garantire che i sistemi di intelligenza artificiale immessi sul mercato europeo e utilizzati nell’UE siano sicuri e rispettino i diritti fondamentali e i valori dell’UE. Esattamente come avevamo anticipato in questo articolo, con la prima legge sull’AI, l’Europa vuole disciplinare la tecnologia più importante degli ultimi anni che viene utilizzata in diversi ambiti. Parola d’ordine: disciplina Carme Artigas, segretario di Stato spagnolo per la digitalizzazione e l’intelligenza artificiale, ha dichiarato: “Questo è un risultato storico e un’enorme pietra miliare verso il futuro! L’accordo di oggi affronta efficacemente una sfida globale in un ambiente tecnologico in rapida evoluzione su un’area chiave per il futuro delle nostre società ed economie. Siamo riusciti a mantenere un equilibrio estremamente delicato: promuovere l’innovazione e l’adozione dell’intelligenza artificiale in tutta Europa, rispettando pienamente i diritti fondamentali dei nostri cittadini. Nell’ambito dell’AI, esattamente come è avvenuto con il GDPR, l’Europa vuole gioca d’anticipo, adottando il principio del rischio: maggiore è il rischio che l’AI possa causare danni alle persone e ledere i loro diritti e libertà, più severe sono le regole. Come prima proposta legislativa del genere al mondo, può stabilire uno standard globale per la regolamentazione dell’IA anche in altre giurisdizioni, andando così a promuovere l’approccio europeo sulla scena mondiale. Approccio costruttivo Rispetto alla proposta iniziale della Commissione, gli elementi di maggiore novità dell’accordo provvisorio riguardano le regole sui modelli di intelligenza artificiale per utilizzi ad alto impatto che possono causare rischi, l’estensione dell’elenco dei divieti, con la possibilità di utilizzare l’identificazione biometrica a distanza da parte delle forze dell’ordine negli spazi pubblici. Tutti le aziende che utilizzano l’AI ad alto rischio, dovranno produrre uno studio preliminare sulla valutazione dell’impatto sui diritti fondamentali, definendo in modo preciso il campo di applicazione. La legge sull’IA inoltre non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa, e a chi la utilizza per scopi di ricerca e innovazione e per motivi personali e non professionali. Inoltre, i sistemi di intelligenza artificiale che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto ridotti, limitandosi a rivelare che il contenuto è stato generato dall’intelligenza artificiale in modo che gli utenti possano prendere decisioni informate sull’eventuale utilizzo. L’Europa anticipa i tempi – Immagine generata con l’AI I divieti La futura legge europea vieta la manipolazione comportamentale cognitiva, lo scarto non mirato di immagini facciali da Internet o filmati, il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative, il punteggio sociale, la categorizzazione biometrica per dedurre dati sensibili, come l’orientamento sessuale o le credenze religiose, e alcuni casi di polizia predittiva per gli individui. Sono stati predisposti tutta una serie di concessioni alle forze dell’ordine, le quali, in caso di emergenza, possono utilizzare uno strumento di intelligenza artificiale che non ha superato la procedura di valutazione della conformità. Introdotto anche un meccanismo specifico per garantire che i diritti fondamentali siano sufficientemente protetti contro qualsiasi potenziale uso improprio dei sistemi di AI. Istituzione della governance Viene istituito un ufficio di intelligenza artificiale all’interno della Commissione incaricato di supervisionare questi modelli più avanzati, e con il compito di contribuire a promuovere standard e test comuni da applicare in tutti gli Stati membri. Un gruppo scientifico di esperti indipendenti consiglierà l’Ufficio AI sui modelli GPAI (Global Partnership on Artificial Intelligence), contribuendo allo sviluppo di metodologie di valutazione, monitorando i possibili rischi per la sicurezza. Sarà poi istituito un forum consultivo per le parti interessate, come i rappresentanti dell’industria, le PMI, le start-up, la società civile e il mondo accademico, con l’obiettivo di fornire competenze tecniche al consiglio di AI. L’AI ha un impatto fondamentale sulle attività produttive- Immagine generata con l’AI Le multe Le multe per violazioni sull’artificial intelligence act sono state previste come percentuale del fatturato annuo globale della società incriminata riferite all’anno finanziario precedente. Si tratterebbe di 35 milioni di euro o del 7% per le violazioni delle applicazioni AI vietate, di 15 milioni di euro o del 3% per le violazioni degli obblighi della legge e di 7,5 milioni di euro o dell’1,5% per la fornitura di informazioni errate. L’accordo provvisorio prevede massimali più proporzionati sulle ammende amministrative per le PMI e le start-up in caso di violazioni delle disposizioni della legge AI. Emiliano Ragoni