Verso una legge sull'intelligenza artificiale: l'Europa vuole un'AI affidabile

Verso una legge sull’intelligenza artificiale: l’Europa vuole un’AI affidabile

Notizie correlate

Gli eurodeputati lo scorso venerdì hanno raggiunto un accordo sulla prima legge che dovrà garantire che l’AI in Europa sia sicura, rispettosa dei diritti fondamentali degli individui e della democrazia, senza tuttavia togliere alle imprese e alle forze dell’ordine la possibilità di utilizzarla per scopi produttivi. Non si potrà usare il riconoscimento biometrico. Multe fino a 35 milioni

L’intelligenza artificiale, o AI, ormai è sulla bocca di tutti. Si tratta di un’innovazione concreta e con delle ottime potenzialità, sfruttabili in diversi campi di applicazione, dall’educazione, fino alla medicina. Ma questa “esplosione” ha prodotto anche degli effetti negativi, con errati e inappropriati utilizzi. L’Europa vuole “metterci una pezza” e quindi ha avviato tutta una serie di lavori che porteranno all’approvazione di una legge sull’AI.

L’Europa vuole disciplinare l’AI

Venerdì scorso, Parlamento e Consiglio europeo hanno raggiunto un accordo provvisorio sulla legge sull’intelligenza artificiale. Questo regolamento mira a garantire che i diritti fondamentali dei cittadini, la democrazia, lo stato di diritto e la sostenibilità ambientale siano protetti dall’AI, stimolando al contempo l’innovazione e rendendo l’Europa leader nel settore. Le nuove norme stabiliranno degli obblighi per chi utilizza l’AI in base ai rischi potenziali e all’effettivo impatto sui diritti fondamentali dei cittadini.

Gli ambiti vietati

Riconoscendo la potenziale minaccia ai diritti dei cittadini e alla democrazia rappresentata da alcune applicazioni dell’AI, i legislatori hanno convenuto di vietare:

  • i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);
  • la raccolta non mirata di immagini del volto da internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale;
  • riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni scolastiche;
  • la classificazione sociale basata sul comportamento sociale o sulle caratteristiche personali;
  • sistemi di AI che manipolano il comportamento umano per eludere il libero arbitrio;
  • AI utilizzata per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica).

Esenzioni per le forze dell’ordine

I legislatori hanno concordato una serie di eccezioni per l’uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico a fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. L’RBI “post-remoto” verrebbe utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave. L’RBI “in tempo reale” sarebbe conforme a condizioni rigorose e il suo uso sarebbe limitato nel tempo, ai fini di ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica specifica e attuale, o localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).

Gli obblighi

Secondo i legislatori europei, le aziende che operano in ambiti sensibili, dovranno necessariamenete effettuare una valutazione obbligatoria dell’impatto sui diritti fondamentali, applicabile anche ai settori assicurativo e bancario. I sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori sono classificati come ad alto rischio. I cittadini avranno il diritto di presentare reclami e di ricevere spiegazioni sulle decisioni basate sull’AI che potrebbero avere un qualche impatto sui loro diritti fondamentali. I sistemi di AI per scopi generali (GPAI) e i modelli GPAI su cui si basano dovranno poi aderire ai requisiti di trasparenza proposti dal Parlamento che includono la stesura di una documentazione tecnica, il rispetto della legge sul copyright e la diffusione di una sintesi dettagliata sui contenuti utilizzati per la formazione.

Le sanzioni

Il mancato rispetto delle norme può portare a multe che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.

Emiliano Ragoni