L’intelligenza artificiale va troppo veloce, il regolamento Ue rischia di arrivare tardi

L’intelligenza artificiale va troppo veloce, il regolamento Ue rischia di arrivare tardi

A rischio la privacy se si lascia che siano le big tech e non i governi degli Stati a scrivere le regole sull'I.A. La parola passa al legislatore italiano.

Il Regolamento Ue sull’AI procede verso l’approvazione. Ma rischia di nascere vecchio: l’AI fa troppi progressi. Servono norme nazionali per frenare i progressi nel frattempo?

Il legislatore europeo ha fatto bene a pensare di disciplinare l’Intelligenza Artificiale (AI) con un regolamento, ciòé con uno strumento che entra in vigore, con il medesimo testo (tradotto nelle lingue nazionali), indistintamente in tutti gli Stati membri nello stesso giorno.

Si evitano quindi le tipiche incertezze di quando, invece, si procede con una direttiva, soggetta a norma di recepimento interna dai singoli Stati (e dunque con un testo differente rispetto a quello licenziato dagli organi legislativi europei), con la possibilità da parte di questi ultimi di sforare il termine per la sua applicazione, sia pur esponendosi alla conseguente procedura di infrazione.

Così il regolamento dà più  cogenza e armonizzazione alla normativa Ue negli Stati membri, ai quali è precluso ogni margine di manovra, con la sola eccezione di quanto eventualmente concesso dal medesimo provvedimento.

Il fatto che sia stato scelto lo strumento del regolamento indica la grandissima importanza attribuita dal legislatore europeo al settore dell’AI, al pari della precedente scelta operata nella disciplina relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (Regolamento Ue 2016/679, noto anche come GDPR).

I tempi di approvazione

Tuttavia, la proposta di Regolamento sull’AI in discussione in seno all’Ue, anche a voler ammettere la sua approvazione entro la legislatura in corso (e non detto che sarà così), sarà direttamente applicabile in tutti gli Stati membri nel 2026 o, addirittura nel 2027, a seconda di quando avverrà in concreto il via libera.

E’ noto che esiste e, verosimilmente, esisterà sempre una invincibile asimmetria tra il normare e l’innovazione tecnologica: il legislatore entra in gioco per regolamentare un fenomeno che si è già manifestato.

Basti pensare che si è reso necessario rivisitare il testo del Regolamento a causa dell’arrivo dell’AI generativa (ChatGPT tanto per fare un esempio), originariamente non prevista, perché sconosciuta all’epoca della stesura della proposta regolamentare.

L’attesa è il fronte italiano

Posto che il Regolamento sull’AI vedrà la luce nei prossimi anni, la domanda è d’obbligo: nel frattempo, che fare?

Più nello specifico, il legislatore italiano, intende coprire questo vuoto normativo, oppure preferisce attendere la legiferazione Ue, prevista per il 2026-2027?

Il problema non è di poco conto: in contemporanea il mercato non aspetta e corre, sfornando chissà quante altre innovazioni e costringendo anche il legislatore europeo a stare sempre sul pezzo al fine di evitare l’approvazione di una norma già vecchia, superata delle innovazioni tecnologiche frattanto intervenute.

La tecnologia ha la capacità di plasmare i comportamenti delle persone, e se non la si governa sovrasta le regole degli Stati, principio racchiuso nella magnifica formula “code is law” (dove “code” sta per software, per cui, il software è la legge) per dirla con le parole del giurista americano Lawrence Lessig, oltre 15 anni fa.

Lasciare carta bianca al mercato può essere pericoloso, perché in concreto significa mettere a rischio la privacy dei cittadini, la cui tutela non può certamente essere demandata alle big tech.

Queste compagnie sono voraci e insaziabili di dati personali, nella logica legittima del profitto, a maggior ragione adesso nel divenire delle smart cities, ove l’innovazione tecnologica dovrà fare i conti con la salvaguardia multilivello dei dati della persona, al fine di evitare che le città del futuro siano dei laboratori con gli utenti come cavie.

D’altro canto, è pur vero che legiferare la materia potrebbe disincentivare le aziende ad investire in Italia, privilegiando altri Paesi che invece hanno scelto di non intervenire, come tali percepiti dagli imprenditori digitali quali “mercati liberi”, dove poter operare senza vincoli, al netto di quanto previsto dal GDPR.

Con la conseguenza che questo potrebbe rappresentare un freno per la crescita tecnologica del nostro Paese e, dunque, in prospettiva, dover scontare un gap nella materia dell’AI.

Senza contare che i progressi incontrollati dell’AI continuerebbero: non basta una norma di un solo Paese per frenarli in tutto il mondo.

Una soluzione illusoria

In un futuro molto prossimo dovrebbe vedere la luce il primo codice di condotta, che nasce dalla cooperazione Usa-Ue ma, non avendo tale strumento alcuna forza cogente, gli Stati saranno liberi di aderirvi o meno, e, c’è da scommettere, che più di uno farà spallucce, in una strategia di proprio tornaconto.

Danilo Vorticoso