Da Usa e Ue un codice di condotta per l’AI. Ma sarà solo volontario

Da Usa e Ue un codice di condotta per l’AI. Ma sarà solo volontario

Mentre scienziati, guru, imprenditori multimiliardari e star si accapigliano sull’Intelligenza Artificiale, sta per arrivare un primo codice di condotta. Lo stanno scrivendo Usa e Ue. E pure gli operatori del settore mettono le mani avanti

 

Mille tra ricercatori e manager (tra cui Elon Musk) a marzo di quest’anno avevano affidato ad una lettera aperta le proprie paure circa l’utilizzo senza regole dei sistemi di intelligenza artificiale (AI). Parole che in poche settimane sono state seguite da tante altre, creando un clima, di attrazione verso il progresso, ma al tempo stesso di timore per il “futuro umano”. Così  l’Unione Europea e gli Stati Uniti hanno dichiarato – a fine maggio – che uno dei prossimi sforzi congiunti sarà la pubblicazione di un codice di condotta volontario sull’intelligenza artificiale, con l’obiettivo di sviluppare standard comuni.

Tempi e portata del codice

Il codice dovrebbe essere pronto a breve ed entrare in forza prima del Regolamento sull’AI (AI Act, ancora in discussione), e si tratterà di “codici di condotta volontari che saranno aperti a tutti i Paesi che condivideranno le stesse idee (…) in un momento in cui gli occidentali temono di lasciare che sia la Cina a guidare la regolamentazione”, come ha specificato il segretario di stato americano Antony Blinken.

Ue e Usa hanno ribadito che “La cooperazione è fondamentale per promuovere un’innovazione responsabile dell’IA che rispetti i diritti e la sicurezza e garantisca vantaggi in linea con i valori democratici condivisi. I recenti sviluppi nell’IA generativa evidenziano la portata delle opportunità e la necessità di affrontare i rischi associati”.

I tempi brevi previsti per il codice sono probabilmente dovuti al fatto che si tratta solo di un testo senza valore di legge: chi lo rispetterà lo farà solo su base volontaria e non perché siano previste sanzioni. Ciò spiega perché Ue e Usa, nel presentarlo, fanno riferimento alla cooperazione. In fondo, vanno nella stessa direzione del primo appello che è venuto dal mondo produttivo.

L’appello (anche) di Musk

Nelle righe scritte a marzo da Musk, ricercatori e manager, si può leggere di come l’AI sia potenzialmente in grado di generare rischi profondi per la società e l’umanità, rappresentando un cambiamento profondo nella storia della vita sulla Terra e che, pertanto, dovrebbe essere pianificata e gestita con cura e risorse adeguate, ad oggi sfortunatamente non rinvenibili.

I firmatari della lettera si domandano:Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà?”.

Ed in risposta avanzano una richiesta (che pare più una preghiera): sospendere immediatamente, per almeno 6 mesi, l’addestramento di sistemi di IA più potenti di GPT-4, ossia il chatbot (software in grado di interagire con l’essere umano e simulare conversazioni) di OpenAI.

Tali intelligenze artificiali, infatti, dovrebbero essere sviluppate laddove si possa riporre fiducia nei loro effetti positivi e solo quando i rischi dalle stesse generati possano essere gestiti, dovendo cercare in tutti i modi di frenare questa “corsa fuori controllo allo sviluppo e all’impiego di menti digitali sempre più potenti che nessuno, neanche i loro creatori, possono capire, prevedere e controllare in modo affidabile”.

Parallelamente, si suggerisce di lavorare allo sviluppo di solidi sistemi di governance dell’IA, che si focalizzino come minimo i seguenti aspetti:

  • autorità di regolamentazione nuove e dedicate;
  • supervisione e tracciamento dei sistemi di AI;
  • sistemi di watermarking o “filigrana elettronica”, termine che indica l’inserimento in un file di alcune informazioni che permettano di contrassegnarlo in modo permanente.;
  • un robusto ecosistema di auditing e certificazione;
  • responsabilità per i danni causati dall’intelligenza artificiale;
  • finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’AI.

In questo modo l’umanità potrà godere di un futuro fiorente con l’AI”.

Anche i leader del settore frenano

Dopo l’appello firmato anche da Musk, si sono aperte polemiche: ci sono anche studiosi e imprenditori che considerano le limitazioni all’AI come un freno ingiustificato al progresso. Un po’ come già nei secoli ce ne sono stati a innovazioni poi divenute di uso comune e irrinunciabili.

Però sulla stessa linea di Musk c’è anche una più recente lettera aperta, di maggio 2023, firmata da 350 leader del settore, incluso l’amministratore delegato di OpenAI, Sam Altman.

Solo 22 parole per dire: Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war”. Il ridurre i rischi connessi e derivanti dall’uso dell’Ai dovrebbe, quindi, essere visto come una priorità globale, al pari di altre emergenze sociali come le pandemie e la guerra nucleare.

Preoccupazioni motivate o mossa per scaricarsi preventivamente da responsabilità se qualcosa andasse storto nei loro programmi o se qualcuno abusasse dell’AI? Ce lo dirà solo il tempo. Nell’attesa, si può solo tenere alta la guardia.

Anna Capoluongo