Divieto di AI per affari importanti e tanta prudenza: le regole della Commissione Ue per l'AI generativa

Divieto di AI per affari importanti e tanta prudenza: le regole della Commissione Ue per l’AI generativa

Attenzione a non usare informazioni non pubbliche, verifiche costanti sui risultati e divieto di utilizzo in compiti critici. Sono i paletti della Commissione Ue sull’Intelligenza Artificiale generativa. Per ora vincolano solo i propri dipendenti

 

La Commissione Ue ha da poco (27 aprile 2023) pubblicato linee guida su come utilizzare i modelli di Intelligenza Artificiale (AI) generativa on line e come interagire con essi, con particolare riguardo a limiti e rischi. Sono raccomandazioni che vincolano solo il personale che lavora per la Commissione, ma danno un’idea della posizione  dell’esecutivo europeo guidato da Ursula von der Leyen sulla delicata e controversa questione.

Che cos’è l’AI generativa

Va anzitutto chiarito come nell’AI generativa rientrino quei sistemi di intelligenza artificiale in grado di generare testo, immagini, video, musica o altri media in risposta a determinate richieste (anche, promp).

Uno dei tanti esempi di ciò è l’ormai nota ChatGPT (Generative Pre-trained Transformer), ossia il chatbot di OpenAI, un software basato sull’apprendimento automatico e specializzato nella simulazione di conversazioni con l’essere umano.

Il documento della Commissione Ue

Ma le linee guida della Commissione Ue non fanno riferimento solo a ChatGPT, richiamando espressamente anche Google Bard e Stable Diffusion, caratterizzati, anch’essi, dalla capacità di generare contenuti in base alle richieste pervenute da utenti umani.

Le linee guida riguardano strumenti di terze parti disponibili pubblicamente online, come ChatGPT. Esse mirano ad aiutare il personale della Commissione europea a comprendere i rischi e le limitazioni che gli strumenti disponibili online possono comportare e a sostenere un uso appropriato di tali strumenti”.

In particolare, il documento ha come obiettivo quello di fungere da guida nella gestione dei rischi e dei limiti dell’IA generativa, permettendo di sfruttarne il potenziale (incremento dell’efficienza e migliore qualità della produttività), ma nel rispetto di determinate regole e requisiti. Tra questi è bene evidenziare:

  1. il non divulgare informazioni o dati personali che non siano già di dominio pubblico. Infatti, qualsiasi input inserito in questi sistemi viene trasmesso al fornitore dell’AI, potendo facilmente rientrare in data base di alimentazione futura dell’algoritmo;
  2. l’essere consapevoli che le risposte dell’AI potrebbero essere imprecise o parziali, errate o distorte. In tal senso, quindi, i funzionari/personale interno UE “dovrebbero sempre valutare criticamente qualsiasi risposta prodotta da un modello generativo di IA disponibile online per verificare la presenza di potenziali pregiudizi e informazioni di fatto inesatte“;
  3. il valutare possibili violazioni di diritti di proprietà intellettuale (copyright), poiché a causa della mancanza di trasparenza insita in tali sistemi si potrebbero verificare casi di utilizzo di contenuti protetti per l’addestramento dell’AI stessa. Ecco perché non si dovrebbe “replicare mai direttamente l’output di un modello generativo di IA in documenti pubblici, come la creazione di testi della Commissione, in particolare quelli giuridicamente vincolanti“; ed infine
  4. il non affidarsi a tali sistemi per lo svolgimento di compiti critici o comunque per i quali il fattore timing sia fondamentale, poiché i modelli di AI generativa potrebbero avere tempi di risposta lunghi o non essere sempre disponibili.

La guida si conclude, poi, con un’eccezione da applicarsi in caso di utilizzo di servizi di AI propri della Commissione, specificando che: “I rischi e i limiti discussi non sono necessariamente rilevanti per gli strumenti di IA generativa sviluppati internamente dalla Commissione. Gli strumenti interni sviluppati e/o controllati dalla Commissione saranno valutati caso per caso nell’ambito della governance aziendale esistente per i sistemi IT“.

Anna Capoluongo