Tech I quattro principi per un’Intelligenza Artificiale Spiegabile e quindi affidabile Giuseppe Alve... 11 October 2023 Il NIST ha proposto un metodo basato su quattro principi che caratterizzano una buona spiegazione di come funziona un sistema di intelligenza artificiale. AI Notizie correlate Legal Come sfruttare la linfa vitale dell’economia mondiale (3). Il DGA: i meccanismi per creare fiducia Legal Come sfruttare la linfa vitale dell’economia mondiale (2). Il DGA: il quadro di governance Legal Come sfruttare la linfa vitale dell’economia mondiale (1). Il DGA: la visione e gli obiettivi Le tecnologie di intelligenza artificiale (AI) costituiscono un volano fondamentale per trasformare la società e la vita delle persone: dal commercio, alla salute, ai trasporti, alla sicurezza informatica, all’ambiente. Però, insieme a grandi benefici, queste tecnologie, possono comportare anche grandi rischi che possono avere un impatto negativo su persone, gruppi e organizzazioni. Infatti, senza controlli adeguati, questi rischi possono determinare risultati ingiusti o indesiderabili per gli individui e le comunità. E’ quindi assolutamente necessario adottare sistemi di AI affidabili. Il primo più importante indicatore dell’affidabilità di un sistema di AI è la spiegabilità. L’Intelligenza Artificiale Spiegabile (la c.d. XAI: Explainable Artificial Intelligence) La Comunità di sviluppatori è fortemente concentrata nel predisporre sistemi di “Intelligenza Artificiale Spiegabile (la c.d. XAI: Explainable Artificial Intelligence) che costituisce un fondamentale fattore di affidabilità dei sistemi. In uno specifico paper (NISTIR 8312), il NIST ha introdotto quattro principi che comprendono proprietà fondamentali per i sistemi di “Intelligenza Artificiale Spiegabile” quali; “Spiegazione” – “Significativo” – “Accuratezza della Spiegazione” – “Limiti della Conoscenza”. Va precisato che il motivo per cui viene richiesta una spiegazione e il modo in cui questa viene fornita potrebbero differire a seconda dei fruitori dell’AI. Infatti, i suddetti quattro principi sono fortemente influenzati dall’interazione del sistema di intelligenza artificiale con i destinatari umani delle informazioni. Ecco perché questi principi definiti dal NIST hanno lo scopo di catturare un ampio insieme di motivazioni, ragioni e prospettive. Il metodo proposto dal NIST Il NIST propone uno specifico metodo che consenta di rilasciare una buona spiegazione del funzionamento di un sistema di intelligenza artificiale. Una spiegazione che deve: essere incentrata sull’uomo, perché gli esseri umani sono i fruitori dei sistemi; essere comprensibile alla gente; riflettere correttamente il processo di generazione dell’output del sistema; indicare quando funziona al di fuori delle condizioni progettate, al fine di favorire la fiducia nelle spiegazioni. Questi concetti fondamentali costituiscono la base per i quattro principi di “Intelligenza Artificiale Spiegabile”. I quattro principi Prima di approfondire i principi, bisogna preventivamente definire tre termini chiave: spiegazione, output e processo. Una spiegazione è la prova, il supporto o il ragionamento relativo all’output o al processo di un sistema. L’output di un sistema è il risultato ottenuto o l’azione intrapresa da una macchina o da un sistema che esegue un compito. L’output di un sistema differisce, quindi, in base al compito. Così, ad esempio, per una richiesta di prestito, l’output è una decisione: prestito approvato o negato. Per un sistema di consigli, l’output potrebbe essere un elenco di film consigliati. Per un sistema di controllo grammaticale, l’output sono gli errori grammaticali e le correzioni consigliate. Il processo si riferisce alla progettazione e al flusso di lavoro che sono alla base del sistema. Ciò comprende la documentazione sul sistema, i dati utilizzati per lo sviluppo del sistema e la conoscenza del sistema. La figura seguente illustra i quattro principi dell’intelligenza artificiale spiegabile, proposti dal NIST. Le frecce stanno ad indicare che affinché un sistema sia spiegabile, deve fornire una spiegazione. I restanti tre principi sono le proprietà fondamentali di quella spiegazione. Il principio “Spiegazione” Il principio di “Spiegazione” afferma che affinché un sistema possa essere considerato spiegabile deve fornire prove, supporto o ragionamento relativi a un output o a un processo di un sistema di intelligenza artificiale. Di per sé, il principio di spiegazione è indipendente dal fatto che la spiegazione sia corretta o intelligibile. Queste proprietà afferiscono, invece, ai principi “Significativo” e “Accuratezza della Spiegazione”. Quindi, per soddisfare una vasta gamma di applicazioni è bene adottare una definizione volutamente ampia di spiegazione. Il principio “Significativo” Un sistema soddisfa il principio “Significativo” se il fruitore previsto è in grado di comprendere la spiegazione del sistema. Molti fattori possono indurre le singole persone a considerare “buona” una spiegazione. Le persone troveranno importanti, rilevanti o utili le informazioni che includono le loro conoscenze e le loro esperienze pregresse. Pertanto, gli sviluppatori devono sempre attentamente considerare il pubblico previsto. Il principio “Accuratezza della Spiegazione” Insieme, i principi “Spiegazione” e “Significativo” richiedono solo che un sistema produca spiegazioni che siano comprensibili al pubblico a cui si rivolge. Il complementare principio dell’”Accuratezza della Spiegazione” impone anche la veridicità delle spiegazioni di un sistema. Il ragionamento che attua questo principio potrebbe concentrarsi succintamente sui punti critici o fornire un ragionamento di alto livello, senza estendersi ai dettagli. Questo, perchè le sfumature possono essere significative solo per determinati tipi di pubblico, come, ad esempio, gli esperti del sistema. Un esempio può servire a comprendere questo concetto. Un professore di neuroscienze può spiegare una nuova scoperta con dettagli estesi e tecnici a un collega. Quella stessa scoperta sarà probabilmente descritta in modo distillato a uno studente universitario. Infine, lo stesso professore potrebbe spiegare l’argomento in modo molto diverso ai suoi amici o ad altre persone inesperte. Così, una spiegazione molto dettagliata, da un lato può riflettere accuratamente il processo di elaborazione del sistema, dall’altro risulta poco utile e poco accessibile per un determinato pubblico. Allo stesso modo, una breve e semplice spiegazione può essere altamente comprensibile ma non caratterizzerebbe pienamente il sistema. Vanno quindi attentamente considerate metriche di flessibilità di questo principio. Il principio “Limiti della Conoscenza” I principi precedenti presuppongono implicitamente che un sistema operi nell’ambito dei suoi confini progettuali e conoscitivi. Il principio dei “Limiti della Conoscenza” afferma che i sistemi devono identificare i casi per i quali non sono stati progettati o approvati (e non debbano pertanto funzionare) o i casi per i quali le loro risposte non sono affidabili. Così, ad esempio, in un sistema costruito per classificare le specie di uccelli, un utente può inserire l’immagine di una mela. In questo caso, il sistema potrebbe rispondere indicando che non è stato possibile trovare alcun uccello nell’immagine di input e non può, pertanto, fornire una risposta. Peraltro, questa è sia una risposta che una spiegazione. Conclusioni Il campo dell’Intelligenza Artificiale Spiegabile è un’area di ricerca attiva e in continua evoluzione. La comprensione di questi sistemi e il loro utilizzo varieranno man mano che il campo cresce con nuove conoscenze e dati. Ci saranno sempre nuove sfide da affrontare e domande sempre più complesse alle quali dover rispondere. In questo scenario così complesso e difficile, i quattro principi proposti dal NIST possono certamente aiutare, poiché costituiscono una guida utile a considerare se la spiegazione soddisfa le esigenze degli utenti che dovranno utilizzare i sistemi di AI. Giuseppe Alverone
Legal Come sfruttare la linfa vitale dell’economia mondiale (3). Il DGA: i meccanismi per creare fiducia