AI e parità di genere, siamo immuni da discriminazioni?

AI e parità di genere, siamo immuni da discriminazioni?

L’intelligenza artificiale, che ormai permea la nostra vita quotidiana, presenta un problema che non possiamo ignorare: perpetuare ed amplificare le discriminazioni di genere.

I sistemi algoritmici, infatti, se non adeguatamente progettati e controllati, possono riprodurre pregiudizi e stereotipi nei riguardi delle donne, con conseguenti limitazioni di diritti ed opportunità.

Generalmente si pensa, infatti, che la tecnologia sia neutra, ma in realtà si tratta di una finta neutralità, perché chi programma un algoritmo ha una sua visione, una personale esperienza, una propria cultura (per ironia della sorte, si tratta per lo più di uomini, attualmente in maggioranza negli studi in ambito tecnico-scientifico).

In principio era il dato

Tutto nasce dai dati con cui gli algoritmi vengono addestrati: se le informazioni sono discriminatorie, l’intelligenza artificiale discriminerà.

Spesso, i dati rappresentano una realtà in cui le donne sono penalizzate e, di conseguenza, i modelli di intelligenza artificiale riproducono gli stessi schemi discriminatori.

In sintesi, gli algoritmi imparano dai dati; se questi sono già influenzati da discriminazioni e stereotipi, l’intelligenza artificiale li replica.

Alcuni esempi

1) Selezione del personale. Se si addestra un algoritmo con i dati di un’azienda in cui la maggior parte dei dirigenti è costituita da uomini, l’algoritmo sceglierà profili simili, penalizzando le donne, anche con competenze equivalenti o superiori.

2) Ricerca di lavoro on line. Un sito potrebbe presentare offerte diverse, a uomini e donne, basandosi su dati di candidature o numero di clic: di conseguenza, ad un uomo potrebbero essere mostrate offerte in ambito tecnico o di leadership, ad una donna in ruoli amministrativi o di supporto. Alcuni casi emblematici hanno riguardato piattaforme come Facebook, Amazon Recruiting Tool e Google Ads. (si vedano in: https://www.agendadigitale.eu/sicurezza/privacy/feroni-gpdp-lia-discrimina-le-donne-serve-parita-algoritmica/).

3) Prestiti e credito. Se in passato le donne hanno avuto meno accesso al credito o minor fiducia finanziaria, un sistema automatico potrebbe continuare a svantaggiarle anche se oggi la loro condizione economica è migliorata.

4) Riconoscimento facciale. I dati per addestrare i sistemi di riconoscimento facciale spesso contengono più immagini maschili; di conseguenza, le donne, soprattutto di carnagione scura, e altre minoranze vengono meno accuratamente riconosciute.

Che cosa prevede la normativa?

Indubbiamente, a partire dal principio di eguaglianza dell’art. 3 Cost., molta strada è stata fatta per le pari opportunità, compresa quella tracciata dalle norme europee (nello specifico, l’art. 21 della Carta dei diritti fondamentali dell’UE e l’art. 8 del TFUE, che vietano la discriminazione fondata sul sesso e promuovono la parità tra uomini e donne).

Purtroppo, l’AI Act (il Regolamento UE 2024/1689 sull’intelligenza artificiale) non dà molto spazio alla discriminazione di genere: il testo ne parla solo nei “Considerando”.

Nella parte precettiva si limita a vietare i sistemi di social scoring e a classificare ad alto rischio i sistemi di categorizzazione biometrica, sebbene preveda il rischio di discriminazione algoritmica, tanto che negli artt. 9, 10 e 27 impone misure per mitigarla.

LEGGI ANCHE https://citynext.it/2025/03/20/europa-e-ai-primo-posto-allessere-umano/

L’AI Act, inoltre, non affronta il problema delle discriminazioni incrociate, non prevede audit obbligatori, stabilisce misure di conformità solo sulla base di autoregolamentazione da parte dei fornitori…

Il ricorso alla normativa sulla privacy

Tuttavia, le lacune del Regolamento in parola possono essere colmate con il ricorso ad altra normativa, come quella relativa alla protezione dei dati personali.

Per esempio, l’art. 9 GDPR, vietando di trattare dati sensibili, consente di escludere dagli algoritmi informazioni che potrebbero produrre discriminazioni.

I principii di esattezza, minimizzazione e trasparenza, di cui all’art. 5 GDPR, permettono la somministrazione di dati più specifici e pertinenti che mitigano eventuali errori.

La trasparenza svela la logica sottostante i processi decisionali degli algoritmi, consentendo una migliore interpretazione.

Sul piano normativo internazionale, inoltre, gli Stati sono obbligati a garantire la parità di genere nei sistemi di intelligenza artificiale dalla recente Convenzione del Consiglio d’Europa sull’intelligenza artificiale e i diritti umani, adottata il 5 Settembre 2024.

La parità algoritmica, una sfida da vincere

Occorre una parità algoritmica, ossia sistemi di intelligenza artificiale che garantiscano equità ed inclusione, introducendo dati congrui, rendendo gli algoritmi trasparenti, adottando test rigorosi e fornendo una supervisione continua.

Naturalmente, oltre all’azione degli sviluppatori, occorre l’impegno delle istituzioni e delle aziende.

Le prime devono definire le regole e gli strumenti di controllo, nonché promuovere una cultura dell’intelligenza artificiale che metta in primo piano i diritti umani e la tutela della parità di genere.

Le seconde, investire in squadre diversificate e formazione, per riconoscere e correggere i bias, le distorsioni elaborate dalle informazioni somministrate agli algoritmi.

Come correggere i bias

A tal fine è fondamentale raccogliere dati che riflettano in modo equilibrato la realtà, includendo esempi equamente distribuiti ed eliminando i dati distorti.

Esistono anche tecniche di cosiddetto debiasing, che modificano il peso degli esempi, aggiungono vincoli etici, usano algoritmi più equi.

È importante anche effettuare test di verifica e predisporre team eterogenei, con componenti di genere, provenienza e competenze diversi, che comprendano non solo giuristi e ingegneri, ma anche sociologi e altri esperti.

Il tutto, in trasparenza, documentando dati, processi e risultati.

In conclusione

La parità algoritmica è una sfida da vincere, per costruire un futuro in cui la tecnologia non sia un limite, ma un’opportunità per migliorare la vita di tutti.

Ma pure lottare contro la discriminazione di genere, in un clima di fiducia nei sistemi digitali.

Angela Iacovetti