Gli algoritmi che penalizzano le donne
L'ultimo rapporto dell'Eige, l'European Institute for Gender Equality, evidenzia come gli algoritmi rischino di perpetuare vecchi stereotipi
di Silvia Pagliuca
3' di lettura
Nonostante il primo algoritmo al mondo sia stato scritto da una donna, la contessa Augusta Ada Byron, figlia del celebre poeta, oggi l'Intelligenza Artificiale è prevalentemente maschile. E non è solo questione di accesso e retribuzioni, è anche – e soprattutto – questione di lavoro. Sul tema si è interrogato l'ultimo rapporto dell'Eige, l'European Institute for Gender Equality, intervistando 5000 persone impiegate nel settore. Il risultato è una discriminazione “de facto” che rischia di perpetuare vecchi stereotipi, seppur con nuovi linguaggi. Un esempio? La fase di recruiting.
Un numero sempre maggiore di organizzazioni utilizza gli algoritmi per pubblicare annunci di lavoro online, vagliare curricola, fare matchmaking tra domanda e offerta di lavoro, programmare colloqui e definire l'inserimento in azienda. Ma gli algoritmi, spesso ritenuti un mezzo per accelerare il processo di selezione e ridurre pregiudizi inconsapevoli, possono produrre esiti discriminatori. Ciò accade sia perché apprendono da serie storiche sia perché possono essere stati settati con dati distorti e non del tutto rappresentativi.
Il rapporto cita, in particolare, la piattaforma di reclutamento automatico di Amazon che è stata programmata per vagliare migliaia di domande in pochissimi secondi. Tuttavia, questi algoritmi incamerano profondi pregiudizi di genere: poiché la maggior parte delle assunzioni fatte in passato da Amazon sono maschili, l’algoritmo tende a penalizzare i cv che includono la parola «donna». Un altro esempio riguarda le piattaforme di video-interviste che potrebbero sfavorire coloro che non hanno un certo aspetto o che hanno delle disabilità, come un difetto di pronuncia.
L’Eige cita inoltre uno studio, che ha dimostrato come anche annunci di lavoro creati per essere gender neutral, vengano mostrati da piattaforme come Facebook, Google, Twitter e Instagram, a platee prevalentemente maschili. Questo perché l’algoritmo di ottimizzazione dei costi vede il segmento femminile come più costoso da raggiungere.
Modificare tali approcci richiede un maggior equilibrio di genere – e una maggiore eterogeneità, in generale - in chi ha la responsabilità di programmare l'IA. «I team di lavoro devono includere persone diverse tra loro, in modo da riconoscere i pregiudizi inconsci che ognuno ha – spiega Francesca Rossi, AI Ethics global leader di IBM,esperta di Intelligenza Artificiale, che continua – È possibile anche utilizzare dei software per identificare eventuali pregiudizi, ma è essenziale che tali strumenti siano adottati da persone che hanno ricevuto una formazione mirata. Insomma, non è l'IA a dover essere etica, ma l'intero ecosistema».
La realtà, però, è ancora molto distante dall'obiettivo. In Europa e nel Regno Unito, solo il 16% di coloro che lavorano sull’IA sono donne. La quota si riduce con l’avanzamento delle carriere in quanto le donne con più di 10 anni di esperienza sono solo il 12%. Secondo quanto denunciato dal rapporto, infatti, le donne nell'IA – tranne rare eccezioni - si occupano di compiti più operativi come l'etichettatura di dati, con retribuzioni molto basse (in alcuni casi pari anche solo a 2 dollari l'ora).
Per altro, in tutto ciò incidono anche i software di monitoraggio che rischiano di penalizzare ulteriormente le donne in quanto meno tempestive nella velocità di completamento dei compiti assegnati perché più gravate da responsabilità domestiche. «Per favorire una maggiore partecipazione femminile servono modelli di riferimento e programmi di educazione mirata. Ad esempio, il progetto NERD? (Non È Roba Per Donne?) di IBM Italia, in collaborazione con 28 università su tutto il territorio nazionale, vuole diffondere la passione per l’informatica tra le giovani studentesse al fine di orientare le loro scelte universitarie e mostrare come l'Intelligenza Artificiale sia una disciplina creativa, interdisciplinare, sociale e basata sul problem solving. Tutte attività nelle quali le donne eccellono» chiarisce Rossi.
Per il migliorare il futuro sembra sia utile rispolverare il passato, prendendo esempio dalla contessa Byron. Nel frattempo, l’Artificial Intelligence Act proposto dalla Commissione Europea dovrebbe aiutare a minimizzare il rischio di pregiudizi e discriminazione. Pena, la perdita di fiducia in un sistema estremamente utile. «Ma ricordiamoci che avere fiducia nell'IA sarà possibile solo se la sua modalità d'uso sarà allineata ai valori umani, quali equità, inclusione, e rispetto dei diritti fondamentali» conclude Rossi.
loading...