Nonostante il primo algoritmo al mondo sia stato scritto da una donna, la contessa Augusta Ada Byron, figlia del celebre poeta, oggi l’Intelligenza Artificiale è prevalentemente maschile. E non è solo questione di accesso e retribuzioni, è anche – e soprattutto – questione di lavoro. Sul tema si è interrogato l’ultimo rapporto dell’Eige, l’European Institute for Gender Equality, intervistando 5000 persone impiegate nel settore. Il risultato è una discriminazione “de facto” che rischia di perpetuare vecchi stereotipi, seppur con nuovi linguaggi. Un esempio? La fase di recruiting.
Un numero sempre maggiore di organizzazioni utilizza gli algoritmi per pubblicare annunci di lavoro online, vagliare curricola, fare matchmaking tra domanda e offerta di lavoro, programmare colloqui e definire l’inserimento in azienda. Ma gli algoritmi, spesso ritenuti un mezzo per accelerare il processo di selezione e ridurre pregiudizi inconsapevoli, possono produrre esiti discriminatori. Ciò accade sia perché apprendono da serie storiche sia perché possono essere stati settati con dati distorti e non del tutto rappresentativi.
Il rapporto cita, in particolare, la piattaforma di reclutamento automatico di Amazon che è stata programmata per vagliare migliaia di domande in pochissimi secondi. Tuttavia, questi algoritmi incamerano profondi pregiudizi di genere: poiché la maggior parte delle assunzioni fatte in passato da Amazon sono maschili, l’algoritmo tende a penalizzare i cv che includono la parola «donna». Un altro esempio riguarda le piattaforme di video-interviste che potrebbero sfavorire coloro che non hanno un certo aspetto o che hanno delle disabilità, come un difetto di pronuncia.
L’Eige cita inoltre uno studio, che ha dimostrato come anche annunci di lavoro creati per essere gender neutral, vengano mostrati da piattaforme come Facebook, Google, Twitter e Instagram, a platee prevalentemente maschili. Questo perché l’algoritmo di ottimizzazione dei costi vede il segmento femminile come più costoso da raggiungere.
Modificare tali approcci richiede un maggior equilibrio di genere – e una maggiore eterogeneità, in generale – in chi ha la responsabilità di programmare l’IA. «I team di lavoro devono includere persone diverse tra loro, in modo da riconoscere i pregiudizi inconsci che ognuno ha – spiega Francesca Rossi, AI Ethics global leader di IBM,esperta di Intelligenza Artificiale, che continua – È possibile anche utilizzare dei software per identificare eventuali pregiudizi, ma è essenziale che tali strumenti siano adottati da persone che hanno ricevuto una formazione mirata. Insomma, non è l’IA a dover essere etica, ma l’intero ecosistema».

