Intelligenza artificiale: bias e stereotipi nella rappresentazione delle donne
L'intelligenza artificiale (IA) sta trasformando ogni aspetto della nostra vita, dal lavoro alla quotidianità, dalle decisioni sanitarie alla giustizia. Questa tecnologia d'avanguardia, che è parte già da tempo della nostra quotidianità, è progettata da persone e porta con sé anche delle criticità, tra cui i pregiudizi di genere. Quando parliamo di bias di genere dell’intelligenza artificiale, ci riferiamo a discriminazioni e stereotipi che vengono inconsapevolmente incorporati negli algoritmi, influenzando così le decisioni e la rappresentazione delle donne in vari contesti. Quali effetti hanno sulla percezione delle donne, anche in ambito lavorativo, e come possiamo contribuire a un uso più equo di queste tecnologie? Approfondiamolo insieme.
La tecnologia descrive la realtà
Big data. Grandi algoritmi ci restituiscono grandi verità che sembrano raccontare la realtà. Niente di nuovo: è la storia degli esseri umani che si ripete, da circa 200 generazioni o poco più. In particolare, da quando una nuova tecnologia è entrata nelle nostre vite: la scrittura.
Da allora abbiamo raccolto pensieri, idee e abbiamo rappresentato la realtà. Per esempio, una delle rappresentazioni arrivate fini qui è che l’uomo si è distinto per le sue abilità di caccia, mentre le donne per quelle di cooperazione e cura. Così nella nostra mente ci facciamo un’idea ben precisa di ciò che è maschile e ciò che è femminile, o a quali attività siano più adatti gli uomini o le donne. Non c’è malizia o cattiveria, lo abbiamo fatto per millenni senza neanche pensarci su. Non ci pensiamo e basta, ma questo non pensare crea dei vuoti o, meglio, delle mezze verità che poi si riflettono nella tecnologia.
Cos'è il bias di genere nell'intelligenza artificiale
A una domanda sui “tratti caratteristici della personalità dei ragazzi”, ChatGPT dice di non generalizzare, ma elenca come tratti comuni: “forza fisica, indipendenza, assertività, interesse per i campi tecnici, essere attivi e avventurosi e avere moderazione emotiva”. Per le donne, Chatgpt parla di “empatia, capacità comunicative, sociali, espressione emotiva, attività creative, resilienza e adattabilità”.
Questo è solo un esempio che però spiega bene cos’è un bias di genere nell'intelligenza artificiale. È il fenomeno per cui i sistemi di IA restituiscono rappresentazioni cariche di stereotipi e pregiudizi, che potenzialmente possono essere diffuse in tutto il mondo. Succede perché gli algoritmi imparano dai dati con cui vengono addestrati, e se questi dati riflettono pregiudizi di genere, l'intelligenza artificiale li assorbe e li riproduce nelle sue risposte.
Pensiamo anche alle assistenti vocali, come Siri, Alexa e Google Assistant, che vengono solitamente associate a nomi e voci femminili. Questo rinforza implicitamente l'idea che le donne siano più adatte a ruoli di assistenza e supporto. Studi hanno dimostrato che, quando si scelgono nomi e voci femminili per assistenti digitali, si contribuisce a rafforzare stereotipi di genere che vedono le donne in ruoli subalterni. Inoltre, quando questi assistenti vocali rispondono in modo paziente e servizievole anche a commenti sessisti, si diffonde anche un messaggio di tolleranza verso atteggiamenti inappropriati.
Il caso Google Translate
Nel 2018, Google si è trovata al centro di una crisi legata a Google Translate, uno dei suoi servizi più utilizzati. Uno studio pubblicato l’anno successivo, intitolato "Assessing Gender Bias in Machine Translation – A Case Study with Google Translate" (Prates, Avelar, & Lamb, 2019), ha rivelato che il traduttore, partendo da frasi in lingue prive di genere grammaticale come l'ungherese, tendeva ad assegnare un genere specifico ai soggetti in base alla professione. Ad esempio, professioni legate alla cura venivano automaticamente associate al genere femminile, mentre quelle del mondo STEM venivano attribuite a uomini. Di conseguenza, secondo Google Translate, "lei" cucina e pulisce, mentre "lui" lavora fa l’ingegnere e guadagna.
Questo pregiudizio deriva dal funzionamento stesso dell'algoritmo di Google Translate, che si basa sull'apprendimento automatico (machine learning) e sull'analisi statistica di milioni di documenti tradotti da persone e immessi sul web. L'algoritmo identifica schemi nei dati per generare traduzioni, riflettendo i pregiudizi culturali presenti nei testi di origine. Così, se la professione di "ingegnere" è spesso collegata a uomini nei testi analizzati, l'algoritmo la tradurrà come una professione maschile; allo stesso modo, "infermiere" sarà più facilmente associato a un soggetto femminile. Google Translate, quindi, non solo riflette gli stereotipi della nostra cultura, ma li diffonde attraverso il sistema di traduzione automatica.
Discriminazione aumentata, anche sul lavoro
Uno degli ambiti in cui i bias di genere nell'IA hanno un impatto importante è, senz’altro, quello delle opportunità lavorative. Gli algoritmi di selezione del personale utilizzati da molte aziende per velocizzare i processi di assunzione sono spesso influenzati da pregiudizi di genere. Ad esempio, un algoritmo sviluppato da Amazon nel 2014 per selezionare i candidati ha dimostrato di preferire i candidati uomini rispetto alle donne, perché era stato addestrato su dati che riflettevano un ambiente di lavoro a predominanza maschile. Questo ha portato l'algoritmo a valorizzare maggiormente i candidati maschi per determinati ruoli, scoraggiando implicitamente le donne a candidarsi o a essere considerate per posizioni di rilievo.
Tali pregiudizi non solo limitano le opportunità lavorative delle donne ma contribuiscono a perpetuare la disparità di genere nei settori della tecnologia e della scienza. Per esempio, non è vero che le donne non sono portate per le materie scientifiche, eppure la rappresentanza femminile nelle discipline STEM è ancora minima. È essenziale quindi che le aziende e chi sviluppa i sistemi di intelligenza artificiale riconosca e affronti questi errori cognitivi, usando dati diversificati e applicando tecniche di mitigazione delle discriminazioni per progettare algoritmi inclusivi.
Includere le donne nella progettazione
Gli stereotipi di genere nell'IA non influenzano solo le donne, ma hanno un impatto sociale più ampio. Se i sistemi di IA continuano a promuovere rappresentazioni limitate e stereotipate, si rischia di rafforzare le barriere culturali e strutturali che ostacolano la parità di genere. Quando, ad esempio, i software di riconoscimento facciale riconoscono più facilmente i volti maschili rispetto a quelli femminili, si evidenzia un problema di disuguaglianza che si riflette nell’intero sistema.
Questi bias minano la fiducia dei cittadini nei confronti delle tecnologie e rischiano di escludere interi gruppi dalla partecipazione attiva alla società digitale. In una società sempre più basata su decisioni automatizzate, è fondamentale che i sistemi di IA siano progettati in modo equo e rappresentino accuratamente la diversità umana. Il primo passo per farlo è includere molte più donne nello sviluppo delle tecnologie di intelligenza artificiale.
Cosa possiamo fare?
L’ intelligenza artificiale promette di ridurre l'errore umano, automatizzare i processi ripetitivi, gestire grandi quantità di dati e facilitare il processo decisionale. Mira a diventare, insomma, l’assistente digitale utile ovunque e in qualsiasi momento. Tuttavia, come anticipato, la digitalizzazione, la datafication e l'AI-ification irrompono portandosi con sé diversi problemi che richiedono azioni concrete e coordinate.
Educazione e consapevolezza
Ormai chiunque usa l’intelligenza artificiale per ottimizzare il proprio lavoro. Ecco perché sensibilizzare sul tema dell’intelligenza artificiale e dei bias è fondamentale per rendere le persone consapevoli dei limiti di questa tecnologia. Alcuni libri illuminanti per iniziare ad approfondire questo tema sono:
- "Weapons of Math Destruction" di Cathy O'Neil, che esplora come gli algoritmi possano rinforzare le disuguaglianze sociali.
- "Invisible Women" di Caroline Criado Perez, che analizza come il design dei prodotti e le politiche, basate su dati maschili, svantaggino le donne.
Creazione di dataset diversificati
Per ridurre i pregiudizi è fondamentale creare dataset inclusivi e diversificati che rappresentino sia uomini sia donne di ogni etnia e cultura. Come? Chiunque può farlo. Ogni giorno immettiamo in rete una miriade di contenuti, possiamo iniziare a fare attenzione a pubblicare contenuti etici che contribuiscano, come un sasso nello stagno, al riequilibrio delle rappresentazioni. Inoltre, le aziende possono collaborare con organizzazioni specializzate in diversità e inclusione per selezionare e verificare i dati affinché siano il più possibile rispettosi.
Coinvolgimento delle donne nello sviluppo dell'IA
Un altro passo fondamentale è aumentare la presenza femminile nel settore tecnologico e in particolare nello sviluppo dell'IA. Maggiore diversità nei team di sviluppo significa una maggiore attenzione a potenziali bias. Esistono numerose iniziative che mirano a supportare le donne nella tecnologia, come SheTech, che offrono risorse e formazione per avvicinare le donne a queste professioni.
Verso l’inclusione
Negli ultimi anni, alcune iniziative e best case hanno mostrato come l’intelligenza artificiale possa diventare uno strumento più inclusivo grazie al contributo delle donne. Ad esempio, IBM ha lanciato il programma "AI for Social Impact" con team diversificati per sviluppare soluzioni etiche e ridurre i bias nei modelli di AI. Analogamente, Microsoft ha investito in percorsi di mentoring e formazione rivolti alle donne nel settore tech, facilitando il loro accesso a ruoli chiave nella progettazione e nell’implementazione di sistemi di intelligenza artificiale.
Inoltre, l’AI offre opportunità molto in linea con le competenze su cui le donne sono di solito molto ferrate come il pensiero analitico, la comunicazione e alla gestione delle relazioni. Eccone alcune:
- Data Scientist e analista dei dati: ruoli fondamentali per identificare e correggere bias nei dataset;
- Ethics officer (responsabile etico-sociale) nell’AI: una figura emergente che si occupa di garantire che i modelli rispettino i principi di equità e inclusività;
- UX Designer specializzata in AI: dove l'empatia e la comprensione dell’esperienza utente sono cruciali per progettare interazioni che evitino stereotipi di genere;
- Responsabili della governance AI: esperte che definiscono policy aziendali per un utilizzo etico dell’intelligenza artificiale.
Inoltre, progetti come quelli promossi da Women in AI, una community globale, e adesso anche italiana, che supporta la leadership femminile nel settore, dimostrano come una maggiore presenza di donne possa arricchire l’approccio etico e creativo nella tecnologia.
Con sempre più donne che entrano in questi ruoli e guidano team diversificati, l’intelligenza artificiale può davvero trasformarsi in uno strumento capace di rispecchiare e rispettare l’intera società.
Tutta un’altra storia
L'intelligenza artificiale offre opportunità straordinarie, anche se il suo sviluppo deve essere accompagnato da un impegno costante per evitare di amplificare gli stereotipi di genere e le disuguaglianze esistenti. Attraverso un uso consapevole dei dati, la promozione della diversità e la trasparenza negli algoritmi, possiamo costruire un futuro in cui la tecnologia rispetti e valorizzi ogni individuo, indipendentemente dal genere. Le donne hanno un ruolo fondamentale e attivo in questo processo e, con risorse adeguate e iniziative concrete, è possibile abbattere i muri dei pregiudizi di genere e non solo. Non si cambia dall’oggi al domani, è vero, ma è altrettanto vero che il futuro non è scritto. Possiamo, e dobbiamo, raccontare nuove storie per scrivere tutta un’altra storia e cambiare quella con la S maiuscola.