L’intelligenza artificiale razzista e sessista? L’esperimento dell’Università di Washington parla chiaro: sì, lo è.
In un mondo sempre più digitalizzato, l’intelligenza artificiale (IA) gioca un ruolo cruciale in numerosi settori, compreso il processo di selezione dei candidati per le posizioni lavorative. Tuttavia, uno studio recente condotto dall’Università di Washington solleva preoccupazioni significative riguardo ai potenziali pregiudizi razziali e di genere insiti nei sistemi IA utilizzati per esaminare i curriculum.
I ricercatori dell’Università di Washington hanno messo alla prova tre modelli linguistici di grandi dimensioni (LLM) open source, scoprendo che questi favorivano i curriculum con nomi tipicamente associati ai bianchi nell’85% dei casi e a quelli femminili nell’11% dei casi. In particolare, gli uomini neri sono stati i più penalizzati, con una preferenza verso altri candidati quasi nel 100% delle situazioni testate.
Questi risultati emergono da un esperimento che ha coinvolto 554 curriculum e 571 descrizioni di lavoro reali. I ricercatori hanno modificato i documenti sostituendo i nomi con altri generalmente associati a diverse razze e generi, coprendo una vasta gamma di professioni.
Il motivo alla base di questi pregiudizi sproporzionati è attribuito alla natura stessa dell’apprendimento delle macchine: “sei ciò che mangi”. In altre parole, se l’intelligenza artificiale viene addestrata su dati che riflettono le disuguaglianze presenti nella società, è probabile che riproduca o addirittura amplifichi tali pregiudizi nelle sue decisioni.
Kyra Wilson e Aylin Caliskan dell’Università di Washington sottolineano come sia cruciale affrontare questo problema per evitare che si perpetuino le disparità esistenti. Tuttavia, analizzare e correggere i modelli commercialmente utilizzati risulta complicato a causa della loro natura proprietaria e della mancanza di trasparenza sulle metodologie adottate dalle aziende.
L’esperimento ha evidenziato non solo pregiudizi basati su razza e genere ma anche quelli intersezionali derivanti dalla combinazione dei due fattori. Sorprendentemente, la tecnologia ha mostrato una preferenza per gli uomini bianchi anche in ruoli tradizionalmente dominati dalle donne come gli addetti alle risorse umane.
Queste scoperte aggiungono ulteriormente allarmismo riguardante l’utilizzo dell’intelligenza artificiale nei processi decisionali importanti. La sfida ora consiste nel trovare soluzioni efficaci per eliminare questi bias dai modelli IA senza comprometterne le prestazioni.
Rimuovere semplicemente i nomi dai curriculum non basta a risolvere il problema poiché l’intelligenza artificiale può inferire informazioni sull’identità del candidato da altri elementi come la storia educativa o le esperienze lavorative descritte. Secondo Wilson, è fondamentale che gli sviluppatori creino set di dati privi di pregiudizi fin dall’inizio del processo formativo delle macchine.
Nonostante le difficoltà incontrate nello studio dei modelli commercialmente disponibili a causa della loro opacità operativa, lo studio condotto dall’Università di Washington offre uno spunto critico sulla necessità urgente d’affrontare il problema dei bias nell’intelligenza artificiale. La ricerca mette in evidenza quanto sia vitale procedere verso lo sviluppo etico dell’IA per garantire equità nelle decisioni automatizzate future.