L’IA non ammette sessismo, ma potrebbe comportarsi in modo discriminatorio.

L’IA non ammette sessismo, ma potrebbe comportarsi in modo discriminatorio.

Secondo Allison Koenecke, assistente professore di scienze dell’informazione presso Cornell, anche se i LLM non utilizzano linguaggio esplicitamente discriminatorio, possono trasmettere bias impliciti. Un esempio è stato con un LLM che discriminava i parlanti di African American Vernacular English (AAVE), assegnando loro titoli di lavoro inferiori e riflettendo stereotipi negativi.

Fonti ufficiali, come il Journal of Medical Internet Research, segnalano che le versioni più vecchie di ChatGPT spesso riproducevano “numerosi bias di genere,” utilizzando un linguaggio più emotivo per i nomi femminili a fronte di un linguaggio di maggiore abilità per i nomi maschili.

Nonostante gli studi indichino che il bias esiste, ci sono sforzi per affrontarlo. OpenAI ha confermato di avere “team di sicurezza dedicati alla ricerca e alla riduzione dei bias” e sta lavorando per migliorare l’accuratezza e ridurre i risultati dannosi.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *