Effetto cross-race: quando la tecnologia è discriminatoria

effetto cross-race

Chi non ha mai affermato o sentito dire da una persona di origine caucasica, in maniera più o meno ironica, che «i cinesi sono tutti uguali»? Spesso ci sentiamo rispondere che, probabilmente, anche loro vedano i caucasici tutti uguali. Questo fenomeno ha effettivamente un nome: effetto cross-race,  noto anche come other-race effect.

L’effetto cross-race può essere definito come la tendenza, in generale, ad avere difficoltà nel riconoscere volti che ci sono poco familiari.

Risulta abbastanza semplice comprendere il motivo per cui questa tendenza si manifesti in particolar modo nel momento in cui si tratta di distinguere tra loro volti appartenenti ad un’etnia diversa dalla nostra: i volti appartenenti a persone di un’altra etnia ci risultano ancora meno familiari, poiché tendiamo a percepirli in maniera più categorica, cogliendo le caratteristiche più comuni tra loro che caratterizzano quella specifica etnia e soffermandoci solo su di esse.

Essendo l’effetto cross-race considerabile come un difetto di memoria che si riconduce alla familiarità, viene da pensare che questo sia un meccanismo psicologico tutto sommato innocuo, poiché nel momento in cui si entra spesso in contatto con una determinata persona risulta facile riconoscerla, anche se appartiene ad una diversa etnia. Effettivamente, per fare qualche esempio, ad un caucasico risulterà comunque facile distinguere tra loro attori di colore famosi, nonostante non appartengono alla propria stessa etnia, poiché ciascuno di essi ha assunto ai suoi occhi una certa identità, vedendolo spesso sullo schermo. Così come un appassionato di K-pop sarà in grado di riconoscere tra loro i componenti dei gruppi musicali che ascolta, a dispetto di chi sostiene che gli asiatici siano tra loro indistinguibili.

Considerando ciò, l’effetto cross-race può considerarsi davvero un problema?
La risposta, purtroppo, è , soprattutto nel momento in cui riconoscere il volto di qualcuno è determinante per prendere decisioni in alcuni ambiti, ad esempio, quello penale. Basti pensare che negli USA, l’iniziativa Innocence Project, che si occupa di scagionare le persone erroneamente condannate, ha riscontrato come motivazione di gran parte degli errori giudiziari un errore nel riconoscimento visivo, che si verifica soprattutto quando il testimone è di etnia diversa rispetto al condannato. E la situazione diventa ancora più problematica nel momento in cui si considera che, sotto questo punto di vista, la tecnologia sembra agire in maniera impressionantemente simile alla mente umana.

Del resto, l’effetto cross-race non sembra essere l’unico pregiudizio razziale a cui è soggetta la tecnologia. Il rapporto tra software e razzismo, in particolar modo all’interno degli algoritmi, è stato messo in luce da una docente dell’UCLA, Safiya Umoja Noble. Nel libro Algorithms of Oppression: How Search Engines Reinforce Racism, la docente mostra il rapporto che sussiste tra pregiudizi discriminatori e algoritmi dei motori di ricerca, smontando così l’idea che questi siano una fonte di informazione oggettiva e imparziale.

L’autrice racconta come, ad esempio, «In 2015, U.S. News and World Report reported that a glitch in Google’s algorithm led to a number of problems through autotagging and facial-recognition software […]. The first problem for Google was that its photo application had automatically tagged African Americans as apes and animals.». Questa associazione deriva indubbiamente da luoghi comuni e pregiudizi di tipo razzista perpetuate dagli esseri umani.

Veniamo, quindi, ai software di riconoscimento facciale, che sembrano funzionare in maniera fortemente influenzata dall’effetto cross-race. Questi software presentano spesso, infatti, problemi nel riconoscimento dei volti delle persone di colore, in particolar modo le donne: Joy Buolamwini, informatica attivista digitale di origine ghanese, durante la sua ricerca presso il Media Lab del MIT, ha constatato questa difficoltà sottoponendo 1000 volti a diversi sistemi di riconoscimento facciale. La maggior parte dei software si è rivelata non in grado di distinguere i volti femminili da quelli maschili nei soggetti dalla pelle scura, e alcuni di questi sistemi non erano addirittura in grado di riconoscere il viso di Buolamwini come volto.

Questo margine di errore presente nei sistemi di riconoscimento facciale assume risvolti socialmente drammatici in particolar modo in America, dove, in diversi stati, software del genere sono utilizzati per l’identificazione di potenziali criminali, attraverso il confronto dei volti di alcuni soggetti con lo schedario di volti di pregiudicati: il fatto che spesso il software associa il volto di qualsiasi persona di colore al volto di un qualsiasi pregiudicato di colore pare rafforzare il razzismo da parte della polizia americana, alimentando ciò che negli USA rappresenta già di per sé una delle maggiori problematiche sociali.

Ironicamente, se consideriamo che il deep learning (ovvero, il più sofisticato e attuale metodo di apprendimento delle macchine) punti al raggiungimento delle prestazioni visive dell’uomo, sembra che le discriminazioni prodotte dai software di riconoscimento facciale non siano il frutto di un malfunzionamento dei macchinari, bensì del loro funzionare troppo bene.

Ma, chiaramente, le reazioni a questo genere di tecnologie e ai risultati da esse prodotti non mancano: la sopracitata Joy Buolamwini, ad esempio, ha fondato il programma Algorithmic Justice League, allo scopo di denunciare i pregiudizi nei codici degli algoritmi di IA e valutare la portata del danno da essi prodotto.
Inoltre, in seguito all’omicidio di George Floyd, avvenuto nel maggio 2020, alcuni dei “giganti” dell’IA sembrano essersi resi conto di produrre qualcosa di potenzialmente pericoloso per il genere umano: IBM, Amazon e Microsoft hanno rinunciato a fornire alla polizia i propri software per il riconoscimento facciale

Fonte immagine in evidenza: geralt su Pixabay

A proposito di Paola Cannatà

Studentessa magistrale presso l'Università degli studi di Napoli "L'Orientale". Le mie più grandi passioni sono i peluche e i film d'animazione Disney, ma adoro anche cinema, serie TV e anime (soprattutto di genere sci-fi), i videogiochi e il buon cibo.

Vedi tutti gli articoli di Paola Cannatà

Commenta