L’intelligenza artificiale non è immune agli stereotipi di genere che permeano il mondo reale. Molti sistemi di IA vengono addestrati su grandi quantità di dati storici, che possono involontariamente assorbire e perpetuare pregiudizi esistenti. Ad esempio, può capitare che il riconoscimento vocale sia più efficiente nel rispondere a voci maschili, perché è stato “allenato” con quel genere di voci. Nei sistemi di generazione artificiale di immagini succede che vengano generate immagini di uomini tutti molto simili fra loro.
Uno studio del MIT Media Lab a Boston ha dimostrato che alcuni algoritmi di riconoscimento facciale hanno tassi di errore significativamente più alti nell’individuare volti femminili con pelle scura rispetto a volti maschili con pelle chiara. Questa distorsione deriva dal fatto che i dati di addestramento utilizzati per sviluppare questi algoritmi spesso non sono rappresentativi della diversità della popolazione globale. Se i dataset contengono una predominanza di immagini di persone bianche, l’algoritmo finirà per essere meno accurato nel riconoscere volti che non rientrano in questa categoria. Per contrastare questo fenomeno, è essenziale che i progettisti di IA adottino un approccio consapevole e inclusivo, monitorando e correggendo i bias nei loro modelli e nei database di addestramento.
"So che avete sentimenti contrastanti. Ma dobbiamo accettare il risultato del voto". Lo ha detto Kamala Harris ribadendo di essere… Leggi altro
MILANO (ITALPRESS) - Estremamente sofferta, ma per questo ancor più bella oltre che importante. Nella quarta giornata di Champions League,… Leggi altro
WASHINGTON (ITALPRESS) - "Accetto i risultati delle elezioni, ma non la fine della lotta per la nostra libertà". Lo ha… Leggi altro
STOCCARDA (GERMANIA) (ITALPRESS) - L'Atalanta fa la voce grossa e vince la seconda gara in Champions League: a Stoccarda finisce… Leggi altro