L’intelligenza artificiale non è immune agli stereotipi di genere che permeano il mondo reale. Molti sistemi di IA vengono addestrati su grandi quantità di dati storici, che possono involontariamente assorbire e perpetuare pregiudizi esistenti. Ad esempio, può capitare che il riconoscimento vocale sia più efficiente nel rispondere a voci maschili, perché è stato “allenato” con quel genere di voci. Nei sistemi di generazione artificiale di immagini succede che vengano generate immagini di uomini tutti molto simili fra loro.
Uno studio del MIT Media Lab a Boston ha dimostrato che alcuni algoritmi di riconoscimento facciale hanno tassi di errore significativamente più alti nell’individuare volti femminili con pelle scura rispetto a volti maschili con pelle chiara. Questa distorsione deriva dal fatto che i dati di addestramento utilizzati per sviluppare questi algoritmi spesso non sono rappresentativi della diversità della popolazione globale. Se i dataset contengono una predominanza di immagini di persone bianche, l’algoritmo finirà per essere meno accurato nel riconoscere volti che non rientrano in questa categoria. Per contrastare questo fenomeno, è essenziale che i progettisti di IA adottino un approccio consapevole e inclusivo, monitorando e correggendo i bias nei loro modelli e nei database di addestramento.
La giornalista di Canale 5 racconta la terribile storia di Martina. Un appello sconvolgente che scuote le coscienze. Iscriviti al… Leggi altro
Carlo Voce, padre di Martina, racconta a Fanpage.it l'aggressione subita a Oslo dalla figlia, gravemente ferita nel negozio in cui… Leggi altro
BERGAMO (ITALPRESS) - Undici vittorie di fila e Natale in testa alla classifica della Serie A per l'Atalanta, che ha… Leggi altro
12.336 hanno perso il posto di lavoro Leggi altro
L'informazione della testata giornalistica di LA7 diretta da Enrico Mentana Leggi altro
Guillermo Mariotto assente ancora a Ballando con le Stelle: la spiegazione ufficiale non convince, e il pubblico sospetta altro. Ecco… Leggi altro