L’intelligenza artificiale non è immune agli stereotipi di genere che permeano il mondo reale. Molti sistemi di IA vengono addestrati su grandi quantità di dati storici, che possono involontariamente assorbire e perpetuare pregiudizi esistenti. Ad esempio, può capitare che il riconoscimento vocale sia più efficiente nel rispondere a voci maschili, perché è stato “allenato” con quel genere di voci. Nei sistemi di generazione artificiale di immagini succede che vengano generate immagini di uomini tutti molto simili fra loro.
Uno studio del MIT Media Lab a Boston ha dimostrato che alcuni algoritmi di riconoscimento facciale hanno tassi di errore significativamente più alti nell’individuare volti femminili con pelle scura rispetto a volti maschili con pelle chiara. Questa distorsione deriva dal fatto che i dati di addestramento utilizzati per sviluppare questi algoritmi spesso non sono rappresentativi della diversità della popolazione globale. Se i dataset contengono una predominanza di immagini di persone bianche, l’algoritmo finirà per essere meno accurato nel riconoscere volti che non rientrano in questa categoria. Per contrastare questo fenomeno, è essenziale che i progettisti di IA adottino un approccio consapevole e inclusivo, monitorando e correggendo i bias nei loro modelli e nei database di addestramento.
Adam Masina opens up about his connection with Torino, the challenges of his career, and his love for philosophy. From… Leggi altro
MALAGA (SPAGNA) (ITALPRESS) - Un doppio inedito trascina l'Italia in semifinale a Malaga. Una coppia strepitosa, quella formata da Matteo… Leggi altro
Anna è una donna di 65 anni, sola e con diverse patologie. Dal 1993 vive in un appartamento in pieno… Leggi altro