AI Etica

EAI: Definizione Scientifica

Due mani sotto un dispenser automatico
I bias nei sistemi di intelligenza artificiale nascono da pregiudizi insiti nei dati e nei processi di sviluppo. Questi errori possono riflettere e amplificare disuguaglianze sociali, rendendo essenziale comprendere le loro origini e adottare soluzioni per mitigarli.

Origini del Bias

I bias nell'Intelligenza Artificiale nascono principalmente durante la fase di raccolta e preparazione dei dati, riflettendo pregiudizi culturali e sociali esistenti che poi si propagano nei modelli di Machine Learning

Raccolta dei Dati

I dati sono spesso raccolti in base a categorie culturali e prototipi mentali che non rappresentano l'intera popolazione.

Esempio: dataset fotografici che sovrarappresentano etnie specifiche rispetto ad altre.

Annotazione dei Dati

Gli annotatori, influenzati dal loro contesto culturale, introducono pregiudizi impliciti.

Esempio: Open Images Dataset, criticato per la scarsa rappresentatività geografica e culturale.

Riflessione nei Modelli

Questi bias si trasferiscono nei modelli, generando risultati distorti che possono perpetuare o amplificare disuguaglianze sociali esistenti.

Bias di Genere

Sistemi di traduzione automatica che introducono stereotipi di genere traducendo lingue neutre.

Esempi applicativi:

• "doctor" diventa "dottore"

• "nurse" diventa "infermiera".

Bias Etnici

Il sistema COMPAS utilizzato per la giustizia predittiva negli USA, accusato di sovrastimare la recidiva per i detenuti di colore rispetto ai bianchi.

Selezione del Personale

Il modello di Amazon per il recruiting penalizzava sistematicamente le donne a causa della predominanza storica di candidati maschi nei dati di riferimento.

Diagnosi Medica

Modelli diagnostici che falliscono nel riconoscere melanomi su pelle scura, poiché allenati su immagini prevalentemente di pelle chiara.

Soluzioni Possibili

Esistono diverse strategie e approcci per mitigare i bias nell'intelligenza artificiale e creare sistemi più equi e rappresentativi.

Data Augmentation

Aggiunta di dati sintetici per bilanciare la rappresentatività e colmare le lacune nei dataset esistenti.

Annotazione Consapevole

Training specifico per ridurre i bias degli annotatori e aumentare la consapevolezza culturale.

Fairness e Accountability

Applicazione di framework come FAT (Fairness, Accountability, Transparency) per garantire equità e trasparenza nei modelli.

Valutazione e Monitoraggio:

Utilizzo di strumenti come l'AI Act Compliance Checker per identificare e mitigare i bias in modo continuo.