Le opinioni di una macchina
COMPUTING SCIENCES |

Le opinioni di una macchina

L'ALGORITHMIC BIAS PUO' SPINGERE I SISTEMI DI MACHINE LEARNING A DISCRIMINARE CONTRO LE MINORANZE. LA QUESTIONE VA AFFRONTATA SUBITO, DICE LUCA TREVISAN NEL SESTO EPISODIO DEL PODCAST THINK DIVERSE

Siamo diffidenti nei confronti delle intelligenze artificiali per le ragioni sbagliate. La possibilità che una di loro prenda il controllo del mondo, come in un film di Hollywood, è piccolissima, ma possono comunque danneggiare ampie fette del genere umano (ad esempio le donne) o alcune minoranze (per etnia, preferenze sessuali o altro) attraverso il cosiddetto algorithmic bias.
 
In The Opinionated Machine, sesto episodio del podcast THINK DIVERSE, Luca Trevisan, professore ordinario di Informatica alla Bocconi, chiarisce come il Machine Learning (un tipo di Intelligenza Artificiale) possa perpetuare i bias della società o rivelarsi tanto inefficace nel trattare le minoranze da finire per discriminarle a tutti gli effetti.
 

 
“L'uso dei sistemi di Machine Learning può sembrare per ora limitato,” avverte Trevisan, “ma il loro tasso di adozione sta aumentando a un ritmo esponenziale, e dobbiamo affrontare la questione al più presto. A tal fine, abbiamo bisogno di uno sforzo multidisciplinare che includa informatici, matematici, politologi, avvocati e altri scienziati.”
 
Quando vogliamo che un sistema di Machine Learning prenda delle decisioni, li alleniamo attarverso una serie di dati (decisioni prese in passato) e lasciamo che si calibri (cioè capisca quali sono le variabili rilevanti) fino a quando non prende all’incirca le stesse decisioni.
 
Se le decisioni passate sono distorte, dice Trevisan alla conduttrice Catherine De Vries, tale distorsione si perpetua. Può essere il caso di giudici che discriminano contro le persone di colore nelle decisioni per la cauzione, o di datori di lavoro che discriminano le donne quando selezionano i curriculum.
 
Le minoranze possono essere danneggiate anche in modi più sottili. Se sono sottorappresentate nel set di dati usati per il training, per esempio, un sistema di riconoscimento facciale può essere inefficace con loro. Ma anche quando sono adeguatamente rappresentati, la soluzione di calibrazione ottimale per un sistema può essere quella di risultare molto accurata con la maggioranza e molto meno accurata, o completamente inaccurata, con la piccola minoranza. “Questo tipo di bias è più difficile da rilevare e da correggere,” dice Trevisan.
 
Ascolta l’episodio e segui la serie su:
 
Spotify
Apple Podcasts
Spreaker
Google Podcasts
 

di Fabio Todesco
Bocconi Knowledge newsletter

News

  • Le novita' del regolamento HTA a livello europeo

    L'Health Technology Assessment diventa centralizzato ed armonizzato in tutti i 27 paesi membri dell'Unione europea  

  • Utopia e utopie tra scienza, filosofia e letteratura

    La sesta edizione di ScienzaNuova affronta le varie interpretazioni di un tema sempre attuale  

Seminari

  Agosto 2022  
Lun Mar Mer Gio Ven Sab Dom
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        

Seminari

  • ELLIS@Milan Artificial Intelligence workshop

    GABOR LUGOSI - Department of Economics, Pompeu Fabra University
    RICARDO BAEZA-YATES - Khoury College of Computer Sciences Northeastern University
    NOAM NISAN - School of Computer Science and Engineering, Hebrew University of Jerusalem
    MICHAL VALKO - Institut national de recherche en sciences et technologies du numérique

    AS02 DEUTSCHE BANK - Roentgen building

  • tbd

    ANDREW KING - Questrom School of Business

    Meeting room 4E4SR03 (Roentgen) 4