KEYWORD |
Sviluppo di strumenti per mitigare bias nei sistemi automatici di decisione
Parole chiave DATASET BIAS, ETICA DEI DATI, FAIR MACHINE LEARNING, INTELLIGENZA ARTIFICIALE, SISTEMI DI DECISIONE AUTOMATICA
Riferimenti MARCO TORCHIANO, ANTONIO VETRO'
Gruppi di ricerca Centro Nexa su Internet & Società, DAUIN - GR-16 - SOFTWARE ENGINEERING GROUP - SOFTENG, DAUIN - GR-22 - Nexa Center for Internet & Society - NEXA
Descrizione I sistemi decisionali automatizzati (ADM) possono influenzare molteplici aspetti della nostra vita. In particolare, possono risultare in una discriminazione sistematica di specifici gruppi di popolazione, in violazione della Carta dei diritti fondamentali dell'UE. Una delle cause potenziali del comportamento discriminatorio, cioè dell'ingiustizia, risiede nella qualità dei dati usati per addestrare tali sistemi ADM.
Utilizzando un approccio di misurazione della qualità dei dati combinato con la gestione del rischio, entrambi definiti negli standard ISO, il lavoro si concentra sull'identificazione di tecniche per misurare e mitigare rischio di iniquità e discriminazione dei sistemi ADM.
Conoscenze richieste Concetti base di analisi dei dati, programmazione in R o python
Scadenza validita proposta 09/03/2022
PROPONI LA TUA CANDIDATURA