PORTALE DELLA DIDATTICA

Ricerca CERCA
  KEYWORD

Sviluppo di strumenti per rilevare bias nei dataset

Parole chiave DATASET BIAS, ETICA DEI DATI, FAIR MACHINE LEARNING, INTELLIGENZA ARTIFICIALE, SISTEMI DI DECISIONE AUTOMATICA

Riferimenti JUAN CARLOS DE MARTIN, ANTONIO VETRO'

Gruppi di ricerca Centro Nexa su Internet & Società, DAUIN - GR-16 - SOFTWARE ENGINEERING GROUP - SOFTENG, DAUIN - GR-22 - Nexa Center for Internet & Society - NEXA

Descrizione I sistemi decisionali automatizzati (ADM) possono influenzare molteplici aspetti della nostra vita. In particolare, possono risultare in una discriminazione sistematica di specifici gruppi di popolazione, in violazione della Carta dei diritti fondamentali dell'UE. Una delle cause potenziali del comportamento discriminatorio, cioè dell'ingiustizia, risiede nella qualità dei dati usati per addestrare tali sistemi ADM.
Utilizzando un approccio di misurazione della qualità dei dati combinato con la gestione del rischio, entrambi definiti negli standard ISO, il lavoro si concentra sulla caratteristica di equilibrio per capire come l'equilibrio degli attributi protetti nei dati di training può essere utilizzato per valutare il rischio di iniquità e discriminazione dei sistemi ADM.

Conoscenze richieste Concetti base di analisi dei dati, programmazione in R o python


Scadenza validita proposta 09/03/2022      PROPONI LA TUA CANDIDATURA




© Politecnico di Torino
Corso Duca degli Abruzzi, 24 - 10129 Torino, ITALY
Contatti