PORTALE DELLA DIDATTICA

Ricerca CERCA
  KEYWORD

Applicazione di tecniche di Explainable Artificial Intelligence per valutare l'eticità di sistemi di raccomandazione di contenuti musicali

Parole chiave EXPLAINABLE AI, RECOMMENDER SYSTEMS

Riferimenti CRISTINA EMMA MARGHERITA ROTTONDI, VERA TRIPODI

Gruppi di ricerca Telecommunication Networks Group

Descrizione La progettazione e il funzionamento dei Sistemi di Raccomandazione Musicale (MRS) sollevano diverse preoccupazioni etiche, poiché essi sono destinati a offrire contenuti musicali basati sul comportamento e le preferenze degli utenti. Una di queste è la creazione di "camere d’eco", dove agli utenti viene continuamente presentata musica che rafforza i loro gusti esistenti, il che potrebbe potenzialmente limitare l’esposizione a nuove idee e culture diverse. Possono anche verificarsi bias etici intrinseci, dove gli algoritmi potrebbero favorire certi artisti o generi, influenzando così l’industria musicale e il successo degli artisti. In particolare, possono emergere problemi riguardanti la “parità di genere”, ovvero discrepanze nelle prestazioni degli algoritmi tra gruppi di utenti maschili e femminili; e la “parità di gruppo”, cioè potenziali bias culturali dove gli algoritmi di raccomandazione possono discriminare sistematicamente e ingiustamente contro certi individui o gruppi. Infine, si pone la necessità di trasparenza: gli utenti tipicamente hanno poca comprensione di come vengono generate le raccomandazioni e quali modelli sottostanti rappresentano, il che può influenzare la fiducia nel servizio.

I sistemi di raccomandazione affidabili sono un focus delle politiche europee e del dibattito globale sulla regolamentazione della tecnologia AI: le prospettive etiche, legali e regolatorie sono sempre più intrecciate con le considerazioni tecniche su come affrontare queste sfide, poiché l’adesione ai vincoli regolatori comporta significative implicazioni pratiche per la progettazione e il funzionamento di tali sistemi.

Per affrontare le questioni etiche, è stata recentemente prevista l’adozione di metodi di Explainable AI (XAI) per investigare il comportamento degli MRS. I framework di XAI permettono agli utenti di comprendere meglio i risultati prodotti dagli algoritmi di machine learning esponendo il ragionamento interno dei modelli, che tipicamente operano come “scatole nere”, garantendo così una migliore comprensione e permettendo un monitoraggio e una gestione efficaci. Pertanto, l’XAI è considerato un elemento cruciale per garantire un’adozione etica e equa dei modelli di ML. Motivato dalle considerazioni sopra riportate, questo progetto mira alla realizzazione di un framework proof-of-concept per la valutazione dell’equità etica degli MRS, basato su algoritmi XAI.

Il framework sfrutterà MRS open-source e dataset pubblicamente disponibili per il loro addestramento e test e incorporerà meccanismi di XAI per consentire la valutazione etica dei meccanismi di raccomandazione. L’analisi dei risultati ottenuti porterà alla definizione di linee guida per la realizzazione di MRS “etici per design”. Più precisamente, da una prospettiva etica, questa analisi si inserirà e adotterà il cosiddetto Value Sensitive Design (VSD), ovvero l’approccio teorico alla progettazione tecnologica che mira a sintetizzare metodi e applicazioni in un processo di progettazione che coinvolge valori etici in ogni fase. Nella discussione sull’etica della tecnologia, il VSD si è rivelato un approccio benefico non solo per minimizzare i problemi discriminatori nella progettazione e rilevare o contrastare i bias nei sistemi software, ma anche per affrontare la loro origine cognitiva e sociale. Nell’etica informatica, in particolare, il VSD è stato sviluppato esplicitamente con l’obiettivo di affrontare gli aspetti etici della progettazione e di esaminare i modi in cui i valori etici (come equità, equità nel machine learning, inclusività, responsabilità e trasparenza) possono essere incorporati nella progettazione.

Conoscenze richieste python programming; basics knowledge on machine learning algorithms;


Scadenza validita proposta 09/10/2025      PROPONI LA TUA CANDIDATURA