KEYWORD |
Scalabilità nei Modelli di Machine Learning e Deep Learning: Un'Analisi Approfondita attraverso Architetture Distribuite
Riferimenti SILVIA ANNA CHIUSANO, LUCA STERPONE
Gruppi di ricerca DAUIN - GR-04 - DATABASE AND DATA MINING GROUP - DBDMG
Descrizione La presente proposta di tesi si propone di esplorare il fondamentale concetto di scalabilità nel contesto di Machine Learning e Deep Learning. L'attenzione sarà focalizzata sull'analisi e ottimizzazione di architetture di calcolo distribuite riprogrammabili e ad alto parallelismo come FPGA e GPU, mirate a gestire ingenti volumi di dati e il relativo sforzo computazionale. Questa ricerca è infatti motivata dalla crescente necessità di sviluppare sistemi di apprendimento automatico in grado di adattarsi dinamicamente all’aumentare della complessità dei dati e dei modelli. Il candidato dovrà dunque esplorare e valutare come le prestazioni possano essere influenzate dalla specifica topologia dei nodi hardware all’interno dell’architettura distribuita, identificando le configurazioni più adatte, migliorando le performance e parallelizzando l’addestramento dei modelli.
Scadenza validita proposta 01/12/2024
PROPONI LA TUA CANDIDATURA