PORTALE DELLA DIDATTICA

Ricerca CERCA
  KEYWORD

Scalabilità nei Modelli di Machine Learning e Deep Learning: Un'Analisi Approfondita attraverso Architetture Distribuite

Riferimenti SILVIA ANNA CHIUSANO, LUCA STERPONE

Gruppi di ricerca DAUIN - GR-04 - DATABASE AND DATA MINING GROUP - DBDMG

Descrizione La presente proposta di tesi si propone di esplorare il fondamentale concetto di scalabilità nel contesto di Machine Learning e Deep Learning. L'attenzione sarà focalizzata sull'analisi e ottimizzazione di architetture di calcolo distribuite riprogrammabili e ad alto parallelismo come FPGA e GPU, mirate a gestire ingenti volumi di dati e il relativo sforzo computazionale. Questa ricerca è infatti motivata dalla crescente necessità di sviluppare sistemi di apprendimento automatico in grado di adattarsi dinamicamente all’aumentare della complessità dei dati e dei modelli. Il candidato dovrà dunque esplorare e valutare come le prestazioni possano essere influenzate dalla specifica topologia dei nodi hardware all’interno dell’architettura distribuita, identificando le configurazioni più adatte, migliorando le performance e parallelizzando l’addestramento dei modelli.


Scadenza validita proposta 01/12/2024      PROPONI LA TUA CANDIDATURA




© Politecnico di Torino
Corso Duca degli Abruzzi, 24 - 10129 Torino, ITALY
Contatti