L'intelligenza artificiale (AI) è oggi una scienza in rapida evoluzione che prevede la creazione di macchine intelligenti in grado di fornire numerosi vantaggi economici e sociali. Per le sue numerose qualità, l'AI può fornire vantaggi competitivi alle aziende e, in generale, alla società. Tuttavia, l'uso diffuso di sistemi basati sull'AI ha sollevato diverse preoccupazioni circa il loro impiego in sistemi ad alto rischio, ossia sistemi il cui danneggiamento potrebbe causare perdite umane. In effetti, l'AI comporta nuove sfide e rischi e, nel peggiore dei casi, conseguenze negative per gli individui e la società, come definito dalla legge europea sull'AI.
In primo luogo, il corso introdurrà i concetti di base sull'affidabilità dei sistemi complessi, sul deep learning e fornirà una panoramica delle principali architetture hardware adottate per l'esecuzione degli algoritmi di AI, ovvero GPU, ASIC, TPU e acceleratori hardware. Verrà posto l'accento sul panorama della standardizzazione dell'AI: verranno illustrati alcuni dei principali standard industriali internazionali.
Successivamente, la prima parte del corso presenterà le metodologie accademiche e industriali più rappresentative proposte per valutare il livello di safety dei sistemi moderni. Il corso affronterà principalmente, ma non solo, gli approcci basati sull'iniezione di guasti a livello di software, architetturali e del dispositivo (ad esempio, tramite esperimenti di radiazione).
Gli studenti avranno la possibilità di eseguire esperimenti di iniezione di guasti in scenari industriali reali forniti dall'esperienza di NVIDIA. Ciò avverrà sfruttando i più diffusi strumenti di iniezione di guasti (ad esempio, PyTorchFI) con modelli di guasto rappresentativi (ad esempio, guasti permanenti e transitori sui pesi sinaptici delle reti neurali, neuroni artificiali).
La seconda parte del corso si concentrerà sulla descrizione degli approcci utilizzati per aumentare la safety dei sistemi di intelligenza artificiale. Verranno presentati approcci di mitigazione dei guasti (attivi e passivi) e di rilevamento dei guasti (ad esempio, librerie di test basate su codici o su immagini).
Per concludere, il corso discuterà le tendenze e le sfide future.
La parte finale del corso consisterà in un progetto di gruppo composto da un massimo di 3 studenti e prevederà la consegna di un report finale.
Artificial Intelligence (AI) is today a rapidly evolving science that envisions the creation of intelligent machines capable of delivering numerous economic and social benefits. For its several qualities, AI can provide competitive advantages to companies and, in general, to the society. However, the widespread use of AI-based systems has raised several concerns about their deployment in safety-critical systems, i.e., systems whose damage could result in human losses. Indeed, AI brings new challenges and risks and, in the worst case, negative consequences for individuals and the society, as defined by the EU AI Act.
First, the course will introduce background concepts about dependability of complex systems, deep learning, and will provide an overview of the main hardware architectures adopted to run AI algorithms, i.e., GPUs, ASICs, TPUs, HW accelerators. Emphasis will be placed on the AI standardization landscape: some of the main international industry standards will be outlined.
Next, the first part of the course will present the most representative academic and industrial methodologies proposed to assess the safety level of modern systems. The course will tackle mainly, but will be not limited to, fault injection (FI)-based approaches at the software level, architectural level, and physical level (e.g., radiation tests).
Students will have the possibility of performing FI experiments given real industrial scenarios provided by NVIDIA’s expertise. This will be done by exploiting popular FI tools for deep learning (e.g., PyTorchFI) with representative fault models (e.g., permanent, and transient faults on DNN synaptic weights, artificial neurons).
The second part of the course will focus on the description of the approaches used to increase the safety of AI systems. Fault mitigation (active and passive) and fault detection approaches (e.g., software test libraries, image test libraries) will be presented.
To conclude, the course will discuss future trends and challenges.
The final examination will consist of a project group (maximum 3 students) delivering a final report.
Una conoscenza minima dei seguenti campi può aiutare:
- Intelligenza artificiale e deep learning
- Architettura degli elaboratori
Minimum knowledge in the following fields may help to enjoy the course:
- Artificial Intelligence and deep learning
- Computer architecture
Introduzione
- L'utilizzo crescente di modelli di intelligenza artificiale (AI) nei sistemi ad alto rischio
- Necessità di garanzie di sicurezza: standards, norme, EU AI Act
Background
- Nozioni di base sulla dependability
- Nozioni di base sul deep learning
- Nozioni di base sull'hardware usato per l’AI
- Architetture di AI di nuova generazione
Parte I: Valutazione della safety dei sistemi di AI
- L'universo dell’AI safety: modelli di guasto, localizzazione dei guasti, metodi di iniezione dei guasti, metriche
- Soluzioni industriali e accademiche rappresentative per la valutazione della safety dei sistemi di AI
Parte II: Aumentare la safety dei sistemi di intelligenza artificiale
- Mitigazione dei guasti: strategie attive e passive
- Rilevamento dei guasti: soluzioni basate sul software, ad esempio librerie di test formate da codice (STL), librerie di test formate da immagini (ITL)
Conclusioni, nuove tendenze e sfide future.
Introduction
- The rising adoption of AI models in safety-critical systems
- Need for safety guarantees in AI: standards, EU AI Act
Background
- Dependability basics
- Deep Learning basics
- AI Hardware basics
- Next-generation AI architectures
Part I: Assessing the safety of AI systems
- AI safety universe: fault models, fault locations, fault injections methods, metrics
- Representative industrial and academic solutions for assessing the safety of AI systems
Part II: Increasing the safety of AI systems
- Fault mitigation: active and passive strategies
- Fault detection: software-based solutions, e.g., software test libraries (STLs), Image test libraries (ITLs)
Conclusions, future trends and challenges.
In presenza
On site
Presentazione orale - Presentazione report scritto