DiscoverIntervista PythonistaExplainable AI e InstructLab #59
Explainable AI e InstructLab #59

Explainable AI e InstructLab #59

Update: 2024-10-26
Share

Description

Conosciamo Daniele Zonca, Architect di Model Serving in Openshift AI. Se un modello di AI dà un output sbagliato, che strumenti ho per spiegare perché il modello ha dato quella risposta? Quali sono invece gli strumenti per un modello di ML tradizionale?


Approfondiamo poi il progetto open source InstructLab per il miglioramento collaborativo del fine-tuning di LLM.


Referenze della puntata:


https://github.com/instructlab
https://trustyai-explainability.github.io/
http://paperswelovemi.eventbrite.it/

Comments 
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

Explainable AI e InstructLab #59

Explainable AI e InstructLab #59

Python Milano