Episode description
Cosa significa rendere un modello di machine learning interpretabile, comprensibile, corretto ed equo? Cosa si intende con Fairness AI e quali strumenti sono a disposizione su AWS per identificare e correggere i bias nei dati e nei modelli? In questo episodio intervisto Paolo Irrera dell'Amazon Machine Learning Solutions Lab per parlare di interpretabilità e correttezza dei sistemi basati su intelligenza artificiale e degli strumenti come Amazon SageMaker Clarify che permettono a sviluppatori e data scientist di addestrare e monitorare modelli corretti ed equi. Link: Amazon SageMaker Clarify. Link: Amazon Machine Learning Solutions Lab.