Red Teaming as a Supervisory Tool: Stress-Testing AI Systems
Impossible d'ajouter des articles
Désolé, nous ne sommes pas en mesure d'ajouter l'article car votre panier est déjà plein.
Veuillez réessayer plus tard
Veuillez réessayer plus tard
Échec de l’élimination de la liste d'envies.
Veuillez réessayer plus tard
Impossible de suivre le podcast
Impossible de ne plus suivre le podcast
-
Lu par :
-
De :
À propos de ce contenu audio
Red teaming is rapidly becoming a critical component of AI oversight. In this episode, Rumman Chowdhury explains how structured adversarial testing can uncover system vulnerabilities, model failures, and misuse pathways.
The discussion focuses on practical red-teaming approaches that supervisory authorities can adopt, even with limited resources.
Speaker: Rumman Chowdhury (Human Intelligence)
Interviewer: Mirela Kmetic-Marceau, Project Consultant, Ethics of AI Unit, UNESCO
Hosted on Ausha. See ausha.co/privacy-policy for more information.
Aucun commentaire pour le moment