The Bias Beneath: Can AI Recruiters Ever Be Fair?
Impossible d'ajouter des articles
Désolé, nous ne sommes pas en mesure d'ajouter l'article car votre panier est déjà plein.
Veuillez réessayer plus tard
Veuillez réessayer plus tard
Échec de l’élimination de la liste d'envies.
Veuillez réessayer plus tard
Impossible de suivre le podcast
Impossible de ne plus suivre le podcast
-
Lu par :
-
De :
À propos de ce contenu audio
AI is revolutionizing hiring—but what happens when it quietly learns our biases?
In this episode, Alex Carter and Maya Lin unpack a compelling new study that reveals how Large Language Models like BERT and RoBERTa can inherit gender bias when scoring résumés—and what that means for fairness in automated hiring. From biased tokens to adversarial learning hacks, we explore the hidden risks and radical fixes in AI-based recruitment.
You’ll learn:
- How AI picks up gender signals even without explicit data
- What “allocational harm” is and why it matters
- Two cutting-edge methods to remove bias from LLMs
- Why removing bias actually improves accuracy
Whether you’re into cybersecurity, AI ethics, or just job-hunting in the digital age—this one’s for you.
More information
Aucun commentaire pour le moment