21 - Unpacking the Alignment Problem in AI: Navigating Morality, Politics, and Market Structures
Impossible d'ajouter des articles
Désolé, nous ne sommes pas en mesure d'ajouter l'article car votre panier est déjà plein.
Veuillez réessayer plus tard
Veuillez réessayer plus tard
Échec de l’élimination de la liste d'envies.
Veuillez réessayer plus tard
Impossible de suivre le podcast
Impossible de ne plus suivre le podcast
-
Lu par :
-
De :
À propos de ce contenu audio
Join Noah and Marty as they delve deep into the immense conceptual and computational difficulties involved in ensuring advanced AI remains aligned with human ethics and values over the long-term. We discuss using "negotiation games" to help align AI systems' goals with human values and interests over time. The idea is to incentivize AI systems to make accurate long-term forecasts that benefit humanity.
Also we touch on paradoxes and intractable complications that plague the approaches and thinking at the foundations of current deployment of AI systems.
Vous êtes membre Amazon Prime ?
Bénéficiez automatiquement de 2 livres audio offerts.Bonne écoute !
Aucun commentaire pour le moment