
Nouveau chez Audible ?
Résultats de "Eliezer Yudkowsky" dans Toutes les catégories
-
-
Inadequate Equilibria
- Where and How Civilizations Get Stuck
- De : Eliezer Yudkowsky
- Lu par : Robert Miles
- Durée : 4 h et 58 min
- Version intégrale
-
Global
-
Performance
-
Histoire
Eliezer Yudkowsky’s Inadequate Equilibria is a sharp and lively guidebook for anyone questioning when and how they can know better, and do better, than the status quo. Freely mixing debates on the foundations of rational decision-making with tips for everyday life, Yudkowsky explores the central question of when we can (and can’t) expect to spot systemic inefficiencies, and exploit them.
-
Inadequate Equilibria
- Where and How Civilizations Get Stuck
- Lu par : Robert Miles
- Durée : 4 h et 58 min
- Date de publication : 29/07/2025
- Langue : Anglais
Impossible d'ajouter des articles
Désolé, nous ne sommes pas en mesure d'ajouter l'article car votre panier est déjà plein.Veuillez réessayer plus tardVeuillez réessayer plus tardÉchec de l’élimination de la liste d'envies.
Veuillez réessayer plus tardImpossible de suivre le podcast
Impossible de ne plus suivre le podcast
13,42 € ou gratuit avec l'essai. Renouvellement automatique à 9,95 €/mois après l'essai. Voir conditions d'éligibilité
-
-
-
If Anyone Builds It, Everyone Dies
- The Case Against Superintelligent AI
- De : Eliezer Yudkowsky, Nate Soares
- Durée : Indisponible
- Version intégrale
-
Global
-
Performance
-
Histoire
The scramble to create superhuman AI has put us on the path to extinction – but it's not too late to change course. Companies and countries are in a race to build machines that will be smarter than any person, and the world is devastatingly unprepared for what will come next. How could a machine superintelligence wipe out our entire species? Will it want to? Will it want anything at all?
-
If Anyone Builds It, Everyone Dies
- The Case Against Superintelligent AI
- Durée : Indisponible
- Date de publication : 18/09/2025
- Langue : Anglais
Impossible d'ajouter des articles
Désolé, nous ne sommes pas en mesure d'ajouter l'article car votre panier est déjà plein.Veuillez réessayer plus tardVeuillez réessayer plus tardÉchec de l’élimination de la liste d'envies.
Veuillez réessayer plus tardImpossible de suivre le podcast
Impossible de ne plus suivre le podcast
27,42 € ou écoutez-le à sa sortie avec l'abonnement
-
-
-
Rationality: From AI to Zombies
- De : Eliezer Yudkowsky
- Lu par : George Thomas, Robert DeRoeck, Aaron Silverbook
- Durée : 49 h et 40 min
- Version intégrale
-
Global
-
Performance
-
Histoire
What does it actually mean to be rational? Not Hollywood-style "rational", where you forsake all human feeling to embrace Cold Hard Logic, but where you make good decisions, even when it's hard; where you reason well, even in the face of massive uncertainty; where you recognize and make full use of your fuzzy intuitions and emotions, rather than trying to discard them. In Rationality: From AI to Zombies, Eliezer Yudkowsky explains the science underlying human irrationality with a mix of fables, argumentative essays, and personal vignettes.
-
Rationality: From AI to Zombies
- Lu par : George Thomas, Robert DeRoeck, Aaron Silverbook
- Durée : 49 h et 40 min
- Date de publication : 02/11/2017
- Langue : Anglais
Impossible d'ajouter des articles
Désolé, nous ne sommes pas en mesure d'ajouter l'article car votre panier est déjà plein.Veuillez réessayer plus tardVeuillez réessayer plus tardÉchec de l’élimination de la liste d'envies.
Veuillez réessayer plus tardImpossible de suivre le podcast
Impossible de ne plus suivre le podcast
26,89 € ou gratuit avec l'essai. Renouvellement automatique à 9,95 €/mois après l'essai. Voir conditions d'éligibilité
-
-
-
If Anyone Builds It, Everyone Dies
- Why Superhuman AI Would Kill Us All
- De : Eliezer Yudkowsky, Nate Soares
- Durée : 7 h et 30 min
- Version intégrale
-
Global
-
Performance
-
Histoire
In 2023, hundreds of machine-learning scientists signed an open letter warning about our risk of extinction from smarter-than-human AI. Yet today, the race to develop superhuman AI is only accelerating, as many tech CEOs throw caution to the wind, aggressively scaling up systems they don't understand—and won’t be able to restrain. There is a good chance that they will succeed in building an artificial superintelligence on a timescale of years or decades. And no one is prepared for what will happen next.
-
If Anyone Builds It, Everyone Dies
- Why Superhuman AI Would Kill Us All
- Durée : 7 h et 30 min
- Date de publication : 16/09/2025
- Langue : Anglais
Impossible d'ajouter des articles
Désolé, nous ne sommes pas en mesure d'ajouter l'article car votre panier est déjà plein.Veuillez réessayer plus tardVeuillez réessayer plus tardÉchec de l’élimination de la liste d'envies.
Veuillez réessayer plus tardImpossible de suivre le podcast
Impossible de ne plus suivre le podcast
17,28 € ou écoutez-le à sa sortie avec l'abonnement
-
-
-
Rationality: From AI to Zombies
- De : Eliezer Yudkowsky
- Enregistrement original
-
Global
-
Performance
-
Histoire
What does it actually mean to be rational? The kind of rationality where you make good decisions, even when it's hard; where you reason well, even in the face of massive uncertainty; where you recognize and make full use of your fuzzy intuitions and emotions, rather than trying to discard them. In Rationality: From AI to Zombies, Eliezer Yudkowsky explains the science underlying human irrationality with a mix of fables, argumentative essays, and personal vignettes. These eye-opening accounts of how the mind works (and how, all too often, it doesn't) are then put to the test through some ...
Impossible d'ajouter des articles
Désolé, nous ne sommes pas en mesure d'ajouter l'article car votre panier est déjà plein.Veuillez réessayer plus tardVeuillez réessayer plus tardÉchec de l’élimination de la liste d'envies.
Veuillez réessayer plus tardImpossible de suivre le podcast
Impossible de ne plus suivre le podcast
-