Should we be using LLMs for discharge summarisation?
Impossible d'ajouter des articles
Désolé, nous ne sommes pas en mesure d'ajouter l'article car votre panier est déjà plein.
Veuillez réessayer plus tard
Veuillez réessayer plus tard
Échec de l’élimination de la liste d'envies.
Veuillez réessayer plus tard
Impossible de suivre le podcast
Impossible de ne plus suivre le podcast
-
Lu par :
-
De :
À propos de ce contenu audio
This episode, we discuss some of the challenges in using large language models (LLMs) for the task of summarising inpatient encounters.
- 00:30 - Technical wrap - new models, MiT’s State of AI in Business 2025
- 12:40 - Medical summarisation
- 19:30 - Context Rot: How Increasing Input Tokens Impacts LLM Performance
- 30:50 - Verifiable Summarization of Electronic Health Records Using Large Language Models to Support Chart Review
- 40:00 - Evaluating large language models for drafting emergency department encounter summaries
- 42:25 - Evaluating Hospital Course Summarization by an Electronic Health Record-Based Large Language Model
More details in the show notes on our website.
Episodes | Bluesky | info@medicalattention.ai
Vous êtes membre Amazon Prime ?
Bénéficiez automatiquement de 2 livres audio offerts.Bonne écoute !
Aucun commentaire pour le moment