S2.Ep3 - LLM, pensare o prevedere?
Impossible d'ajouter des articles
Désolé, nous ne sommes pas en mesure d'ajouter l'article car votre panier est déjà plein.
Veuillez réessayer plus tard
Veuillez réessayer plus tard
Échec de l’élimination de la liste d'envies.
Veuillez réessayer plus tard
Impossible de suivre le podcast
Impossible de ne plus suivre le podcast
-
Lu par :
-
De :
À propos de ce contenu audio
Scopriamo come i Large Language Model (LLM) prevedono le parole successive in una frase basandosi su vasti dataset, utilizzando "embeddings" per mappare le relazioni tra le parole in uno spazio multidimensionale. Parliamo poi dell'architettura Retrieval-Augmented Generation (RAG) e altre tecniche per aggiornare i LLM con informazioni recenti. Ma anche GPT-4, Claude 3 e Gemini 1.5... Ascolta ora la puntata con Lorenzo Beliusse, Stefano Zaffaroni e Marco Acchini.
Vous êtes membre Amazon Prime ?
Bénéficiez automatiquement de 2 livres audio offerts.Bonne écoute !
Aucun commentaire pour le moment